.from_pretrained() dans la bibliothèque des transformateurs

avant-propos

  • Lors de l'exécution Faspectdu code, transformerje suis curieux de connaître la méthode de chargement de la série de modèles pré-entraînés, alors enregistrez
from transformers import AutoConfig, FlaxAutoModelForVision2Seq

# Download configuration from huggingface.co and cache.
config = AutoConfig.from_pretrained("bert-base-cased")
model = FlaxAutoModelForVision2Seq.from_config(config)

Lors de l'utilisation de la série de modèles Huggingfacefournis transformer, model.from_pretrainedle modèle pré-entraîné sera chargé via la fonction.

from_pretraindeLe prototype de fonction est

def from_pretrained(cls, pretrained_model_name_or_path: Optional[Union[str, os.PathLike]], *model_args, **kwargs):
# 从预训练的模型配置实例化预训练的 Pytorch 模型

Introduction au chargement de l'adresse du modèle pré-entraîné

  • pretrained_model_name_or_path:
    • Une chaîne, l'identifiant du modèle indiquant que le modèle huggingface.coexiste dans le référentiel de modèles. Les identifiants de modèle valides peuvent se trouver au niveau racine, par exemple bert-base-uncased, ou sous un espace de noms d'un nom d'utilisateur ou d'organisation, par exempledbmdz/bert-base-german-cased
    • Chemin d'accès à un dossier contenant save_pretrained()les poids de modèle enregistrés à l'aide de , par ex../my_model_dir
    • Un chemin vers tensorflow index checkpoint file, par exemple../tf_model/model.ckpt.index
    • Le chemin d'accès au dossier modèle contenant le msgpackformat .flax checkpoint file

Astuce : Si le serveur ne peut pas accéder à huggingface via le premier formulaire, vous pouvez d'abord trouver le dépôt correspondant sur huggingface, le télécharger et utiliser la deuxième méthode pour charger le modèle.

Je suppose que tu aimes

Origine blog.csdn.net/qq_52852138/article/details/128474948
conseillé
Classement