avant-propos
- Lors de l'exécution
Faspect
du code,transformer
je suis curieux de connaître la méthode de chargement de la série de modèles pré-entraînés, alors enregistrez
from transformers import AutoConfig, FlaxAutoModelForVision2Seq
# Download configuration from huggingface.co and cache.
config = AutoConfig.from_pretrained("bert-base-cased")
model = FlaxAutoModelForVision2Seq.from_config(config)
Lors de l'utilisation de la série de modèles Huggingface
fournis transformer
, model.from_pretrained
le modèle pré-entraîné sera chargé via la fonction.
from_pretrainde
Le prototype de fonction est
def from_pretrained(cls, pretrained_model_name_or_path: Optional[Union[str, os.PathLike]], *model_args, **kwargs):
# 从预训练的模型配置实例化预训练的 Pytorch 模型
Introduction au chargement de l'adresse du modèle pré-entraîné
pretrained_model_name_or_path
:- Une chaîne, l'identifiant du modèle indiquant que le modèle
huggingface.co
existe dans le référentiel de modèles. Les identifiants de modèle valides peuvent se trouver au niveau racine, par exemplebert-base-uncased
, ou sous un espace de noms d'un nom d'utilisateur ou d'organisation, par exempledbmdz/bert-base-german-cased
- Chemin d'accès à un dossier contenant
save_pretrained()
les poids de modèle enregistrés à l'aide de , par ex../my_model_dir
- Un chemin vers
tensorflow index checkpoint file
, par exemple../tf_model/model.ckpt.index
- Le chemin d'accès au dossier modèle contenant le
msgpack
format .flax checkpoint file
- Une chaîne, l'identifiant du modèle indiquant que le modèle
Astuce : Si le serveur ne peut pas accéder à huggingface via le premier formulaire, vous pouvez d'abord trouver le dépôt correspondant sur huggingface, le télécharger et utiliser la deuxième méthode pour charger le modèle.