[Cours 3-6 de la série AIGC sur les grands modèles] Application de ChatGLM2-6B

Colonnes recommandées : "Large Model AIGC" ; "Course Outline"
Cette colonne est dédiée à l'exploration et à la discussion des tendances technologiques et des domaines d'application les plus de pointe d'aujourd'hui, y compris, mais sans s'y limiter, ChatGPT et Stable Diffusion. Nous approfondirons le développement et l’application de modèles à grande échelle et la technologie associée de contenu généré par l’intelligence artificielle (AIGC). Grâce à une analyse technique approfondie et au partage d’expériences pratiques, il vise à aider les lecteurs à mieux comprendre et appliquer les derniers développements dans ces domaines.

1. Spéculation sur les modèles

!pip install transformers
!pip install sentencepiece

Par défaut, le modèle est chargé avec une précision FP16 et l'exécution du code ci-dessus nécessite environ 13 Go de mémoire vidéo.

from transformers import AutoTokenizer, AutoModel
tokenizer = AutoTokenizer.from_pretrained(

Guess you like

Origin blog.csdn.net/u011239443/article/details/132991467