SuperCLUE utiliza el sistema de clasificación Elo para calcular el rendimiento relativo de los modelos. SuperCLUE Nirvana in Fire publicará nuevas clasificaciones regularmente.
Última actualización: 2023-05-29 18:22:35
1, cláusula antrópica
由 Anthropic 开发,基于 Anthropic 对训练有用、诚实、无害的人工智能系统的研究。
2, MiniMax-abab5
由 MINIMAX 公司开发,帮助人类高效写作、激发创意、获取知识、做出决策。
3, gpt-3.5-turbo
由 OpenAI 开发,当前大家最频繁使用的版本。
4, ChatGLM-130B
Desarrollado por la Universidad de Tsinghua y Zhipu AI, es un modelo de diálogo bilingüe abierto.
5, ChatGLM-6B
Desarrollado por la Universidad de Tsinghua y Zhipu AI, es un modelo de diálogo bilingüe de código abierto.
6, fénix-inst-chat-7b
Desarrollado por la Universidad China de Hong Kong (Shenzhen), un asistente de chat multilingüe basado en el ajuste fino de Bloomz.
7, musgo-luna-003-sft
Desarrollado por el Laboratorio de Procesamiento del Lenguaje Natural de la Universidad de Fudan, es un modelo de lenguaje de diálogo de código abierto que admite complementos bilingües chino-inglés y varios complementos.
8. Longjing-7B
Nueva rama Modelos de lenguaje grande bajo ChatYuan.
9. idea-jiangziya
Desarrollado por IDEA Research Institute CCNL, reconstruye el vocabulario chino de LLaMA-13B y realiza un entrenamiento previo en la escala de 100 mil millones de tokens, de modo que el modelo tiene capacidades nativas de chino.
10, vicuña-13b
Desarrollado por LMSYS, basado en LLaMA y ajustado con diálogo compartido por el usuario.
11, Bella-13B
Desarrollado por LianjiaTech, optimizado para chino basado en BLOOM y LLAMA, el ajuste del modelo solo usa datos generados por ChatGPT para brindar un mejor soporte para las instrucciones en chino.
12, LMFlow-Robin-7B
Desarrollado por el equipo del Laboratorio de Estadísticas y Aprendizaje Automático de HKUST, el modelo es una versión mejorada de pinkmanlove/llama-7b-hf en un conjunto de datos personalizado.
13, Linly-ChatFlow-7B
Desarrollado por el Laboratorio Nacional de Ingeniería de Tecnología Informática de Sistemas de Big Data, se obtiene ajustando el modelo básico chino en el conjunto de datos de 4 millones de instrucciones.
14, RWKV-4-Cuervo-7B
Desarrollado por la Fundación RWKV, es un modelo de lenguaje que combina RNN y Transformer, es adecuado para textos largos, se ejecuta más rápido, tiene un mejor rendimiento de ajuste, ocupa menos memoria de video y requiere menos tiempo de entrenamiento.
15、Chino-Alpaca-Plus-13B
Una versión del modelo Chinese Alpaca, sobre la base del modelo LLaMA original, amplía el vocabulario chino y utiliza datos chinos para la formación previa secundaria, mejorando aún más la comprensión semántica básica del chino.
16, Bloomz-7b1-mt
Serie BLOOMZ & mT0 de bigscience, una familia de modelos capaces de ejecutar instrucciones humanas en decenas de idiomas.
Consulte las últimas clasificaciones en el sitio web oficial de SuperCLUE Nirvana Rankings ;