Similar a Lista de clasificación de modelos grandes de ChatGPT: lista de SuperCLUE Langya TOP16

SuperCLUE utiliza el sistema de clasificación Elo para calcular el rendimiento relativo de los modelos. SuperCLUE Nirvana in Fire publicará nuevas clasificaciones regularmente.
Última actualización: 2023-05-29 18:22:35

1, cláusula antrópica

由 Anthropic 开发,基于 Anthropic 对训练有用、诚实、无害的人工智能系统的研究。

2, MiniMax-abab5

由 MINIMAX 公司开发,帮助人类高效写作、激发创意、获取知识、做出决策。

3, gpt-3.5-turbo

由 OpenAI 开发,当前大家最频繁使用的版本。

4, ChatGLM-130B

Desarrollado por la Universidad de Tsinghua y Zhipu AI, es un modelo de diálogo bilingüe abierto.

5, ChatGLM-6B

Desarrollado por la Universidad de Tsinghua y Zhipu AI, es un modelo de diálogo bilingüe de código abierto.

6, fénix-inst-chat-7b

Desarrollado por la Universidad China de Hong Kong (Shenzhen), un asistente de chat multilingüe basado en el ajuste fino de Bloomz.

7, musgo-luna-003-sft

Desarrollado por el Laboratorio de Procesamiento del Lenguaje Natural de la Universidad de Fudan, es un modelo de lenguaje de diálogo de código abierto que admite complementos bilingües chino-inglés y varios complementos.

8. Longjing-7B

Nueva rama Modelos de lenguaje grande bajo ChatYuan.

9. idea-jiangziya

Desarrollado por IDEA Research Institute CCNL, reconstruye el vocabulario chino de LLaMA-13B y realiza un entrenamiento previo en la escala de 100 mil millones de tokens, de modo que el modelo tiene capacidades nativas de chino.

10, vicuña-13b

Desarrollado por LMSYS, basado en LLaMA y ajustado con diálogo compartido por el usuario.

11, Bella-13B

Desarrollado por LianjiaTech, optimizado para chino basado en BLOOM y LLAMA, el ajuste del modelo solo usa datos generados por ChatGPT para brindar un mejor soporte para las instrucciones en chino.

12, LMFlow-Robin-7B

Desarrollado por el equipo del Laboratorio de Estadísticas y Aprendizaje Automático de HKUST, el modelo es una versión mejorada de pinkmanlove/llama-7b-hf en un conjunto de datos personalizado.

13, Linly-ChatFlow-7B

Desarrollado por el Laboratorio Nacional de Ingeniería de Tecnología Informática de Sistemas de Big Data, se obtiene ajustando el modelo básico chino en el conjunto de datos de 4 millones de instrucciones.

14, RWKV-4-Cuervo-7B

Desarrollado por la Fundación RWKV, es un modelo de lenguaje que combina RNN y Transformer, es adecuado para textos largos, se ejecuta más rápido, tiene un mejor rendimiento de ajuste, ocupa menos memoria de video y requiere menos tiempo de entrenamiento.

15、Chino-Alpaca-Plus-13B

Una versión del modelo Chinese Alpaca, sobre la base del modelo LLaMA original, amplía el vocabulario chino y utiliza datos chinos para la formación previa secundaria, mejorando aún más la comprensión semántica básica del chino.

16, Bloomz-7b1-mt

Serie BLOOMZ & mT0 de bigscience, una familia de modelos capaces de ejecutar instrucciones humanas en decenas de idiomas.

Consulte las últimas clasificaciones en el sitio web oficial de SuperCLUE Nirvana Rankings ;

Supongo que te gusta

Origin blog.csdn.net/bfhelin/article/details/131143027
Recomendado
Clasificación