Stability AI lanzó ayer su último modelo de lenguaje: Stable LM 3B, que puede ejecutarse en dispositivos inteligentes como computadoras portátiles y teléfonos móviles.
El anuncio dice que Stable LM 3B contiene 3 mil millones de parámetros, que es más pequeño y más eficiente que los 7 mil millones de parámetros comúnmente utilizados en la industria. Las funciones principales son las siguientes:
- Generación de texto: se puede utilizar para generar texto.
- Autoregresivo: arquitectura basada en transformador-decodificador
- Diversos datos de entrenamiento: se utilizan múltiples conjuntos de datos de código abierto a gran escala
Características clave del LM estable 3B:
- Alto rendimiento: a pesar de tener sólo 3 mil millones de parámetros, el rendimiento está a la par, y en ocasiones supera, a los modelos más grandes.
- Bajo consumo de energía: Diseñado para funcionar de manera eficiente en dispositivos portátiles, por lo que los requisitos de energía son bajos.
- Compatible con múltiples plataformas: se ejecuta en dispositivos periféricos, computadoras domésticas y otros dispositivos digitales portátiles.
- Ajustable: los modelos se pueden ajustar para necesidades específicas, como asistencia de programación u otras aplicaciones especializadas.
- Código abierto: este modelo ha sido de código abierto en la plataforma Hugging Face ( https://huggingface.co/stabilityai/stablelm-3b-4e1t ), lo que facilita su uso y mejora para los desarrolladores.
- Detalles de capacitación: el modelo se entrenó en el clúster de Stability AI, utilizando 256 GPU NVIDIA A100 de 40 GB (instancias AWS P4d).
Detalles: https://stability.ai/blog/