Comprenda las estrategias de capacitación, inferencia e implementación de modelos grandes de múltiples fabricantes en un solo artículo.

El 20 de abril se celebró con éxito la 102ª Conferencia de Yuanchuang en Wuhan. Este número invita a expertos en inteligencia artificial del Instituto de Investigación de Inteligencia Artificial de Wuhan, Huawei, MindSpore, JD Cloud y Gitee AI a dar discursos sobre el tema [Competencia de modelos grandes y optimización del rendimiento]. ¡A continuación, echemos un vistazo a los maravillosos momentos de este evento!
Consigue una foto grupal ✅
¡La pizza y los regalos son imprescindibles!
A continuación viene el repaso del discurso de apertura. Puede escanear el código QR a continuación, seguir la cuenta de video "OSC Open Source Community" e ingresar a la página "Live Replay" para ver la reseña completa del video:

Liu Hao: análisis de modelos grandes y perspectivas de tendencias

Liu Hao, director del Departamento de Transformación de Capital Riesgo del Instituto de Investigación de Inteligencia Artificial de Wuhan, compartió el tema "Análisis de modelos grandes y perspectivas de tendencias". El Instituto de Inteligencia Artificial de Wuhan, donde trabaja Liu Hao, comenzó a investigar la tecnología de modelos grandes ya en 2020. En julio de 2021, lanzó el primer modelo grande trimodal del mundo con 100 mil millones de parámetros, que abarcan imágenes, texto y voz.
 
Liu Hao señaló que en las primeras investigaciones sobre tecnología de inteligencia artificial, había tres problemas principales: primero, la capacidad de generalización era muy pobre y solo podía resolver problemas similares; segundo, la capacidad del modelo era única y no podía resolver texto enriquecido; era necesario integrar varios modelos; en tercer lugar, en el último período, la demanda de anotaciones de datos ha sido demasiado grande. Los modelos grandes pueden resolver problemas desde estos tres aspectos, especialmente después de la aparición de ChatGPT. El éxito de ChatGPT significa que muchas tareas posteriores o modelos posteriores de inteligencia artificial pueden ingresar a la línea de producción, lo que abre una era de productización de la inteligencia artificial, lo que permite a los técnicos concentrarse en crear modelos base y permite que más personas participen en la industria de la inteligencia artificial. .
 
Además, el modelo grande ha estimulado la estimulación del almacenamiento, la potencia informática, la capacidad de transporte y otros vínculos, y ha conectado muchas industrias ascendentes y descendentes a través del modelo grande.
 
Técnicamente hablando, muchos modelos grandes en el país y en el extranjero todavía utilizan esencialmente la arquitectura MoE anterior, pero los modelos grandes han experimentado una buena transformación de ingeniería y producto. Después de que los parámetros del modelo superaron los 66 mil millones, la inexplicabilidad de la inteligencia artificial se hizo más fuerte, incluida la aparición de capacidades que parecían inexplicables. Liu Hao cree que el método utilizado por OpenAI para hacer que ChatGPT sea tan efectivo sigue siendo una caja negra, pero ha explorado un camino para la representación y el razonamiento unificados del conocimiento, la cognición y el modelado del mundo y otras cuestiones.
 
Los grandes modelos han cambiado no sólo el modelo de investigación, sino también el modelo de servicio y desarrollo. Por ejemplo, muchas empresas comenzaron a cancelar suscripciones a tarjetas gráficas de modelos grandes y detuvieron el desarrollo de modelos grandes. Al final, es posible que solo queden unas pocas grandes empresas de modelos en la industria que fabrican modelos básicos de gran tamaño, mientras que la mayoría son profesionales de la industria. Esto también significa que los modelos grandes han entrado en la etapa de producción industrial y muchas herramientas se formarán en modelos grandes.
 
Actualmente, Zidong Taichu 2.0 se ha actualizado a un modelo grande totalmente modal, agregando modalidades de información como nubes de puntos tridimensionales. Al mismo tiempo, el Instituto de Investigación de Inteligencia Artificial de Wuhan también ha construido una plataforma de servicios abiertos de inteligencia artificial nacional de pila completa. Utiliza modelos grandes como base para implementar una plataforma integral y adopta un nuevo modelo de plataforma de potencia informática. por un lado, utiliza la base para ajustar los datos y, por otro lado, utiliza En términos de aspectos, la plataforma y la potencia informática se pueden combinar a la perfección. Actualmente, se han implementado múltiples AICC en todo el país, completando la adaptación de localización de pila completa, utilizando potencia informática inclusiva de alto rendimiento, integrando profundamente escenarios industriales y acelerando la aplicación de grandes modelos para potenciar a miles de industrias.
 
Finalmente, Liu Hao también dio sus cuatro juicios principales sobre las tendencias de desarrollo de modelos grandes:
  • Tendencia 1: las aplicaciones de tecnología de la información y la ecología de la innovación han experimentado cambios tremendos, como la alimentación continua de datos para completar diversas actividades inteligentes, el desarrollo de aplicaciones ingresa al modo de programación en lenguaje natural, etc.;
  • Tendencia 2: remodelar el paradigma de la inteligencia para la toma de decisiones, como la alineación entre humanos y máquinas para ayudar en la toma de decisiones;
  • Tendencia 3: Desarrollarse en la dirección de la miniaturización y la dominioización, avanzando hacia una inteligencia artificial profesional basada en la IA cognitiva general;
  • Tendencia 4: Avanzar hacia una inteligencia artificial más general, como modelos grandes que interactúan con robots humanoides.
Escanee el código QR para ver la repetición de la conferencia "Análisis de modelos grandes y perspectivas de tendencias" ⬇️

Li Shuqiao: Aplicación e implementación de tecnología de optimización de modelos grandes en Shengteng

El ingeniero de software de Huawei, Li Shuqiao, pronunció un discurso de apertura sobre "Aplicación e implementación de tecnología de optimización de modelos grandes en Ascend". Presentó las características de potencia informática de modelos grandes de Ascend desde tres aspectos, incluido el soporte nativo de Ascend para la biblioteca de aceleración de código abierto y la autoevaluación de Ascend. Desarrollé grandes modelos de tecnología de optimización e implementación de producción basada en la nube nativa.
 
En primer lugar, admite varias bibliotecas de código abierto, que cubren cuatro aspectos principales: modelos de terceros, marcos de inteligencia artificial de terceros, bibliotecas de aceleración de terceros y servicios de razonamiento de terceros. Por ejemplo, con respecto al soporte de Pytorch y Torch NPU, Pytorch es un marco de IA que se puede dividir en dos partes: la capa superior es la parte de Pytorch y la capa inferior es la NPU de Torch. En la capa superior, Ascend registra operadores nativos y operadores personalizados en PyTorch mediante el registro, de modo que PyTorch pueda ejecutarse en Ascend. Para la NPU inferior de Torch, a través de contribuciones de código abierto, se optimizan muchos módulos como checkpoint, FSDP y Dataloader. capacidades de soporte, lo que permite el soporte nativo para NPU.
 
Además, Ascend también es compatible con el marco de modelo universal onnxRuntime. Se pueden guardar diferentes marcos, incluidos Pytorch, TensorFlow, MindSpore, etc., en formato onnx, y onnxRuntime puede ejecutarse y llamar al formato unificado. El soporte nativo de Ascend ya es compatible con la biblioteca onnxRuntime, lo que lo hace muy conveniente para conectar múltiples marcos y facilitar su uso.
 
En términos de compresión de modelos, DeepSpeed ​​​​puede comprimir modelos grandes para que puedan implementarse y ejecutarse mejor. Actualmente, también es compatible con el soporte nativo de Shengteng.
 
Para la biblioteca de visión por computadora OpenCV que proporciona procesamiento de imágenes, aprendizaje automático, análisis de video y más. Ascend implementa soporte back-end, proporcionando la estructura de datos Ascend NPU AscendMat y 18 interfaces de alta frecuencia, y mejora el rendimiento de la mayoría de los operadores en un 30%.
 
Migración de código. Basado en Pytorch y TorchNPU, se implementa el soporte nativo de OpenCLIP para Shengteng. Se pueden implementar 3 líneas de código para migrar el modelo al dispositivo Shengteng.
 
En segundo lugar, Shengteng desarrolló por sí mismo una tecnología de optimización de modelos grandes. Biblioteca de aceleración de modelos grandes AscendSpeed ​​​​de desarrollo propio de Ascend. El entrenamiento de modelos grandes es un proceso muy complejo que involucra muchas tecnologías y desafíos. El entrenamiento de modelos grandes requiere una gran cantidad de recursos de memoria de video, lo cual es un problema difícil y representa un desafío considerable para las tarjetas informáticas. Para realizar cálculos a través de múltiples tarjetas informáticas cuando los recursos de memoria de video de una sola tarjeta informática son insuficientes, han surgido en la industria bibliotecas de aceleración de modelos grandes de terceros, como Megatron y DeepSpeed, para segmentar modelos, ingresar datos, etc. y distribuirlos a diferentes tarjetas informáticas. Finalmente, los resultados se resumen a través de comunicación colectiva. Ascend proporciona la biblioteca de aceleración AscendSpeed ​​​​para permitir a los clientes migrar rápidamente servicios de modelos grandes a dispositivos Ascend y admite los algoritmos patentados de Ascend para garantizar la usabilidad lista para usar.
 
Ascend también proporciona una cadena de herramientas AIT (Ascend Inference Tools) relativamente completa, que sirve como entrada a la cadena de herramientas de inferencia unificada, proporciona a los clientes herramientas de desarrollo integradas y admite depuración y ajuste desde un solo lugar.
 
Finalmente, en cuanto a implementación productiva basada en la nube nativa. El programador volcánico K8S admite la programación por afinidad de dispositivos Ascend. Además, el complemento de dispositivo Kubernetes Ascend puede informar la cantidad de dispositivos que descubre al sistema Kubernetes. Cuando un dispositivo no está en buen estado, se informa al sistema Kubernetes y se elimina. Después de una falla del dispositivo, se creará un nuevo contenedor. Se levantará automáticamente y se montará un equipo saludable y se reconstruirá la misión de entrenamiento. Actualmente, el backend de Space compatible de forma nativa con Vicuña ya utiliza el complemento de dispositivo Kubernetes.
 
Escanee el código QR para ver la repetición de la conferencia "Aplicación e implementación de tecnología de optimización de modelos grandes en Shengteng" ⬇️

Yuan Lijiang: La sabiduría inspira el futuro - Plataforma modelo grande de Yanxi

Yuan Lijiang, director de producto de JD Cloud, pronunció un discurso de apertura sobre "Inspirar el futuro con inteligencia - Yanxi Large Model Platform". Yuan Lijiang presentó que existen cinco desafíos principales en la implementación de modelos grandes a nivel empresarial: tiempo real, explicabilidad, seguridad y controlabilidad, toma de decisiones compleja y profesionalismo. La clave para la implementación es cómo tomar decisiones correctas en tiempo real. y en un entorno incierto y dinámicamente cambiante.
 
Yuan Lijiang presentó que hay dos formas principales de implementar modelos grandes: una es el modelo Copilot. La inteligencia artificial solo sirve como asistente en algunos escenarios, como la generación de contenido de texto. procesamiento, Vicente Tu, etc. De hecho, las empresas necesitan liberar la mayor cantidad de mano de obra posible. El otro es el modo Agente, que es más adecuado para escenarios complejos en empresas. En este modo, los humanos se encuentran en una perspectiva de dimensiones superiores y actúan como "mentores" o "entrenadores" de la inteligencia artificial, estableciendo objetivos y supervisando los resultados. El modelo grande puede ejercer su capacidad de razonamiento, utilizar herramientas y excusas adecuadas y, finalmente, dar la retroalimentación de resultados correspondiente.
 
Las principales tecnologías utilizadas para la implementación de modelos grandes en las empresas también han cambiado. El pre-tren inicial tiene el costo más alto y una gran inversión; posteriormente, el costo del modo SFT disminuyó pero el efecto de implementación no fue bueno; modo RAG mejorado de base de datos vectorial, pero el efecto se mejoró. Al final, solo puede limitarse a escenarios de preguntas y respuestas de conocimiento, los equipos técnicos competentes prestan más atención al modo Agente y pueden lograr soporte en múltiples escenarios.
 
En el negocio financiero de JD.com, es difícil mejorar la capacidad de los modelos grandes para resolver problemas prácticos simplemente confiando en SFT o LoRA de modelos grandes. En cambio, se basa en la tecnología de agentes para permitir que las máquinas utilicen herramientas para resolver problemas comerciales. Específicamente, utiliza el Agente para comprender los objetivos del usuario, desarmar cada subtarea y seleccionar las herramientas adecuadas para cada subtarea. Estas herramientas son algunas de las interfaces del negocio original de JD.com y, finalmente, se combinan con grandes capacidades de modelo para proporcionar retroalimentación. . De esta forma, las respuestas a las preguntas complejas de algunos usuarios serán más precisas.
 
En la actualidad, la plataforma de modelo completo de JD Yanxi ha creado una matriz de productos de varias capas. La capa más baja es el soporte de recursos, incluidos los recursos informáticos, los recursos de almacenamiento, la red de alta velocidad y la programación de recursos. En la capa de recursos del modelo, proporciona capacidades como gestión y capacitación de modelos, procesamiento de conjuntos de datos y evaluación e implementación de modelos. Por encima de la capa de recursos del modelo se encuentra la construcción de agentes inteligentes, centrándose en la integración de varias herramientas. La capa superior es la capa de servicios de aplicaciones, que se adapta a múltiples escenarios empresariales.
 
La plataforma de modelos grandes de JD Yanxi tiene 6 funciones principales: colaboración en la programación de recursos, que puede realizar una gestión y programación eficientes de los recursos informáticos, garantizando la optimización del rendimiento y el control de costos del desarrollo y la aplicación de datos de modelos grandes, que proporciona gestión y soporte para la capacitación de modelos grandes; La capacitación previa, el ajuste, el aprendizaje reforzado y la evaluación se llevan a cabo de manera eficiente; la capacitación, la capacitación y el ajuste del modelo a través de modelos grandes permiten a las empresas tener modelos personalizados para mejorar la precisión y la relevancia de la construcción de agentes inteligentes; implementar agentes inteligentes, combinados con los sistemas de TI existentes de la empresa para realizar tareas complejas, el cumplimiento de la seguridad garantiza que todas las aplicaciones de modelos grandes cumplan con los estándares de seguridad y los requisitos legales y reglamentarios; el mercado de aplicaciones inteligentes proporciona una serie de aplicaciones de modelos grandes prediseñadas; que las empresas pueden implementar directamente o proporcionar complementos Acceso rápido al sistema.
 
Escanee el código QR para ver la repetición del discurso "Inspiring the Future - Yanxi Large Model Platform" ⬇️

Lin Jiazhen: sistema de inferencia sin servidor de modelo grande

Actualmente, algunas partes o plataformas modelo proporcionarán a los usuarios individuales cierta potencia informática gratuita para utilizar tecnología de modelos grandes. Gitee.AI, como una gran plataforma de agregación de modelos, también proporciona potencia informática gratuita a los usuarios individuales. Lin Jiazhen, consultor experto de Gitee AI y el Instituto de Computación de Alto Rendimiento de la Universidad de Tsinghua, pronunció un discurso de apertura sobre "Sistema de inferencia sin servidor de modelo grande".
 
Lin Jiazhen señaló que Gitee.AI actualmente agrega más de 2000 modelos, pero los recursos informáticos gratuitos son limitados, por lo que es necesario asignar de manera más eficiente estos recursos informáticos gratuitos a los desarrolladores bajo demanda, lo cual es un gran desafío en este momento. asuntos. Por ejemplo, cuando la tecnología de contenedores se utilizaba para el desarrollo externo en el pasado, el intercambio y la activación de un solo contenedor eran muy rápidos. Sin embargo, esto se ha vuelto difícil en la era de los modelos grandes. La activación y suspensión del modelo hacen que la gestión de intercambio de entrada y salida de contenedores sea difícil de lograr en el pasado. La escena es igualmente eficiente.
 
La IA sin servidor tiene cuatro ventajas principales, que incluyen una implementación simple, uso inmediato, costos reducidos de uso de energía informática, cobertura de modelos convencionales y soporte para una variedad de hardware informático. Existe un problema con el motor del modelo actual, o la forma de comprar y utilizar la potencia informática, es decir, los programas de usuario, los modelos y los chips de inferencia están todos vinculados a un contenedor, ocupando el chip de hardware y utilizando servicios de potencia informática. El motor de inferencia sin servidor integra y optimiza los recursos de potencia informática, reduce el acoplamiento entre aplicaciones, modelos y potencia informática a través de múltiples niveles de desagregación, asigna potencia informática según demanda y mejora la utilización de recursos.
 
La arquitectura del sistema sin servidor se divide en tres capas. La capa más baja es la capa del compilador. La carga del modelo en el contenedor se cambia al modo de llamada rpc al servicio remoto. inferencia de back-end para realizar el modelo y el chip. rpc se proporciona al motor de inferencia en el nivel superior. El motor de inferencia es el clúster donde realmente ocurren los cálculos. Este nivel desagrega los datos y la potencia informática. Por ejemplo, supongamos un escenario de tarea en el que diez tarjetas satisfacen la solicitud de programación de 3000 modelos. En este momento, no hay forma de cargar un modelo grande de forma fija en una tarjeta. Es necesario cargar temporal y dinámicamente el modelo deseado de acuerdo con el. solicitud Por lo tanto, los pesos calculados del chip y del modelo se desagregan y el modelo se coloca en TanserGraph, que es un sistema de memoria heterogéneo que puede admitir la desagregación de chips y modelos de potencia informática. En la capa superior, se realizan la capa sin servidor, la aplicación, la inferencia y la agregación.
 
La capacidad principal de la arquitectura del sistema sin servidor es la memoria interconectada heterogénea para resolver el problema del peso del modelo. La arquitectura general del centro de datos tiene algunas limitaciones, como la baja utilización de recursos y la escalabilidad limitada del hardware. La tecnología de desagregación puede separar físicamente cada componente en la arquitectura general y utilizar una determinada interconexión para vincular la interfaz de control (plano de control) de cada componente y los datos. Interfaz (plano de datos) para realizar la asignación y expansión bajo demanda de diversos recursos. Además, la desagregación de la memoria también tiene ventajas para las aplicaciones en escenarios de nube, incluida la mejora de la utilización de los recursos del entorno de la nube y la facilitación de satisfacer la creciente demanda de recursos de memoria.
 
Sin embargo, el sistema de memoria jerárquico existente no es adecuado para la alta flexibilidad del hardware bajo la arquitectura de desagregación y la escalabilidad del sistema también es limitada. Además, debido a las limitaciones de la estructura interna del sistema, las capacidades de la interfaz de administración de memoria existente son limitadas. La memoria heterogénea interconectada puede resolver estos problemas a través de tres enlaces: estadísticas de acceso al hardware, estrategias programables y migración de páginas. Tomando la CPU como ejemplo, para las estadísticas de acceso basadas en PEB, el hardware es compatible para recopilar el estado de acceso a la memoria del programa en ejecución, registrar las instrucciones, TID, dirección de destino, etc., y luego cargar los pesos del modelo según sea necesario.
 
Además, la arquitectura del sistema sin servidor también tiene otras capacidades, como la tecnología de optimización de compilación de redes neuronales multinivel basada en MLIR y un mecanismo de servicio del sistema liviano basado en tecnología de aislamiento del espacio del usuario. El motor de inferencia sin servidor se basa en dos tecnologías de propiedad intelectual centrales. Además, también integra varias tecnologías de optimización de sistemas de inferencia convencionales.
 
Actualmente, Llama 3 se lanzó en Gitee AI. Copia el siguiente enlace en tu navegador e ingresa a la plataforma para experimentarlo (código de invitación: llama3):
https://ai.gitee.com/hf-models/shenzhi-wang/Llama3-8B-Chinese-Chat
 
Escanee el código QR para ver la repetición de la conferencia "Sistema de inferencia sin servidor de modelo grande" ⬇️

Chen Ziheng: tecnologías clave y planificación del gran modelo MindSpore

El ingeniero de investigación de MindSpore, Chen Ziheng, pronunció un discurso de apertura sobre "Tecnologías clave y planificación del modelo grande de MindSpore". Chen Ziheng dijo que en la industria, MindSpore se encuentra entre el hardware de chip subyacente y las aplicaciones industriales de nivel superior. En términos de tecnología de modelos grandes, MindSpore primero construye una capa básica, que cubre múltiples modelos grandes subyacentes. En la capa superior, construye modelos industriales con socios de la industria. Además, MindSpore también es compatible con una variedad de modelos grandes de código abierto convencionales en el país y en el extranjero. Para todos los modelos grandes, MindSpore utiliza tres paquetes básicos: MindFormers, MindPET y MindRLHF para unificar todo el proceso de desarrollo, ajuste e implementación de modelos grandes, permitiendo un uso listo para usar.
 
Para entrenamiento de modelos grandes. MindSpore utiliza un compilador basado en gráficos de cálculo para implementar estrategias paralelas. Ingrese un gráfico de cálculo y el proceso de compilación de gráficos de MindSpore segmentará el gráfico de acuerdo con la estrategia paralela e insertará automáticamente operadores de reordenamiento de datos en él para garantizar que la lógica de computación paralela de varias máquinas sea consistente con la de una sola máquina. De esta manera, MindSpore logra múltiples niveles de optimización, incluida la generación automática de políticas de alto nivel, paralelismo híbrido multidimensional y optimización que admite almacenamiento multidimensional y heterogeneidad en tiempo de ejecución.
 
Desde el año pasado, el equipo de MindSpore también ha estado entrenando en paralelo modelos grandes. En circunstancias normales, el entrenamiento típico de modelos grandes utiliza una combinación de cinco estrategias paralelas, incluido el paralelismo de datos, el paralelismo del optimizador, el paralelismo de modelos, el paralelismo de canalización y el recálculo. El equipo de MindSpore analizó la situación que requiere mucho tiempo de los modelos típicos en estos modos paralelos y descubrió que los costos principales aquí se encuentran en tres aspectos, incluido el costo del paralelismo del modelo a nivel de operador, las burbujas generadas por el paralelismo de la tubería y el tiempo de cola de los datos. paralelismo. Y a medida que la escala del clúster continúa aumentando, estos problemas generales se volverán más obvios al llegar al clúster Wanka. Por ejemplo, debido a la limitación del tamaño del lote global, el problema de la burbuja de la tubería se volverá más grave y debido a la. Al aumentar el dominio de la comunicación, el rendimiento de la comunicación se deteriorará y la relación de paralelismo de datos aumentará.
 
Con respecto a estos problemas, Chen Ziheng también presentó algunas soluciones, como la comunicación de modelo oculto en modo paralelo de múltiples copias, que divide los datos en dos, cada dato se puede calcular y comunicar de forma independiente, mientras que el cálculo y la comunicación entre múltiples copias de datos se pueden realizar. ocultarse entre sí, optimizando así el paralelismo del modelo a nivel de operador. Para la optimización paralela de PipeLine, reduzca la burbuja a menos del 10 % mediante PipeLine Interleave.
 
Además, durante la capacitación de MoE, se encontrará el problema de los expertos en caliente y en frío. Para la migración en caliente de expertos, se reduce el volumen de comunicación de AlltoAll y se mejora el rendimiento de la capacitación del modelo MoE. Además del entrenamiento de alto rendimiento, otro problema para los modelos grandes es cómo implementar el paralelismo estratégico. MindSpore adopta el paralelismo automático, y el tiempo de ajuste de estrategias paralelas para modelos grandes se puede reducir de meses a horas.
 
En términos de implementación, MindSpore es equivalente al backend sin servidor, y lo que hay que resolver son los problemas de rendimiento. MindSpore utiliza razonamiento paralelo distribuido, caché KV, secuencia dinámica, lote continuo y operadores de fusión de razonamiento de alto rendimiento para construir un marco de razonamiento unificado con baja latencia, alto rendimiento y soporte para secuencias largas de modelos grandes. La arquitectura integrada de entrenamiento y push permite una conexión perfecta desde el entrenamiento hasta la inferencia.
 
A continuación, los planes de MindSpore para el entrenamiento de modelos grandes cubren la optimización del rendimiento del entrenamiento de clústeres grandes de Wanka, la optimización del rendimiento de los modelos grandes densos, la optimización del rendimiento de los modelos grandes de MoE disperso, etc. En términos de inferencia de modelos grandes, MindSpore planea realizar una investigación más profunda sobre el modelo integrado. Entrenamiento de modelos grandes y arquitectura de inserción, aceleración de inferencia de modelos grandes densa, aceleración de inferencia de modelos grandes escasa, etc.
 
Escanee el código QR para ver la repetición de la conferencia "Tecnologías clave y planificación de MindSpore Large Model"⬇️

Eso es todo para la revisión de este evento. La inscripción para la 103ª Feria de Yuanchuang ya está abierta, haga clic para ver⬇️.
[Tecnología de modelo grande en la terminal] Conferencia de innovación de fuentes OSC·Estación Shenzhen·Número 103 https://www.oschina.net/event/2332004
Los estudiantes de secundaria crean su propio lenguaje de programación de código abierto como una ceremonia de mayoría de edad: comentarios agudos de los internautas: confiando en la defensa, Apple lanzó el chip M4 RustDesk Los servicios nacionales fueron suspendidos debido al fraude desenfrenado Yunfeng renunció a Alibaba. En el futuro, planea producir un juego independiente en la plataforma Windows Taobao (taobao.com). Reiniciar el trabajo de optimización de la versión web, destino de los programadores, Visual Studio Code 1.89 lanza Java 17, la versión Java LTS más utilizada, Windows 10 tiene un cuota de mercado del 70%, Windows 11 continúa disminuyendo Open Source Daily | Google apoya a Hongmeng para que se haga cargo; Rabbit R1 de código abierto respalda los teléfonos Android; Haier Electric ha cerrado la plataforma abierta;
{{o.nombre}}
{{m.nombre}}

Supongo que te gusta

Origin my.oschina.net/u/4489239/blog/11105657
Recomendado
Clasificación