350.000 líneas de código abierto, dependiendo de la profundidad del aprendizaje marco de código abierto Tianyuan pesada, las cuatro características del desarrollo sencillo

  

[Review] 2020 25 de marzo como la tecnología de la empresa de inteligencia artificial Kuang llevó a cabo en línea conferencia, co-fundador y CTO, como el Kuang Tang Wenbin anunció su plataforma de productividad de código abierto componentes de la base del cerebro ++ AI - Tianyuan (MegEngine). Esta versión es la versión Alfa, basado en Apache License 2.0, el mundo exterior a un total de unos 35 millones de líneas de código fuente abierto, incluyendo C ++, CUDA y el código de Python, la publicación en GitHub.

Conferencia, director técnico superior Kuang, como el Instituto Tian Zhongbo detalles de la estructura de aprendizaje profundo, esta fuente acaba oficialmente abierta.

El mundo AI agrega un marco de desarrollo, vista abierta de código abierto "Tianyuan"

Kuang dependiendo de la fuente abierta Tianyuan un momento en el marco de aprendizaje profundidad floreciente época.

 

Desde 2007 Teano nació, después de más de diez años de desarrollo, la tecnología y la aplicación del aprendizaje profundo a pasos agigantados, marco de aprendizaje profundo también están en el proceso de iteración continua y evolución; por el contrario, el concepto de código abierto está ganando en popularidad a escala global, esto hace que el entorno de desarrollo de la inteligencia artificial instalación dependiente, implementación, prueba y continua iterativa exactitud los trabajos de mejora y el rendimiento de sintonía más fácil, en el campo de la inteligencia artificial, la profundidad de aprendizaje de código abierto se ha convertido en inseparable de la plataforma y el desarrollador herramienta.

 

Bajo los esfuerzos conjuntos de la academia y la industria, nace de la academia de principios del Caffe, Antorcha y Teano, ahora está liderando la industria en TensorFlow, Amazon apuesta MXNet, Facebook esfuerzo para construir PyTorch, Microsoft de código abierto interno CNTK, y una minoría relativamente pequeña de la profundidad del motor de aprendizaje DSSTNE otro marco de aprendizaje profundo.

 

profundidad peine simple curso de aprendizaje éstas marco de desarrollo de la corriente principal, vamos a encontrar que cada uno tiene sus propias características:

        

fotos autorizada

       

TensorFlow oficialmente de código abierto de Google en noviembre de 2015, se convirtió rápidamente en un aprendizaje profundo áreas ocupan el dominio absoluto del marco de aprendizaje profundo, muchas empresas están desarrollando productos basados en este marco, como el mijo, Jingdong, Airbnb y así sucesivamente. TensorFlow lenguaje integral de desarrollo y servidor de modelo de formación, soporte para dispositivos móviles, por lo que es la industria más grande usando el entorno de aprendizaje profundo.

 

MXNet proyecto nació en septiembre de 2015, fue en la Universidad Carnegie Mellon CMU Du Bo Li Mu creado este ligero, flexible marco de código abierto distribuido portátil para el aprendizaje profundo, marco de aprendizaje profundo del Amazonas se hizo oficial el empuje principal al apoyo de la CNN, RNN, LTSM, ofrece excelentes herramientas para la identificación y predicción, así como imágenes de procesamiento de lenguaje natural, texto escrito a mano y la voz.

 

Keras creador es investigador de Google AI Francois Chollet, ya que de código abierto en noviembre de 2015, se ha convertido en el marco segundo más popular aprendizaje profundo. El código abierto Python escrito por biblioteca de red neuronal artificial puede ser utilizado como programa de aplicación de alto orden de las interfaces Tensorflow, CNTK y Teano, el modelo de aprendizaje profundidad de diseño, pruebas, evaluación, y aplicaciones de visualización, el objetivo es sólo unas pocas líneas de código puede hacer que se construcción de una red neuronal.

 

2016, Microsoft desarrolló conjunto de herramientas cognitivas CNTK salido en apoyo de RNN y CNN tipos de modelos neuronales como el mejor candidato para problemas de procesamiento de imágenes, escritura a mano y reconocimiento de voz. Aunque CNTK de alto rendimiento de computación distribuida, pero la falta de apoyo para la arquitectura ARM limita su funcionalidad en los dispositivos móviles.

 

2017, Facebook código abierto paquete de Python para la formación de redes neuronales PyTorch , que es una adaptación de la profundidad del aprendizaje basado en Lua biblioteca de la antorcha, similar a Numpy, muy Python basa, es fácil y el resto de la integración de ecosistemas Python. Con el apoyo de mapa dinámico, PyTorch flexibilidad mucho mayor en comparación con TensorFlow, especialmente para algoritmo de verificación rápida y reproducirse, tanto favorecido por el mundo académico.

 

Con estos poderosos marco de desarrollo, los desarrolladores de AI básicamente utilizarlo para la investigación científica o el aterrizaje de negocios. Pero en el ámbito de la inteligencia artificial, se utiliza más o Google, Facebook, Microsoft, de código abierto de Amazon, aunque hay muchos gigantes nacionales de Internet están empezando a trabajar en esta zona, pero aún no se ha convertido en un fenómeno.

 

Para el 2016, el gigante de Internet Baidu código abierto mosca de paletas (PaddlePaddle) , probablemente es el marco más influyente AI; 2019, gigante de las telecomunicaciones Huawei anunció que se abrirá en el primer trimestre de 2020 MindSpore , pero todavía no hay más noticias; 25 de marzo de abierta dependiendo de la investigación y el desarrollo del marco de aprendizaje profundo Tianyuan (MegEngine) oficialmente abierta.

               

En comparación con la corriente principal marco de aprendizaje profundo, vista abierta de MegEngine ¿Cuáles son las características de la misma?

El código abierto 350.000 líneas de código, Tianyuan Arquitectura idea novedosa tecnología

Tang Wenbin introducción, esta exclusión depende de los ingresos totales Tianyuan de unos 35 millones de líneas de código, incluyendo C ++, CUDA y el código Python.

Kuang Tang Wenbin, como el co-fundador y CTO

 

Tianyuan es un desierto acompañado por la experiencia práctica en función de su marco industria de la IA es de exclusión, como componentes fundamentales del cerebro ++. Para esta fuente abierta, abierta considerará Tianyuan tenía una actualización completa.

 

Desde el comienzo de 2014, la investigación y desarrollo, en 2015 el pleno uso, en marzo de este año a la fuente abierta, vista abierta todos los algoritmos actuales se basan en este marco de formación Tianyuan MegEngine y el razonamiento. No sólo añadir Buff como un desierto actualización Daguai dependiendo de la pista de competición AI, pero apuntalado el desierto, como la ingeniería, producto de la mitad del cielo.

 

La rueda de prensa, el jefe de proyecto de Tianyuan, así como desierto, como el director técnico superior Tian Zhongbo Instituto señaló, Tianyuan es un conjunto de razonamiento integrado de formación, estática y dinámica de la unidad de tipo industrial marco de aprendizaje profundo.

             

De arriba a abajo, Tianyuan se puede dividir en cinco niveles, la parte superior se calcula capa interfacial , la conexión hacia el exterior Python y la interfaz de C ++, el desarrollador puede usar y de programación, así como todo el sistema por Python y C ++ marco dos idiomas el diseño y el desarrollo, la formación y el razonamiento.

 

El siguiente es un diagrama que muestra la capa , que contiene un estática funcional y gráfico dinámico de la figura.

 

Más abajo hay una completa integrada motor de cálculo básico , con mecanismo de obtención automática, la compilación de mapas y optimización, con este nivel de apoyo podría desempeñar una dinámica, estática e interfaces completamente funcional.

 

Bajo esta jerarquía de ejecución de gestión consta de dos partes principales, un cronograma parte de cálculo, el dispositivo de computación puede ser abstracto flujo de ejecución, la programación razonable estos flujo de ejecución por el planificador y la otra es un conjunto de gestión de memoria mecanismos, incluyendo la memoria estática y la gestión de memoria dinámica. Además, este módulo también viene con muchas optimización avanzada de memoria, que es digno de mención es aquella en la que para alcanzar sub-lineal optimizador de memoria estática, por lo que la eficiencia de la gestión de memoria aumenta dramáticamente.

 

La parte inferior es para soportar todo el sistema de capa informática kernel núcleo , en el que el operador comprende una base de datos de alto rendimiento que soporta el dispositivo común de computación, incluyendo X86, CUDA, ARM y patatas fritas de computación profesional. Mientras tanto, la capa comprende, además, un alto rendimiento de isómeros de la biblioteca de comunicación, se puede calcular de manera que todo el bastidor se puede utilizar en un multi-nodo distribuidos a gran escala, para apoyar el tren más grande.

análisis de cuatro características de la forma sencilla de Desarrollo Tianyuan

 

Dependiendo director técnico de alto nivel Kuang Instituto Tian Zhongbo

En los últimos años, dependiendo de Kuang se reunió una gran cantidad de puntos de dolor comunes de la industria en el proceso de desarrollo, y la característica clave de Tianyuan es el foco de estos puntos de dolor.

 

Tiene, Tianyuan cuatro características principales: el razonamiento de entrenamiento integrado, la unidad de movimiento, inclusivos y flexibles y eficientes.

 

  1. la integración de la formación de Razonamiento

 

Por ejemplo, uno de los puntos de dolor, es el aprendizaje profundo de la investigación a proceso de producción es muy complejo, las diversas etapas de la exactitud del modelo es a menudo difícil alinear.

 

Tian Zhongbo señaló que los marcos de desarrollo de procesos de aprendizaje profundo tradicional, el marco de la formación y el razonamiento son a menudo diseñados e implementados marco de formación y un marco de razonamiento es en dos etapas, cuando el diseño de algoritmos, el algoritmo debe pasar primero por la formación bastidor de soporte, en un modelo de formación, y después convertirlo a aceptar también la nueva representación en una inferencia marco, a continuación calculado en un dispositivo informático diferente de la inferencia marco.

 

Aquí habrá un entrenamiento y el razonamiento del proceso de conversión, este proceso va a producir una gran cantidad de problemas, como marco de formación y un marco de razonamiento está diseñado por separado, por lo que algunos operadores de fuerza pueden no ser compatibles, por lo que es imposible completar la conversión de forma automática, es necesario mano-optimizar el proceso de conversión también puede introducir una gran cantidad de operador redundante, lo que resulta en un rendimiento final de modelo y la precisión no es satisfactoria. Cuando el último cuadro del razonamiento puso el tema calculado sobre el chip está expuesta, sino porque todo el proceso complejo, no somos capaces de localizar con precisión el problema.

 

Por lo tanto, el concepto de diseño de marco Tianyuan, se espera la formación y el razonamiento uno, es decir, que puede ser entrenado, sino también capaz de razonar.

              

Para hacer frente a este punto, el dolor, el razonamiento entrenamiento de integración Tianyuan pueden ser resueltos también.

 

(1) pero no es necesario para convertir el modelo, el modelo se puede utilizar directamente después del entrenamiento para conseguir el razonamiento;

(2) a través de este mecanismo, para asegurar la formación de velocidad y precisión coherente con el razonamiento;

Después de la terminación (3) la formación del modelo, la necesidad de diferentes dispositivos de la inferencia mediante la precisión de la trama puede ser asegurada a través del modelo de dispositivo para lograr la alineación (para minimizar la diferencia de precisión);

(4) un proceso simplificado, un sistema incorporado en marco puede Tianyuan automatizado proceso de optimización modelo, reducir el procesamiento manual caso modelo de error, los procesos automáticamente pueden estar directamente integrados, simplificando el proceso, forman un desarrollo del sistema altamente eficiente.

 

Como resultado de ello, la cuestión de los servicios en línea y el despliegue de multi-terminal de tierra real de AI a tener en cuenta es resuelto, lo que reduce el costo de formar problemas.

 

  1. movimiento de unidad

 

Dolor punto dos, imagen estática para el despliegue, gráficos dinámicos y fáciles de depurar, pero tanto difícil tener ambas cosas. Tian Zhongbo introdujo Road, marco de aprendizaje profunda se divide en dos categorías, una categoría está representada por una estática TensorFlow 1,0 marco de aprendizaje profundo, que es muy fácil de implementar, de forma rápida de productos de bienes raíces, la industria ahora es muy aficionado a la implantación, su alto rendimiento, de pequeño tamaño, pero difícil de depurar. En el ámbito académico, preferimos PyTorch como representante del marco dinámico de cálculo, ya que es más fácil de depurar en fase de investigación, pero también defectos gráficos dinámicos más flexibles, como el consumo de memoria seria, difícil de hacer la optimización.

 

Frente a este pez y no puede tener ambos problemas, dependiendo abrir intento de integrar las ventajas de ambos marcos, con la esperanza de lograr la unidad del efecto de movimiento en el diseño de Tianyuan.

               

La ilustración muestra un marco donde el código Tianyuan de una dinámica a un conmutador estático. Puede ser visto, algunos de los cuales funcionan para decorar un @trace mediante el uso de los implementos decorador de Python Esta función incluye ambos se ejecutan dinámico correctamente, sino que también se puede convertir a un estado de operación de la morfología estática. Simplemente interruptor "activado" se establece en Verdadero o Falso, el usuario puede elegir libremente dinámico o cálculos estáticos.

 

De esta forma, los desarrolladores pueden en un proceso dinámico, un prototipo muy fácilmente desarrollo y depuración, pero cuando se quiere utilizar en la producción, o la esperanza de un mejor el optimizador estática, compilación estática de velocidad mecanismo, pueden hacer uso de estática diagramas de velocidad.

 

Tian Zhongbo dijo que en las pruebas, la velocidad estática a menudo puede alcanzar el 5% y el 20% del efecto de aceleración , ahorrar tiempo y mejorar la eficiencia.

 

  1. inclusive

 

Tercer punto delicado es que hay un marco mucho, pero cada fotograma utilizando la interfaz es diferente, lo que llevó a las personas que llevan a cabo intercambios académicos, primero debemos entender lo que es lograr un marco en uso también necesidad común medio ambiente y el marco y luego re-modelo de implementación, que para el desarrollador promedio se refiere es un asunto costoso.

 

Por lo tanto, con el fin de simplificar el problema, la esperanza Tianyuan también fue diseñado con un sistema inclusivo .

               

La imagen de arriba muestra el uso de Tianyuan profunda de aprendizaje código de la arquitectura, que se escribe con estilo y PyTorch Numpy muy similar, el estilo de Pythonic Python API simplificada permite al usuario que acepte de forma natural, el estilo llamado así en detalles de diseño y parámetros de la función respeto a la tradición original de la comunidad Python.

 

Vale la pena mencionar que el Tianyuan también proporcionan una función experimental, por lo que los desarrolladores pueden ser convenientemente jamás módulos, tales como el Módulo de PyTorch directamente en el marco, Tianyuan y otros componentes escritos utilizan conjuntamente para una mejor reproducen modelo.

 

Además, Tian Zhongbo mencionó, Kuang tiene alguna visual único acumulada en el campo de la visión artificial, y por lo tanto la integración de sus logros en esta área con el sistema de Tianyuan , integra una serie de visión por ordenador operador especialmente optimizado, dejar que la investigación de la visión por ordenador más fácil.

 

  1. Flexible y eficiente

 

Dolor de cuatro puntos, en la IA de una compañía de producción, pueden enfrentarse a una gran cantidad de equipos y escenarios, la necesidad de lograr el máximo rendimiento en cada dispositivo.

 

En el diseño de la estructura, Tianyuan mantener el principio de flexibilidad y eficacia para estar en muchos dispositivos, algoritmos, se puede obtener un rendimiento líder. A continuación, la comparación de rendimiento de formación de liberación Tian Zhongbo figura, en comparación con una pluralidad de marco horizontal buen razonamiento.

             

Los resultados muestran que en la escena del razonamiento de la CPU, Tianyuan tiene significativamente mejor rendimiento y ventajas de la formación, que puede, al mismo tiempo mantener un alto rendimiento en la formación y el proceso de razonamiento. Además, si queremos un mejor algoritmo implementado en una variedad de dispositivos, o en la formación para aprovechar más grande modelo de formación de los equipos existentes para apoyar más tipos de algoritmos, en el chip de memoria o dispositivo de uso de la memoria es una clave factores. Por lo tanto, para ahorrar memoria también Tianyuan preocupación.

 

Tianyuan construyó una estrategia de optimización de memoria altamente eficaz que puede reducir significativamente el uso de memoria durante el entrenamiento, implementado en el mismo dispositivo se puede entrenar más modelos, más algoritmos de apoyo .

 

Además, hay muchos Tianyuan mecanismo de optimización de memoria y velocidad, tales como la optimización de la memoria alquileno lineal. Se puede encontrar en el uso de capacidad dinámica figura Tianyuan, puede soportar el cálculo de aproximadamente el 32 por lotes, si el cambio en la imagen estática, puede soportar se calcula 64 lotes. Así que, si quieres, en este caso, más grande y el modelo de formación de lotes, se puede aquí con la tecnología sub-lineal automática optimización de la memoria en el cálculo de la velocidad apenas se reduce la premisa, para lograr la capacidad de formación de 256 lotes, y el modelo grande, el más profundo, el mejor en su rendimiento.

 

Tian Zhongbo dijo que en la evaluación interna, Tianyuan puede lograr la memoria a salvar más de 20 veces cuando algún gran modelo de formación, y la velocidad es casi sin cambios.

 

Estas características hacen que la capacidad Tianyuan para lograr productos de conversión de clase de una hora desde el prototipo de laboratorio para la industria que puede ser desplegado, así como a gran escala, la formación flexible y equipo de investigación de soporte superior a la vanguardia del desarrollo académico.

 

De esta manera, Tianyuan puede hacer "de desarrollo simple", permitiendo a los desarrolladores realmente experimentar el "entrenando bien", "entrenamiento mudarse", "entrenar más rápido."

Secreto Tianyuan "Pasado y Presente", la I + D hoja de ruta para la exposición por primera vez

De Teano como la fuente de iteración para continuar a la versión alfa MegEngine publicado hoy, el nacimiento de Tianyuan costado conseguir, detrás del desierto, ya que el equipo del Instituto de Investigación del proceso de molienda de 0-1.

 

Dependiendo Kuang mente es la creación de la visión por ordenador utilizado en las industrias tradicionales, el uso de la tecnología para cambiar el mundo. Cuando estaba surgiendo un estudio de 2013 en la profundidad, dormitorio de la Universidad de Tsinghua obsesionado con un pasante durante dos semanas, ha desarrollado un conjunto de algoritmo de detección de reconocimiento facial, rendimiento del algoritmo sensacional, así que dependiendo de la oficial tuvo Kuang resolver toda la red neuronal problemas viales.

Al principio, abierta dependiendo del modelo de código escrito Teano marco, el entrenamiento de la red neuronal, pero con una mayor formación más grande sea la red, más y más complejo, ineficiente y lento es el colapso de la estructura, en compañía de algunos grandes de ganado comenzó ponderando otras formas .

 

A finales de 2013, dependiendo de la época del Kuang Cao Zhimin, jefe de investigación y desarrollo que se propone crear un conjunto de datos se puede obtener a través del ciclo de formación y de automatización de negocio de sistemas de algoritmo desarrollado ++, no requiere demasiada mano de obra y la inversión de tiempo que se puede lograr a partir algoritmo de desarrollo de aplicaciones de sistemas de auto-circulación ( Kuang función cerebral ++ anteriormente prevista). Luego, a principios de 2014, nació la primera edición del desierto, como el auto-desarrollo del marco de aprendizaje profundo.

 

Después del rodaje, los estándares abiertos, como la terminación del marco de auto-desarrollo interno con todas las operaciones a mediados de 2015, el modelo de negocio de la compañía cambió todas las líneas de la versión entrenado marco de investigación.

 

9 de noviembre de 2015 Google lanzó oficialmente y de código abierto TensorFlow, dependiendo Kuang encontró que son la misma cosa, a hacer el camino plataforma de computación gráfica se basa, pero también causó un gran impacto en el desierto, como el marco de auto-desarrollo, y dentro de la empresa si queremos seguir para adherirse a un desacuerdo sobre el marco de auto-desarrollo. Después de un intenso debate y una evaluación detallada, Kuang encontró que en función del rendimiento de TensorFlow no era ideal, marco auto-desarrollo lento de lo que en varias ocasiones. Kuang finalmente optó por adherirse a la auto-desarrollo, ya que la carretera.

 

Desde entonces, a través de la iteración constante, mientras que en los ejercicios de la práctica industrial, además de la parte inferior del marco, abiertos al mismo tiempo, también en función de los cambios en la infraestructura de energía y cálculo de datos. 2013, Kuang dependiendo Instituto de Investigación de crear su propio equipo de datos, con la explosión de los datos de negocio, los problemas de gestión de datos siguen apareciendo, en función del desierto comenzó a construir su propio sistema de gestión de datos MegData.

 

A finales de 2015, Tianyuan MegEngine ha entrado en un período de desarrollo estable, pero la compañía "pequeño taller" inicio del modo no podrían llevar a las necesidades del negocio, los recursos informáticos se ha convertido en un cuello de botella, por lo que el desierto, como la construcción de una "habitación decente", desarrollado una nube aprendizaje profundo plataforma informática MegCompute, y sólo una cuarta parte del tiempo para completar un negocio a fondo para migrar de clúster independiente.

 

Ver Kuang de I + D para mover a un estudio marco empresarial y la auto-profundidad completa de sus propias torres de ordenadores, marcando Kuang-vista de datos, algoritmos y vigor tres componentes básicos calcular de la finalización formal de la "unidad", ya que, como el Kuang cerebro plataforma de productividad AI ++ comenzando a aparecer.

              

2016, vista abierta comenzaron a construir equipos más grandes continuar optimizando el proceso de desarrollo de la suite completa Cerebro ++, y en 2019 comenzaron los preparativos para el Cerebro ++ estudio en profundidad del marco básico de código abierto, y es MegEngine jugó un nombre chino - Tianyuan. Durante este período el marco del equipo de I + D puede decirse que está experimentando un renacimiento, el código original en re-envasados ​​reorganización, permitiendo a los desarrolladores empezar a trabajar rápidamente.

 

Después de un año de preparación, Tianyuan programar definitivamente de código abierto, lo que permite a los desarrolladores. Futuro, Tianyuan hay más planes, el sitio de la conferencia Kuang en función de la primera exposición Tianyuan plan de desarrollo.

              

Tian Zhongbo dijo que este es el desierto, como el de código abierto Tianyuan versión Alpha , los planes de desarrollo futuro de este año la versión beta en junio , cuando Tianyuan proporcionará apoyo serie CPU ARM, más apoyo dispositivo de aceleración, así como cuantificar y baja la computación bits apoyo; a septiembre lanzó la versión oficial 1.0 , el apoyo de la corriente principal Tianyuan dispositivos de computación será la capacidad más amplia y dinámica para mejorar y optimizar todo el proceso de razonamiento experiencia de formación.

 

Dijo que en entre la versión Beta y la versión oficial, espero que más gente pueda participar y contribuir con código, "tal vez la próxima generación de Tianyuan no sea hecha por el desierto, como el equipo de I + D, sino para crear a partir de ella con usted y Beta la versión oficial, por lo que esperamos que junto con usted para construir una mejor profundidad marco de aprendizaje ".

Tianyuan bueno para usarlo? Modo de empleo?

Conocer la arquitectura Wan Tianyuan, detalles técnicos y giros y vueltas de I + D de fondo y de I + D panorama, ingrese el siguiente enlace "cuestión alma": la exclusión depende de la profundidad del aprendizaje de código abierto en el extremo que sea muy fácil de usar? Por eso ya estoy familiarizado con NumPy, TensorFlow, PyTorch, Keras u otros marcos Tianyuan convertir a aprender? Este proceso de aprendizaje difícil?

 

En este sentido, Tian Zhongbo disipar todas las dudas, dijo, todo el diseño de la interfaz del marco y el uso, el respeto Tianyuan por el pasado, que en el uso de la informática en los hábitos de aprendizaje automático PyTorch y matemáticas tradicionales, en el marco de la mejora general de diseño y el proceso de minimizar la resistencia, por lo que cuanto más fácil de usar.

 

Vale la pena señalar que el contenido de este comunicado ya contiene una serie de herramientas, tales como fuera de la línea de herramienta de aprendizaje profundidad MegStudio, que permite a los desarrolladores fácil y rápidamente experimentan marco Tianyuan, el aprendizaje y la formación en profundidad.

 

MegStudio operación y demostración

 

Mientras que las herramientas de compresión y despliegue de los alrededores soportan módulos de herramientas cuantitativas sigue acabado, y se espera que todo el mundo se reúnen a mediados de año, una integración de sistemas de herramientas de visualización y sistema de visualización serán más tarde.

 

En el mantenimiento de documentos de código abierto, Tian Zhongbo representan la base de la habilidad manual y el código se desarrollan al mismo tiempo, abierta dependiendo de los procesos internos para asegurar que el documento mantendrá y aseguramiento de la calidad del documento, la esperanza de tener más voluntarios a unirse para mantener la corrección.

 

Al mismo tiempo, Tianyuan también proporcionan un modelo de centro ModelHub , modelo de pre-formación reúne a los principales algoritmos, y publicar el desierto, como el Instituto de las últimas tecnologías y desarrollos a la plataforma. Dependiendo Kuang dijo que más modelo SOTA está aumentando.

 

Desde cero, desde el "Dale a un hombre un pescado" a "Dale a un hombre a pescar" , vista abierta sinceridad completa, por ser el cerebro abierta ++, AI tratar de crear un conjunto de Visual Studio, las capacidades de AI a más desarrolladores, en "alquimia" en el curso del algoritmo de estudio, que proporciona el punto perfecto de los equipos "alquimia habitación", como la alquimia de las materias primas y la leña, que necesitaría un auto-creada por el usuario bajo demanda.

 

En la conferencia de prensa, anunció el desierto, como la dirección de Tianyuan código administrado en GitHub, y quieran aprender mejor experiencia de tratar directamente!

 

GitHub : https://github.com/MegEngine/MegEngine

3 minutos, dependiendo de la profundidad de exclusión leído aprendizaje marco Tianyuan MegEngine

 

Quiero tratar de empezar a trabajar tan pronto como sea posible?

Puede introducir Tianyuan sitio web oficial de la experiencia

https://megengine.org.cn/

 

             

Añadir RDCC pequeño ayudante

Palabras clave contestan, "conferencia"

En el desierto, como la conferencia grupo de intercambio

La adquisición de material seco en el grupo

Haga clic aquí para leer el original , introduzca Tianyuan sitio web oficial de la experiencia.

Liberadas 1874 artículos originales · ganado elogios 40000 + · Vistas 17,060,000 +

Supongo que te gusta

Origin blog.csdn.net/csdnnews/article/details/105108965
Recomendado
Clasificación