Aktivitätsrückblick (Teil 2) | Forschung und Beurteilung von Trends bei maschinellen Lernsystemen, Zusammenfassung berühmter Zitate

Autoren: Sanyang, Li Baozhu, Li Weidong, Yudi, xixi
Herausgeber: Li Baozhu
Im Zeitalter der großen Modelle unterliegen maschinelle Lernsysteme beispiellosen Veränderungen. Die schnelle Erweiterung der Modellgröße hat es uns ermöglicht, eine enorme Verbesserung der KI-Fähigkeiten zu beobachten. Diese Verbesserung bringt jedoch nicht nur neue Möglichkeiten für verschiedene Bereiche mit sich, sondern bringt auch eine Reihe neuer technischer Herausforderungen und praktischer Probleme mit sich.

Am 16. Dezember fand die Jahresendparty 2023 Meet TVM · ​​​​erfolgreich in der Shanghai Entrepreneur Public Training Base statt. Bei diesem Meetup fungierte Feng Siyuan, Apache TVM PMC und Ph.D. der Shanghai Jiao Tong University, als Gastgeber und führte mit vier Gästen eine umfassende und vielschichtige Kommunikation und Diskussion zum Thema „Machine Learning System in the Große Modell-Ära".

Die vier Gäste dieses Roundtable-Dialogs sind:

* Wang Chenhan, Gründer und CEO von OpenBayes

* Wu Zhao, Leiter der KI-Engine für autonomes Fahren von NIO

*Jin Lesheng, OctoML-Ingenieur für maschinelles Lernen

* Zhu ​​​​Hongyu, ByteDance Machine Learning System Engineer

Von links nach rechts: Feng Siyuan, Wang Chenhan, Wu Zhao, Jin Lesheng, Zhu Hongyu

Wir haben dieses Gespräch wie folgt zusammengefasst, ohne die ursprüngliche Absicht zu verletzen: Kommen Sie und lauschen Sie den wunderbaren Erkenntnissen der Gäste.

Maschinelle Lernsysteme im Zeitalter großer Modelle

Stufe 1: Diskussionsrede

Derzeit sind große Modelle in verschiedenen Bereichen ein absolut heißes Thema. Ob Cloud, Gerät oder Fahrzeug (Tesla FSD V12), alle Gäste werden in der tatsächlichen Arbeit oder in Diskussionen auf Systeme rund um das Training und den Einsatz großer Modelle stoßen. In Bezug auf Optimierung Bitte stellen Sie abwechselnd die wichtigsten Herausforderungen und Lösungen vor, mit denen Sie derzeit konfrontiert sind.

Wang Chenhan: OpenBayes Bayesian Computing startete im Juni dieses Jahres ein einmodales Training für große Modelle und belegte damit den fünften Platz in der SuperCLUE-Liste der inländischen großen Modell-Startups. Aus Sicht der Trainingstechnologie für große Modelle ist das Kernproblem, auf das wir derzeit stoßen, die Netzwerkverzögerung. Grundsätzlich kann kein Chip auf seinem eigenen Cluster unter Volllast laufen.

Laut der Berechnung „Skalierung von Kubernetes auf 2500 Knoten“ auf der offiziellen Website von OpenAI sollte die maximale GPU-Auslastung beim Training von GPT-3 18 % nicht überschreiten, und die durchschnittliche Auslastung beträgt etwa 12–15 %, was einer Ausgabe von 100 Millionen entspricht einen Cluster aufzubauen. Nur 12-15 Millionen Yuan, die in diesen Cluster investiert wurden, haben einen Unterschied gemacht. Aus finanzieller Sicht ist die Maximierung der Datenparallelität, des Pipeline-Betriebs und der Vektorparallelität tatsächlich die größte Herausforderung im Training.

Die Herausforderungen bei der Bereitstellung/Inferenz in China sind hauptsächlich auf die Komplexität der technischen Probleme zurückzuführen. Wenn die Speicherbandbreite nicht sehr gut ist, ist die Optimierung von PCIE tatsächlich problematischer. OpenBayes Bayesian Computing und viele Upstream- und Downstream-Hersteller verwenden vLLM, was viel Engineering-Arbeit spart und den Arbeitsaufwand für die Inferenz erheblich reduziert.

Jin Lexheng: Die Herausforderungen, denen wir begegnet sind, lassen sich hauptsächlich in zwei Punkte unterteilen:

1. Da TVM und MLC-LLM mit Geschwindigkeiten über 7B laufen, kann manchmal ein größeres Modell wie 70B nicht auf einer Karte gespeichert werden. Wir haben im letzten Quartal versucht, dieses Problem mit Tensor-Parallelität zu lösen. Diese Lösung ist jetzt Open Source. Ja, Wenn Sie interessiert sind, können Sie es versuchen.

2. Es gibt noch eine weitere Anforderung. Wir unterstützen derzeit nur Batch-Größe = 1, was besser für eine einzelne Person geeignet ist. Wenn Sie jedoch an Serving denken, werden Sie feststellen, dass es vLLM weit unterlegen ist. Auch dies entwickeln wir derzeit .

Feng Siyuan: Ich möchte auch hinzufügen, dass der Haupttrend bei der Inferenz noch unklar ist. Obwohl Transformer derzeit die Mainstream-Architektur in großen Modellen ist, gibt es insgesamt noch viele Änderungen in der Methode. In diesem Fall kann Transformer wirklich sein verwendet? Die Vereinheitlichung großer Modelle ist immer noch ein Fragezeichen. Daher kann in Szenarien, in denen Unsicherheit zwischen der oberen und unteren Schicht besteht, eine anpassbare und agile Entwicklung wichtiger sein als die herkömmliche End-to-End-Kompilierung von TVM. Meiner Meinung nach gibt es noch viel Raum für Verbesserungen bei der Inferenz und dem Training großer Modelle.

Stufe 2: Gezielte Fragen

Mit der Verschärfung des US-Verbots haben sich die Beschränkungen vom ursprünglichen Verbot von Trainingskarten auf Inferenzkarten großer Modelle verlagert. Was ist derzeit kurzfristig die kostengünstigste Lösung für die Inferenz großer Modellwolken? (Solange die Verwendung von Spielkarten und Grafikkarten erlaubt ist), wie lange wird es dauern, bis inländische NPUs und GPUs die Lücken im Bereich der Argumentation schließen?

Wang Chenhan: Die Trainings- und Inferenzmodelle haben unterschiedliche Größen, Nutzungsszenarien und Geschäftslasten, daher ist es schwierig, eine einheitliche Antwort zu erhalten.

Aus Sicht der Kantenauswahl ist der inländische Chip Rockchip 3588 eine gute Option. Er bietet eine gute Leistung und Kosteneffizienz. Der Technologie-Stack ist relativ universell, der Preis ist relativ günstig und er ist leicht zu bekommen. Darüber hinaus entspricht NVIDIA Orin einer kastrierten Version der Ampere-GPU. Wenn es auf den q4f 16-Budgetspezifikationen basiert, kann Orin ohne großen Druck 7B-, 14B- oder sogar 34B-Modelle vom Speicher bis zur Inferenz ausführen.

In Bezug auf die Cloud-Auswahl stellte NVIDIA anschließend drei Modelle vor: H20, L20 und L2. Nach offiziellen Angaben von NVIDIA liegt das tatsächliche Argumentationsniveau großer Modelle bei etwa 70–80 % von L40. Obwohl A6000 später hinzugefügt wurde, steht es auf der Verbotsliste , aber aufgrund des großen Lagerbestands. Der Vorteil des A6000 besteht darin, dass er über einen großen Videospeicher, 48 GB und NVLink verfügt. Wenn Sie ein Paar installieren, erhalten Sie einen A100, der 130 % besser ist.

Aufgrund unserer Kontakte mit inländischen Chipherstellern wissen wir, dass tatsächlich jeder das einzelne Backbone für Aufmerksamkeit optimiert.

Stufe 2: Gezielte Fragen


Wie lange wird es Ihrer Meinung nach im Bereich inländischer Chips dauern, bis ein Unternehmen die Inferenzseite wirklich umsetzt und den Marktanteil von Nvidia aufteilt?

Wang Chenhan: Ich denke, dass inländische Chiphersteller innerhalb von 18 Monaten wahrscheinlich mehr als 20 % des Marktanteils von Nvidia erobern können. Die Hauptgrundlage für dieses Urteil ist, dass die günstige Politik meines Landes und die anhaltenden Sanktionen der Vereinigten Staaten den Anstieg der Lokalisierungsrate gefördert haben. Darüber hinaus gibt es meines Wissens bereits inländische Hersteller, die zu mehr als 92 % mit NVIDIA CUDA-Anweisungen und APIs kompatibel sind. Daher bin ich immer noch sehr zuversichtlich, was die Vorhersage des 18-Monats-Zyklus angeht.


Stufe 2: Gezielte Fragen

Warum hat sich Weilai für TVM entschieden? Welche Vorteile bietet TVM im Bereich des autonomen Fahrens?

Wu Zhao: Erstens muss es daran liegen, dass ich über einen technischen Hintergrund in TVM verfüge. Wenn ich also ein Team aufbaue, werde ich TVM Vorrang geben. Zweitens ist in tatsächlichen Projekten ein wichtiges Kriterium für die Sinnhaftigkeit der Technologie, ob ihre Architektur die Geschäftsanforderungen erfüllen kann.

Autonomes Fahren ist ein sehr komplexes Anwendungsszenario und auch die Anforderungen an die Architektur sind höher. Bei der Wahl einer technischen Route müssen die Projektanforderungen und der Projektzyklus umfassend berücksichtigt werden. Für das autonome Fahrgeschäft von NIO ist die Auslieferung des ersten Modells ET7 im März 2022 geplant. Zu diesem Zeitpunkt hatte unser Team nur ein halbes Jahr Zeit, um sich mit dem komplexen Modell des autonomen Fahrens zu befassen, sodass wir uns für eine End-to-End-Lösung entscheiden mussten. Zu dieser Zeit nutzten viele Konkurrenten TensorRT. Das Problem bei TensorRT besteht darin, dass die Modelle immer komplexer und die Anforderungen immer seltsamer werden, was es auf lange Sicht ungeeignet macht.

Die erste Frage, die im Bereich des autonomen Fahrens berücksichtigt werden muss, ist die vollständige Kontrolle von Metriken wie Leistung und Genauigkeit auf der Fahrzeugseite. Da beim autonomen Fahren viele Sondersituationen gelöst werden müssen, führen Algorithmenteams das Modelltraining meist in der Cloud durch und stellen es dann bereit zur Autoseite. Wenn Sie in diesem Prozess die TensorRT-Blackbox verwenden, können Sie deren Quantisierungsalgorithmus nicht vollständig verstehen, und die Quantisierung ist unserer Meinung nach sehr wichtig.

Darüber hinaus eignet sich MLIR sehr gut für herkömmliche Compiler, erfordert jedoch in der Anfangsphase viel Zeit. Da wir zu diesem Zeitpunkt ein relativ strenges Zeitlimit hatten und uns für die End-to-End-Lösung entscheiden mussten, haben wir aufgegeben nach Auswertung. MLIR.

Schließlich sind für das autonome Fahren die Stabilität des Gesamteinsatzes und eine geringe CPU-Auslastung von entscheidender Bedeutung. Daher müssen wir eine vollständig steuerbare Lösung wählen, die die CPU-Auslastung reduzieren kann, was mit einer Black Box nicht erreicht werden kann.

Insgesamt war die All-White-Box-TVM für uns damals die am besten geeignete Option.

Stufe 3: Diskussionsrede

Unabhängig davon, ob es sich um ein großes Modell oder ein autonomes Fahrmodell handelt, sind das Modell und die Hardware derzeit miteinander verbunden. In diesem Fall entwickeln sich der Algorithmus, das System und sogar der Chip des Modells gemeinsam. Lehrer können einige ihrer eigenen Meinungen äußern dazu.

Wang Chenhan: Ich denke, dass DSA und GPGPU wahrscheinlich voneinander abhängig sein werden. Niemand kann ohne den anderen leben. In Zukunft wird die Architektur von Chips nicht nur in Form von Aufmerksamkeit vorliegen. In  letzter Zeit wurden viele neue Technologien und Produkte geboren in der Community, wie Mistral 7B. MoE und Microsoft schlugen RetNet, den Aufstieg der Multimodalität usw. vor. Die Vereinheitlichung der gesamten Architektur durch große Sprachmodelle könnte von März bis Oktober dieses Jahres nur eine kurzlebige Illusion sein Es ist wahrscheinlich, dass die zukünftige Architektur der KI und das von Nvidia definierte Paradigma noch vorhanden sind. Sie muss noch eine Weile Bestand haben. Aber NVIDIA ist in dieser Angelegenheit möglicherweise nicht immer in der Lage, die Nase vorn zu haben. Es besteht kein Zweifel, dass Attention den Abstand zwischen anderen Verfolgern und NVIDIA verkürzen wird, wie zum Beispiel AMD MI300X und anderen inländischen Chips, deren öffentliche Erwähnung nicht bequem ist.

Aus der Perspektive weiterer Trends wird die Weiterentwicklung der Architektur mit GPGPU als Kern weiterhin ein langfristiger Trend sein.

Wu Zhao: In der realen Projekterfahrung sind kleine Änderungen möglich, aber große Änderungen sind schwierig. Mit anderen Worten: Unter der Voraussetzung, dass grundsätzlich die Geschäftsanforderungen erfüllt werden, können Feinabstimmungen und Anpassungen für die Hardware vorgenommen werden. Wenn Sie jedoch unbedingt Transformer verwenden müssen um gute Ergebnisse zu erzielen, aber für einen bestimmten Zeitraum ist die Hardwareunterstützung für Transformer sehr schlecht. Aus geschäftlicher Sicht werden wir keine Bereitstellung auf dieser Hardware durchführen. Dies ist der aktuelle Stand der Branche.

Wenn es um Herausforderungen geht, denke ich, dass es definitiv Herausforderungen geben wird, einschließlich des oben genannten RWKV oder RNN, bei dem es sich nicht mehr um die quadratische Komplexität der Aufmerksamkeit, sondern um die lineare Komplexität handelt. Hier gibt es auch ein Problem. Um die Herausforderung zu meistern, reicht dies allein nicht aus, da wir in begrenzten Szenarien eine Komprimierung oder andere Mittel verwenden können, um die Effektanforderungen zu erfüllen. In diesem Fall sind die Ökologie und Wirkung von RWKV nicht so gut wie Transformer. Benutzer haben keinen Grund, Transformer aufzugeben und RWKV zu verwenden.

Daher ist meiner Meinung nach der Algorithmus die wichtigste treibende Kraft. Wenn der Algorithmuseffekt unter Berücksichtigung der Kostenleistung erzielt werden kann, können wir andere Systemchips in Betracht ziehen.

Jin Lexheng: Meine Gedanken sind denen von Lehrer Wu sehr ähnlich. Ich habe schon einmal maschinelles Lernen gemacht und auch einige Artikel über KI veröffentlicht. Ich habe festgestellt, dass Menschen, die ML betreiben, selten auf Latenz oder systembezogene Indikatoren achten. Jeder schenkt mehr Aufmerksamkeit zur Verbesserung der Genauigkeit. Und ob es SOTA erreichen kann. Ich denke also, wenn ein neues Modell mit einer Leistung auftaucht, die Transformer völlig übertrifft, wird es definitiv zum Mainstream werden und alle Hardwarehersteller und Software-Stacks werden sich anpassen, sodass ich denke, dass Algorithmen immer noch dominieren werden.

Wang Chenhan: Wir haben RWKV bereits geschätzt. Wenn die Parameterskala relativ groß ist, können die Trainingskosten auf etwa 1/3 reduziert werden. Wenn beispielsweise groß angelegte Modelle für maschinelles Lernen erstellt werden, ist jeder auf Kommunikationstools und Kommunikation angewiesen. Nachdem er von der exponentiellen Ebene auf die lineare Ebene gefallen ist, werden seine Kommunikationsanforderungen sinken.

Obwohl der Aufmerksamkeitsmechanismus im Jahr 2017 begann, Aufmerksamkeit zu erregen, stellten wir durch das Crawlen und Analysieren globaler Papiere zum Thema maschinelles Lernen fest, dass die Anzahl der veröffentlichten Papiere allein im Jahr 2022 die Summe der letzten Jahre überstieg.

Es besteht kein Zweifel, dass GPT-3 und sogar ChatGPT diesen Meilenstein darstellen. Noch vor der Geburt von ViT glaubte fast niemand, dass Aufmerksamkeit bei visuellen Aufgaben eingesetzt werden könnte. Wir verstehen, dass eine Modellstruktur immer ein Ereignis benötigt, um ihre Wirksamkeit zu beweisen. Entweder ist die Parameterskala riesig und effektiv, oder der Mechanismus ist bei bestimmten Arten von Aufgaben SOTA. Rückblickend auf RWKV liegt der Grund, warum RWKV sein Potenzial, Attention noch zu übertreffen, noch nicht gezeigt hat, wahrscheinlich in der großen Lücke im Investitionsbudget, und das Potenzial von RWKV ist noch lange nicht bewiesen.

Ich denke, dass das Backbone nach der Aufmerksamkeit auf der Grundlage des vorhandenen Backbones vorhergesagt werden sollte. Derzeit scheint es, dass RWKV und Microsofts RetNet dieses Potenzial haben.

Stufe 3: Diskussionsrede

Wird die Bereitstellung großer Modelle in Zukunft hauptsächlich auf der Client-Seite oder in der Cloud erfolgen?

Wu Zhao: Ich denke, dass die nächsten 3-5 Jahre von End-Side-Modellen dominiert werden. Erstens wird die Produktform großer Modelle definitiv nicht von Chat dominiert werden. Es wird definitiv viele vertikale große Modelle geben Zukunft. Selbstfahrende Autos, Mobiltelefone, Mikroroboter usw. sind beispielsweise allesamt Endgeräte, und die Nachfrage und der Rechenaufwand für diese Art von Infer sind enorm. Es ist unwahrscheinlich, dass es eine solche Cloud geben wird, die so viele unterstützt Szenarien und Geräte. Gleichzeitig ist bei hochverzögerungsempfindlichen Anwendungen wie dem autonomen Fahren auch die End-to-Cloud-Verzögerung ein Faktor, der berücksichtigt werden muss.

Wang Chenhan: Die Bereitstellung großer Modelle in der Cloud kann länger dauern als wir denken. Bisher ging man grundsätzlich davon aus, dass in ein bis zwei Jahren die Cloud im Mittelpunkt stehen und sich in etwa fünf Jahren auf die Geräteseite verlagern wird. Meiner Einschätzung nach wird es in 3–4 Jahren Cloud-fähig sein und die Tests in 5–8 Jahren abgeschlossen sein.

Nehmen wir als Beispiel GPT-3.5 (20B). Es hat im vierten Quartal FP16 etwa 10 GB+. Abgesehen vom Stromverbrauch ist die Verwendung von 10 GB+ zum Speichern eines Modells auf einem Mobiltelefon derzeit nicht etwas, das jeder akzeptieren kann. Darüber hinaus verlangsamt sich die Geschwindigkeit der Chip-Prozessentwicklung und die Chip-Architektur wird sich nicht mehr so ​​schnell weiterentwickeln wie in den letzten 20 Jahren. Daher glaube ich nicht, dass das Cloud-Modell bald auf die Geräteseite dezentralisiert werden kann.

Feng Siyuan: Was die Erwartungen an die Entwicklung von Transformer betrifft, stimme ich Chen Han zu. Es ist grundsätzlich unmöglich, sich innerhalb von 5 Jahren vollständig von der Cloud zu lösen, aber wenn ein neues Modell herauskommt, könnte es einen Teil des Rechenleistungsproblems lösen. Wenn Sie ein großes Modell auf dem Mobiltelefon bereitstellen möchten, mangelt es eigentlich nicht an Rechenleistung. Am Beispiel des Android-Telefons verfügt es über eine 35-T-Matrixeinheit, aber diese Matrixeinheit ist eine einzelne Charge, also ist es so Wird bei der Ableitung großer Modelle überhaupt nicht verwendet. . Wenn es ein Modell gibt, das das Argumentationsproblem des Endtests lösen kann, wird es höchstwahrscheinlich innerhalb eines halben Jahres nach der Veröffentlichung des Modells gelöst. Es ist nicht einfach, eine Schlussfolgerung darüber zu ziehen, wann dieses Modell veröffentlicht wird.

Die Produktionsmethode von Modellen, insbesondere auf der Geräteseite, unterscheidet sich völlig von der in der Cloud bereitgestellten und muss vom Unternehmen geleitet werden. Beispielsweise werden Hersteller wie Qualcomm und Apple ein Modell speziell für den Einsatz auf Mobiltelefonen entwerfen oder auf der Geräteseite. Wenn Sie möchten, dass Ihr Modell seine Wirkung entfaltet, müssen Sie nicht über den Transformer hinausgehen, sondern sich nur dem Transformer nähern. Dies ist für jeden Fall besser geeignet. Es muss mit den Design-, Trainings- und Aufgabenunterschieden des Transformers in Zusammenhang stehen Modell.

Wu Zhao: Der aktuelle Mainstream-Ansatz besteht darin, ein großes Modell in der Cloud abzuleiten und dann ein kleines Modell zu destillieren. Aus praktischer Sicht betrachten wir mehr darüber, wie die Geschäftsentwicklung einiger vertikaler Anwendungen unterstützt werden kann. Es besteht keine Notwendigkeit, ein so großes Modell wie LLaMA bereitzustellen. In vertikalen Szenarien kann die Anzahl der Parameter 1-3B betragen genug.

Wang Chenhan: Heute haben wir die Architektur und das Backbone besprochen, aber nicht den Datenumfang berücksichtigt. Basierend auf den Informatikprinzipien von Shannons Vorgängern ist unter der Bedingung einer bestimmten Matrix die übertragene Datenmenge begrenzt, und effizientere Komprimierungsmethoden führen unweigerlich zu Verlusten. Wenn Sie also eine bestimmte Leistung wünschen – vorausgesetzt, diese Leistung basiert auf GPT-3.5, wir haben gerade 10 GB+ erwähnt –, müssen wir davon ausgehen, dass es nicht weniger als 7 GB sein wird, selbst wenn ein effizienteres Backbone erscheint. Um auf diese Modellebene zu reagieren, kann zwar der Speicher des Geräts erweitert werden, sein Rechenumfang wird jedoch nicht mehr gering sein.

Ich habe bereits erwähnt, dass sich die Iterationsgeschwindigkeit des Prozesses verlangsamt. In vielleicht 5–10 Jahren ist die Leistung, die wir aus einem Chip einer einzigen Größe herausholen können, möglicherweise nicht mehr so ​​gut wie in den letzten 3 Jahren oder so. Das ist so eine Tatsache, die wir jetzt sehen können.

2024 Treffen Sie TVM · ​​​​Die Zukunft ist vielversprechend

Vom ersten bis vierten Quartal 2023 haben wir erfolgreich vier Offline-Treffen in Shanghai, Peking und Shenzhen abgehalten. Wir freuen uns sehr, Ingenieure, die sich für KI-Compiler interessieren, in verschiedenen Städten zusammenbringen zu können, um allen eine Plattform zum Lernen und Kommunizieren zu bieten . Im Jahr 2024 werden wir den TVM-Stadtplan weiterentwickeln und laden alle Unternehmen und Community-Partner herzlich ein, sich an der Co-Creation in verschiedenen Formen zu beteiligen. Ob es um die Empfehlung von Dozenten oder die Bereitstellung von Veranstaltungsorten und Kaffeepausen geht, wir sind herzlich willkommen.

Lassen Sie uns zusammenarbeiten, um die aktivste KI-Compiler-Community in China zu schaffen!


Freunde, die die wunderbaren Reden der Gäste noch nicht gesehen haben, können auf den Veranstaltungsrückblick (Teil 1) klicken | Die Veranstaltungsreihe 2023 Meet TVM ist perfekt zu Ende gegangen, um die vollständige Aufzeichnung anzusehen ~
Folgen Sie dem öffentlichen WeChat-Konto „HyperAI Super Neuro“ und antworten Sie mit dem Stichwort „TVM Year-end Party“ im Hintergrund. Erhalten Sie die vollständige PPT des Gastes.
Sie können auch „TVM Year-End Party“ notieren, den QR-Code scannen, um der Veranstaltungsgruppe beizutreten, und die neuesten Veranstaltungsinformationen erhalten~

Sponsoren und Partner

Als Organisator dieser Veranstaltung wurde im Juni 2022 die MLC.AI-Community gegründet. Chen Tianqi, der Haupterfinder von Apache TVM und ein berühmter junger Wissenschaftler auf dem Gebiet des maschinellen Lernens, leitete das Team dazu, den MLC-Online-Kurs systematisch zu starten Einführung des maschinellen Lernens. Schlüsselelemente und Kernkonzepte der Kompilierung.

Im November 2022 wurde mit den gemeinsamen Bemühungen von Freiwilligen der MLC.AI-Community das erste vollständige chinesische TVM-Dokument veröffentlicht und erfolgreich auf der offiziellen HyperAI-Website gehostet, um inländischen Entwicklern, die an der Kompilierung maschinellen Lernens interessiert sind, weiterhin die Möglichkeit zu geben, in Kontakt zu treten und die Grundlagen zu erlernen einer neuen Technologie - Dokumentation.
MLC-Online-Kurs: https://mlc.ai/ Chinesische TVM-Dokumentation: https://tvm.hyper.ai/

HyperAI ist die führende Community für künstliche Intelligenz und Hochleistungsrechnen in China. Das Unternehmen hat sich zum Ziel gesetzt, inländischen Entwicklern hochwertige öffentliche Ressourcen im Bereich der Datenwissenschaft zur Verfügung zu stellen. Bisher hat es inländische Download-Knoten für mehr als 1.200 öffentliche Datensätze bereitgestellt , das über 300 Eingabeabfragen im Zusammenhang mit künstlicher Intelligenz und Hochleistungsrechnen unterstützt, umfasst jetzt Hunderte von Brancheneinträgen und -fällen, Tausende öffentlicher Datensätze und Tutorials, einschließlich großer Modelle, sind online und vollständige chinesische TVM-Dokumente werden gehostet.
Besuchen Sie die offizielle Website: https://hyper.ai/

OpenBayes Bayesian Computing ist ein führender Anbieter von Hochleistungs-Computing-Diensten in China . Durch die Übertragung klassischer Softwareökologie- und maschineller Lernmodelle auf die neue Generation heterogener Chips bietet das Unternehmen schnellere und benutzerfreundlichere Data-Science-Computing-Produkte für Industrieunternehmen und Universitäten wissenschaftliche Forschung. Seine Produkte wurden von Dutzenden von Großindustriebetrieben oder führenden wissenschaftlichen Forschungsinstituten übernommen.
Besuchen Sie die offizielle Website: https://openbayes.com/

CM Space (Xiamen) ist ein professionelles Innovationspark-Management-Unternehmen der China Merchants Group und betreibt den professionellen Inkubator „CM Space“ in Xiamen. Das an der Südostküste verwurzelte Unternehmen stützt sich auf die drei Hauptgeschäftsvorteile der China Merchants Group: Transport, umfassende Stadt- und Parkentwicklung sowie Finanzen und konzentriert sich darauf, Unternehmern im Bereich der künstlichen Intelligenz die am dringendsten benötigten Anwendungsszenarien, Modellverifizierung, Kunden im Seed-Stadium und andere Ressourcen unterstützen in den frühen Phasen der Entwicklung. , um Unternehmen im Bereich der künstlichen Intelligenz bei der effizienten Inkubation zu unterstützen.

Shanghai Cloud Base (Shanghai Cloud Computing Innovation Base, Shanghai Big Data Innovation Base) ist ein professioneller Inkubator auf nationaler Ebene, der früher in China gegründet wurde und die Entwicklung der Cloud-Computing-Branche von 0 auf 1 fördert. Basierend auf dem Modell „Fonds + Basis + Plattform“ mit der digitalen Wirtschaftsbranche als Kern konzentriert es sich auf Cloud Computing, Cloud Native, Big Data und künstliche Intelligenz, digitale Gesundheit und andere Unterabteilungen und hat fast tausend herausragende Unternehmen versammelt und gegründet zu Hause und im Ausland. Durch die Verbindung der vier Ökosysteme Technologie, Nutzer, Kapital und Dienstleistungen werden wir weiterhin „Scenario Innovation Labs“ und „Digital Economy Listing Preparatory Camps“ veranstalten, um einen Beschleuniger für die digitale Wirtschaft aufzubauen.

Guixin Valley – eine grenzüberschreitende One-Stop-Serviceplattform für globale Unternehmen, hat sich zum Ziel gesetzt, eine umfassende, marktorientierte Unternehmensserviceplattform aufzubauen, die unternehmerische Inkubationsbasen, Guixin Valley-Talente, Guixin Valley-Unternehmensdienstleistungen, Guixin Valley-Kulturkommunikation integriert. usw. als Kerninhalt. Es verbindet ausländische Think Tanks und Marktressourcen in Nordamerika, Europa, Asien und anderen Ländern und bietet Dienstleistungen wie den Betrieb von Industrieparks und Gründerzentren, Unternehmerschulungen, Unternehmensberatungsdienste, Investitionen und Finanzierung, Entwicklung von Talenten im Ausland, globale Innovation und Unternehmertum Aktivitäten usw. und hilft gleichzeitig chinesischen Unternehmern, ins Ausland zu gehen. . Ziel von Guixin Valley ist es, Talente zu entdecken, Talente zu fördern und Talente zu erreichen, herausragenden jungen Talenten dabei zu helfen, ihre Träume zu verwirklichen, und einen Ort der Rückkehr für Rückkehrer zu schaffen, um Unternehmen zu gründen und Talente zu fördern.

Supongo que te gusta

Origin blog.csdn.net/HyperAI/article/details/135276847
Recomendado
Clasificación