Gartner veröffentlicht China-Technologiebericht: Datenweberei und große Modelltechnologien entstehen

Kürzlich veröffentlichte Gartner, ein weltbekanntes Technologieforschungs- und Beratungsunternehmen, seinen neuesten Bericht über Chinas Datenanalyse und künstliche Intelligenz. Der Bericht wies darauf hin, dass China die boomende Entwicklung von Datenanalyse und künstlicher Intelligenz einläutet. Es wird erwartet, dass bis 2026 mehr als 30 % der Angestelltenjobs neu definiert werden und generative Fähigkeiten im Bereich der künstlichen Intelligenz zu einem der wichtigsten werden beliebte Fähigkeiten.

In diesem Jahr veröffentlicht Gartner zum ersten Mal Chinas Reifekurve für Daten-, Analyse- und künstliche Intelligenz-Technologien, die Chinas rasanten Aufstieg in diesem Bereich verdeutlicht. Der Bericht behandelt vier Schlüsselthemen: eine geschäftsergebnisorientierte China-Datenstrategie, ein regionales Daten- und Analyseökosystem, Herausforderungen im Data Middle Office und künstliche Intelligenz als Symbol nationaler Macht. Der Bericht hebt die Verbreitung von Technologien hervor, die kurz vor dem Eintritt in eine Phase überzogener Erwartungen stehen, darunter Schlüsselbereiche wie Datenweberei, große Modelle, Datenbestände-Management sowie zusammengestellte Daten und Analysen.

Datenweberei

Data Fabric ist ein Architekturansatz, der den Datenzugriff in einem Unternehmen oder einer Institution vereinfacht und so den Self-Service-Datenverbrauch fördert. Diese Architektur ist datenumgebungs-, prozess-, dienstleistungs- und geografieunabhängig und integriert gleichzeitig End-to-End-Datenverwaltungsfunktionen. Data Weaving automatisiert die Datenermittlung, Datenverwaltung und Datennutzung und hilft Unternehmen dabei, Daten zu nutzen, um das Beste aus ihrer Wertschöpfungskette herauszuholen.

Durch das Weben von Daten können Probleme wie Hardware-Ressourcenknappheit, Skalierbarkeit, nachhaltiger Betrieb und Sicherheitsrisiken gelöst werden. Während die Datenweberei noch in den Kinderschuhen steckt, prognostiziert Gartner, dass sie innerhalb der nächsten 10 Jahre zum Mainstream werden wird.

großes Modell

Großes Modell bezieht sich auf ein tiefes neuronales Netzwerkmodell mit Millionen oder Milliarden Parametern. Dieses Modell wurde einem speziellen Trainingsprozess unterzogen und kann komplexe Verarbeitungen für große Datenmengen durchführen. Der Großmodelltechnologie wird ein großes Potenzial in Bereichen wie der Verarbeitung natürlicher Sprache zugeschrieben und es wird erwartet, dass sie verbesserte Effekte in verschiedenen Anwendungen natürlicher Sprache bietet. Aufgrund der hohen Schwelle sind jedoch nur wenige Unternehmen in der Lage, ausreichende Ressourcen in die groß angelegte Modellforschung und -anwendung zu investieren.

Derzeit sind viele große Modelle wie Baidu Wenxinyiyan, iFlytek Cognitive Large Model, Douyin Skylark Large Model usw. offiziell für die Öffentlichkeit zugänglich. Gleichzeitig haben viele Unternehmen auch die Anwendung großer Modelle in Branchen wie Industrie, Finanzen, Regierungsangelegenheiten und Bildung beschleunigt. Das Ministerium für Industrie und Informationstechnologie erklärte außerdem, dass es den neuen Trend der globalen allgemeinen Entwicklung künstlicher Intelligenz kombinieren, Innovation und Forschung rund um Basistechnologien wie Rechenleistung, Algorithmen, Daten und Frameworks steigern und die Anpassung von Software und Hardware beschleunigen werde. und bauen Sie einen Smart Chip, ein Algorithmus-Framework und ein großes Modell auf. Full-Stack-Industriekette.

Daten-Asset-Management

Unter Data Asset Management versteht man eine Reihe von Geschäftsfunktionen, die Daten- und Informationsbestände planen, steuern und bereitstellen, einschließlich der Entwicklung, Ausführung und Überwachung von Plänen, Richtlinien, Programmen, Projekten, Prozessen, Methoden und Verfahren im Zusammenhang mit Daten und dadurch die Steuerung, Schutz, Bereitstellung und Steigerung des Wertes von Datenbeständen. Das Daten-Asset-Management erstreckt sich über den gesamten Lebenszyklus der Datenerfassung, -speicherung, -anwendung und -vernichtung. Daten-Asset-Management ist das Asset-Management davon.

Das Daten-Asset-Management wird als entscheidender Prozess für die Verwaltung, Verarbeitung und Nutzung wertvoller Datenbestände hervorgehoben, der in weniger als zwei Jahren eine breite Akzeptanz finden kann. Diese Innovation wird in den nächsten zwei bis fünf Jahren besondere Aufmerksamkeit erhalten und umfasst Bereiche wie Citizen Data Science, Entscheidungsintelligenz, generative künstliche Intelligenz und Echtzeit-Datenmanagement.

Zusammengestellte Daten und Analysen

Assembled Data and Analytics (D&A) nutzt Container- oder Business-Microservice-basierte Architektur- und Datenwebkonzepte, um vorhandene Assets zu flexiblen, modularen und benutzerfreundlichen Datenanalyse- und KI-Funktionen zusammenzuführen. Diese Technologie kann eine Reihe von Technologien nutzen, um Datenverwaltungs- und Analyseanwendungen mithilfe von Low-Code- und No-Code-Funktionen in Datenanalyse- und KI-Komponenten oder andere Anwendungsmodule umzuwandeln und eine adaptive und intelligente Entscheidungsfindung zu unterstützen.

Darüber hinaus wird das Aufkommen zusammengestellter Daten- und Analysetechnologien chinesischen Unternehmen dabei helfen, ihre Agilität zu verbessern, die Ausgabe von Erkenntnissen zu beschleunigen und auf das sich ständig ändernde Geschäftsumfeld zu reagieren. Diese Technologie verwandelt Datenmanagement- und Analyseanwendungen in modulare Datenanalyse- und künstliche Intelligenzfunktionen und steigert so die Unternehmensflexibilität weiter.

Im Allgemeinen hat China eine starke Entwicklungsdynamik im Bereich der Datenanalyse und der Technologie der künstlichen Intelligenz gezeigt und wird in Zukunft weitere Innovationen und Anwendungen hervorbringen, die sich positiv auf die technologische und wirtschaftliche Entwicklung Chinas auswirken werden.

おすすめ

転載: blog.csdn.net/dragontesting123/article/details/132718929