[KI-zugrundeliegende Logik] – Kapitel 7 (Teil 2): Computerressourcen und gemeinsame Nutzung von Softwarecode

Fortsetzung des vorherigen Artikels...

Inhaltsverzeichnis

Fortsetzung des vorherigen Artikels...

3. Rechenressourcen

1. Die erste Stufe: Datenkonzentration

2. Die zweite Stufe: Ressourcen-Cloudifizierung

①Klassifizierung von „Cloud“

②Virtualisierungstechnologie

③Popularisierung des Edge Computing

4. Software-Code-Sharing

Zusammenfassen

  Highlights aus der Vergangenheit:


3. Rechenressourcen

Obwohl das Papier zum AlphaGo-Algorithmus veröffentlicht wurde, ist es aus kommerzieller Sicht definitiv ein kostenintensives Geschäft, das zweite zu kopieren, da es eine große Anzahl von Servern und Rechenzentren erfordert, um die Algorithmusimplementierung zu unterstützen. Für die meisten KI-Anwendungen können, solange sie mit )Internet verbunden werden können, theoretisch nahezu unbegrenzte Rechenressourcen genutzt werden – wodurch physische Ressourcen (wie Serverausrüstung, Rechenknoten, Speicherknoten, Netzwerkknoten usw.dem Dieser Prozess hat zwei Phasen durchlaufen: Datenzentralisierung und Ressourcen-Cloudifizierung.

1. Die erste Stufe: Datenkonzentration

Datenzentralisierung : Bauen Sie eine große Anzahl von Rechenzentrumsinfrastrukturen auf und zentralisieren Sie Daten zur Nutzung.

Rechenzentrum : Rechenzentrum, manchmal auch als DC abgekürzt, z. B. das Rechenzentrum, das Internetdienste wie Website-Veröffentlichung, virtuelles Hosting und E-Commerce bereitstellt, wird als IDC (Internet Data Center) bezeichnet, und das Rechenzentrum, das Cloud-Computing-Dienste bereitstellt, wird als IDC (Internet Data Center)genannt CDC (Cloud Data Center). Center), andere umfassen Enterprise Data Center ( EDC ), Government Data Center ( GDC ) usw. ——Es gibt keine einheitliche Definition, aber im Allgemeinen umfasst die umfassende Bedeutung von Rechenzentrum drei Bedeutungsebenen :

① Ein physischer Raum ist eine wichtige Infrastruktur für den Aufbau von Unternehmensinformationen und stellt den notwendigen physischen Ort und die unterstützende Umgebung für den Betrieb von Informationssystemen bereit.

② Eine logische Architektur ist eine IT-Anwendungsumgebung, die entsteht, nachdem ein Unternehmen eine Datenkonzentration in großem Maßstab durchgeführt hat. Sie ist eine Drehscheibe für die Bereitstellung von IT-Diensten wie Datenberechnung, -verarbeitung und -speicherung.

③ Eine Organisationsstruktur , dh eine Organisation oder ein Team, die für den Betrieb und die Wartung von Informationssystemen durch zentralisierten Betrieb, Überwachung, Management usw. verantwortlich sind (verantwortlich für die Gewährleistung der Systemstabilität und Geschäftskontinuität).

Energieverbrauch : Rechenzentren sind enorme Energieverbraucher. Derzeit hat die Branche 1 % des weltweiten Energieverbrauchs erreicht und überschritten, und ihr Plan für den Bau umweltfreundlicher Energie wurde ebenfalls auf die Tagesordnung gesetzt. Natürliche Ressourcen wie Wasserenergie, Windenergie und Solarenergie können in Rechenzentren genutzt werden, um den Energieverbrauch zu senken!

2. Die zweite Stufe: Ressourcen-Cloudifizierung

Ressourcen-Cloudifizierung : Ressourcen wie Computer und Speicher werden ebenfalls zentralisiert und in virtuelle Ressourcen umgewandelt, um externe Dienste bereitzustellen .

Im Jahr 2006 schlug Google erstmals das Konzept des „Cloud Computing“ vor. Es ging davon aus, dass elektronische Geräte wie Mobiltelefone und Computer lediglich Zusatzgeräte zum Internet seien. In Zukunft könnten alle Programme und Daten im Internet gespeichert werden Benutzer müssen keine Software verwalten. Mit Upgrades und Sicherheitspatches müssen Sie sich keine Sorgen über den Verlust wichtiger Daten machen.

Cloud bezieht sich normalerweise auf zwei Aspekte: ① Dienste , das sind Cloud-Dienste, die im Internet bereitgestellt werden. Zu diesen Diensten gehören Cloud Computing, Cloud-Speicher, Cloud-Sicherheit usw.; ② Technologie , die Technologieplattform, die Cloud-Dienste bereitstellt. Diese Plattform muss Lösen Sie die Probleme von Big Data, Virtualisierung usw., Automatisierung, Verteilung und anderen Problemen. Das Wesen der Cloud ist ein extrem großes verteiltes System , das einer großen Anzahl von Computerknoten an verschiedenen physischen Standorten umfangreiche Rechen- und Speicheraufgaben zuweist.

①Klassifizierung von „Cloud“

Die Entwicklung fast aller Technologien ist unterteilt in: aufkeimende Kreativperiode – Hype-Periode – Desillusionierungsperiode – Erholungsperiode – Reifeperiode . Cloud Computing ist keine Ausnahme!

Die erste basiert auf Bereitstellungsmethoden wie Private Cloud, Public Cloud, Hybrid Cloud, Community Cloud, Industry Cloud usw. Für die meisten Menschen bezieht sich reine „Cloud“ auf die Public Cloud.

①私有云:企业自己建设的、供内部使用的云,集中在如金融、医疗、政务等重要服务行业。安全性高、定制化程度高。
②公有云:由云服务商建设和维护的,通过互联网为企业和个人提供服务,在游戏、视频行业用的较多。成本低、无须维护、可无限伸缩、高可靠性。
③混合云:将企业内部的基础架构、私有云与公有云相互结合的云。兼有两者特点,但也导致架构复杂、维护难度大等。

Der zweite Typ basiert auf Serviceinhalten , einschließlich Software as a Service (SaaS), Platform as a Service (PaaS) und Infrastructure as a Service (IaaS) .

①IaaS提供硬件设备服务,包括服务器、计算、存储、网络和配套管理工具的虚拟数据中心,通常面向的是企业基础设施运维人员。
②PaaS提供平台服务,如业务软件、中间件、数据库等,面向的是应用程序开发人员。它屏蔽了系统底层复杂的管理操作,使得开发人员可以快速开发高性能、可扩展的程序和服务。
③SaaS提供现成的软件服务,如在线邮件系统、在线存储、在线Office等,面向普通用户。

②Virtualisierungstechnologie

Aus technischer Sicht nutzt die unterste Schicht der Cloud eine Virtualisierungstechnologie!

Virtuelle Technologie im herkömmlichen Sinne : Ein oder mehrere Betriebssysteme können gleichzeitig in einer isolierten Umgebung ausgeführt werden, d. h. es können mehrere völlig unterschiedliche Betriebssysteme auf einem physischen Gerät oder Server ausgeführt werden ( ein physisches Gerät kann in mehrere virtuelle Maschinen unterteilt werden ) . . Später wurden zur Bereitstellung von Diensten virtualisierte Container verwendet , die kleiner als das Betriebssystem sind (der Container entspricht der Virtualisierung von Software und Komponenten, die im Betriebssystem ausgeführt werden). Im Vergleich zur Virtualisierung des gesamten Betriebssystems bietet es eine feinere Dienstgranularität. Jeder Alle Komponenten sind individuell anpassbar und unabhängig, und viele KI- und Cloud-Dienste nutzen Virtualisierungstechnologie.

Vorteile: Ressourcen können dynamisch zugewiesen werden, um die Geschäftsanforderungen besser mit den IT-Ressourcen abzustimmen . Wenn beispielsweise viele Online-Spiele zum ersten Mal gestartet werden, ist es schwierig, genau abzuschätzen, wie viele Server zu ihrer Unterstützung erforderlich sind. Zu diesem Zeitpunkt kann die Anzahl der Server nach dem Start des Spiels dynamisch an die Anzahl der Spieler angepasst werden. Ein weiteres Beispiel ist, dass Alibaba im Voraus eine große Anzahl von Online-Servern erhöhen wird, um „Double Eleven“-Online-Shopping zu gewährleisten. Weibo hat seine Online-Kapazität erweitert, um den Anstieg der Benutzer- und Aktivitätszahlen zu unterstützen, der durch einige unerwartete heiße Themen verursacht wurde.

③Popularisierung des Edge Computing

Neben Cloud Computing gibt es eine weitere Computertechnologie, die in Verbindung mit KI eingesetzt wird: Edge Computing . In den letzten Jahren ist mit der Popularisierung von Netzwerkkommunikationstechnologien wie 5G die Anzahl der zu überwachenden Geräte und die zu verarbeitende Datenmenge erheblich gestiegen. Hardware wie Sensoren, tragbare Geräte und exklusive Chips sind populär geworden. Sie kann sogar in Tiere und Pflanzen implantiert werden. Im menschlichen Körper können viele Computeraufgaben lokal durch diese Hardware erledigt werden. Dieses Computermodell wird als Edge Computing bezeichnet.

Vergleich: Im Gegensatz zum Cloud-Computing-Modell müssen beim Edge-Computing keine Daten zur Verarbeitung in die Cloud hochgeladen werden. Stattdessen werden einige Rechenaufgaben über lokale Geräte oder eine nahegelegene Infrastruktur ausgeführt , um Benutzern bessere und schnellere Dienste bereitzustellen und den Datenverbrauch zu reduzieren Kosten für Verarbeitung und Übertragung – wenn beispielsweise ein fahrerloses Auto fährt, priorisiert es die lokale Berechnung von Sensor- und Kameradaten. Nur so kann es eine Echtzeitwahrnehmung der Straßenbedingungen gewährleisten und auf verschiedene Notfälle reagieren.

Edge-Computing-Knoten können Daten lokal filtern und nur wertvolle Daten in die Cloud hochladen . Dies kann nicht nur weiterhin lokale Dienste bereitstellen, wenn das Netzwerk unterbrochen ist, sondern auch das Risiko von Datenschutzlecks vermeiden. Beispielsweise werden die von Straßenkameras in der Nachbarschaft erfassten Videodaten in der Regel lokal überwacht und analysiert. Anschließend werden wichtige Videoclips in die Cloud hochgeladen. Dies kann die Privatsphäre der Benutzer schützen und die Kosten für die Nutzung der Netzwerkbandbreite erheblich senken.


4. Software-Code-Sharing

Wenn wir über das Thema KI sprechen, sprechen wir immer von Daten, Algorithmen und der Infrastruktur, die Rechen- und Speicherressourcen bereitstellt. Dies sind die „offenen Linien“ der Technologie, aber es gibt eine „verborgene Linie“ – Open Source ist unverzichtbar . Es ermöglicht eine groß angelegte technische Zusammenarbeit.

Wenn es um Open Source geht, müssen wir GitHub erwähnen , die weltweit größte Programmier-Community und Code-Hosting-Website . GitHub wurde 2008 in San Francisco, USA, gegründet. Es hat eine neue Art der Entwicklungsunterstützung geschaffen, bei der Menschen auf der Website umfangreiche kostenlose Code-Ressourcen erhalten können. Hier finden sich viele gute KI-Algorithmen und -Projekte, etwa Googles TensorFlow, Microsofts CNTK (Cognitive Toolkit), Metas Torch, Caffe, Theano und andere Open-Source-Deep-Learning-Frameworks.

GitHub核心使用了Git技术,以前的版本控制系统都是运行在集中的版本控制服务器上,
而Git创新地把它变成了分布式。通过GitHub网站,我们只需要从任何公开的代码仓库中
克隆代码到自己账号下,就可以进行开发和编辑。我们也可将修改的代码给原作者发送
一个推送请求,原作者觉得代码改动没问题,就可直接把修改的代码合并到自己的原代码中,
这样实现了集体编程。

Open Source dominiert das Technologie-Ökosystem . Beispielsweise verwenden viele Menschen gerne Python, um KI-Algorithmen zu studieren. Dies liegt daran, dass viele praktische Deep-Learning-Frameworks und Software für maschinelles Lernen auf Basis von Python ausgeführt werden können, wie z. B. TensorFlow, Scikit-learn, Keras, Theano , Caffe usw. Diese Open-Source-Software bietet eine gute Lernumgebung!

Aber es gibt auch Nebenwirkungen – manche Leute nutzen es gerne. Die Programmierung beginnt nicht mehr bei Null, sondern kopiert den gesamten Code direkt aus dem Internet. Softwareunternehmen beginnen, sich auf die Kapselung und Feinabstimmung des Quellcodes zu verlassen, um unabhängige Forschung zu beanspruchen und Entwicklung.

Obwohl die Software Open Source ist, ist sie nicht die beste Wahl für Unternehmen, da Open Source- Software keine hohe Verfügbarkeit und Sicherheit garantieren kann und ihre Verwendung für Unternehmen sehr riskant ist . Darüber hinaus unterscheidet sich KI von anderen gewöhnlichen Programmen. Sie läuft nicht gut, solange sie über Softwarecode verfügt. Außerdem muss sie sich auf riesige Datenmengen, leistungsstarke Rechenleistung und viele Modelltrainingsrunden verlassen – also etwas ausgereifter AIs sind möglicherweise nicht Open Source. Straßen wie das beliebte Modell zur Verarbeitung natürlicher Sprache GPT Vor einiger Zeit, als GPT-2 veröffentlicht wurde, entschied sich OpenAI nicht dafür, den gesamten Code offenzulegen, sondern nur einen Teil davon. Es glaubte, dass GPT -2 war zu leistungsfähig und es könnten Sicherheitsrisiken bestehen, wenn es vollständig Open Source wäre; GPT Als das -3-Modell veröffentlicht wurde, entschied sich OpenAI dafür, Tests in Form einer API-Schnittstelle einzuladen und gab den Code nicht direkt offen, um dies zu tun Verhindern Sie den Missbrauch dieser Technologie .


Zusammenfassen

Obwohl Computer bereits Milliarden von Operationen pro Sekunde ausführen können, können sie die Anforderungen menschlicher Berechnungen immer noch nicht erfüllen!

Obwohl wir mehr als 100 Milliarden Modellparameter simulieren können, ist das im Vergleich zu den Neuronen im menschlichen Gehirn vielleicht nicht einmal ein Zehntausendstel!

Bis heute sind wir weit davon entfernt, über die Rechenleistung zu verfügen, um das Niveau der allgemeinen KI zu erreichen, Hochleistungsrechenleistung anzustreben und die Richtung zu verstehen, in die Menschen hart arbeiten müssen!

  Highlights aus der Vergangenheit:

[KI-zugrundeliegende Logik] – Kapitel 5 (Teil 2): ​​Clustering und Dimensionsreduktion sowie Zeitreihen von Algorithmen für maschinelles Lernen

[KI-zugrundeliegende Logik] – Kapitel 3 (Teil 2): ​​Informationsaustausch und Informationsverschlüsselung sowie Entschlüsselung und Rauschen in Informationen

[KI-zugrundeliegende Logik] – Kapitel 3 (Teil 1): Daten, Informationen und Wissen & Shannon-Informationstheorie & Informationsentropie

[Maschinelles Lernen] – Fortsetzung: Convolutional Neural Network (CNN) und Parametertraining

[KI-zugrundeliegende Logik] – Kapitel 1 und 2: Statistik und Wahrscheinlichkeitstheorie und Daten-„Fallen“

[KI-zugrundeliegende Logik] – Kapitel 5 (Teil 1): Regression und Klassifizierung von Algorithmen für maschinelles Lernen

Acho que você gosta

Origin blog.csdn.net/weixin_51658186/article/details/132018851
Recomendado
Clasificación