llya, der Vater von GPT und Chefwissenschaftler von OpenAI, 10 zentrale Standpunkte in einem ausführlichen Interview an der Stanford University!

 Trockenware von Datawhale 

Autor: Ilya , Stanford University, Herausgeber: AI Business Institute

Der Vater von GPT, Ilya, der Chefwissenschaftler von OpenAI, verließ Google im Jahr 2015, um technischer Direktor des damals neu gegründeten OpenAI zu werden.

llya wurde 2015 in die 35-unter-35-Liste des MIT Technology Review aufgenommen und 2022 zum Fellow der Royal Society gewählt.

Kürzlich führte llya eine Stunde lang ein ausführliches Interview mit der Stanford University, in dem er über KI-Bewusstsein, Open Source und Closed Source, OpenAI-Kommerzialisierung und viele andere Themen sprach. Dieser Artikel ist eine Zusammenstellung seiner Kernansichten, mit Streichungen als Referenz.

0a72123ee4819e043a0f605697f28fff.png

# 01 

Große Sprachmodelle funktionieren wie biologische neuronale Netze

Das menschliche Gehirn ist unser bestes Beispiel für Intelligenz auf der Welt . Wir wissen, dass das menschliche Gehirn aus einer großen Anzahl von Neuronen besteht, einer sehr großen Anzahl von Neuronen. Neurowissenschaftler untersuchen seit Jahrzehnten Neuronen und versuchen, ihre Funktionsweise genau zu verstehen.

Obwohl die Funktionsweise unserer biologischen Neuronen weiterhin rätselhaft bleibt, stellten die ersten Deep-Learning-Forscher in den 1940er Jahren eine ziemlich gewagte Spekulation auf: Künstliche Neuronen (die wir in künstlichen neuronalen Netzen verwenden) ähneln biologischen Neuronen . Dies ist eine Annahme. Diese Annahme können wir nun übernehmen.

Ein sehr wichtiger Durchbruch der Pioniere des Deep Learning war die Entdeckung des Backpropagation-Algorithmus . Dabei handelt es sich um eine mathematische Gleichung, die erklärt, wie ein künstliches neuronales Netzwerk lernen soll. Es bietet eine Möglichkeit, einen Großrechner zu verwenden, um den Code dieses neuronalen Netzwerks zu implementieren, und dann gibt es eine Gleichung, die programmiert werden kann, um uns zu sagen, wie dieses neuronale Netzwerk seine Verbindungen anpassen soll, um aus Erfahrungen zu lernen.

Ein Großteil des Fortschritts beim Deep Learning läuft darauf hinaus: Wir können diese neuronalen Netze auf großen Computern aufbauen , sie anhand einiger Daten trainieren und diese großen neuronalen Netze dazu bringen, alles zu tun, was die Daten von ihnen verlangen.

Die Idee eines großen Sprachmodells ist: Wenn Sie über ein sehr großes neuronales Netzwerk verfügen, vielleicht nicht weit vom menschlichen Gehirn entfernt, können wir es trainieren, das nächste Wort aus den ersten paar Wörtern im Text zu erraten. Dies ist die Idee eines großen Sprachmodells: Trainieren Sie ein großes neuronales Netzwerk, um das nächste Wort in einem Text aus vorherigen Wörtern zu erraten, und Sie möchten, dass das neuronale Netzwerk das nächste Wort so genau wie möglich errät.

Zurück zu unserer ursprünglichen Hypothese: Künstliche Neuronen unterscheiden sich möglicherweise nicht sehr von biologischen Neuronen . Wenn Sie also über ein großes neuronales Netzwerk wie dieses verfügen, das das nächste Wort ziemlich gut erraten kann, unterscheidet es sich möglicherweise nicht von dem, was Menschen tun, wenn sie sprechen. Das haben wir bekommen.

Wenn Sie nun mit einem neuronalen Netzwerk wie diesem sprechen, hat es ein ausgezeichnetes Verständnis für das nächste Wort, es kann es eingrenzen, es kann nicht in die Zukunft sehen, aber es kann die Möglichkeiten basierend auf seinem Verständnis korrekt eingrenzen. Das nächste Wort sehr genau vorhersagen zu können, ist die Art und Weise, wie KI funktioniert.

# 02 

Lassen Sie die Maschine die statistische Korrelation im Text lernen, und dieses Wissen kann sehr gut komprimiert werden

Wir lernen ein Modell der Welt, und oberflächlich betrachtet sieht es so aus, als würden wir nur statistische Korrelationen im Text lernen, aber tatsächlich komprimiert das bloße Erlernen der statistischen Korrelationen im Text dieses Wissen ziemlich gut.

Was das neuronale Netzwerk lernt, sind einige Darstellungen im Prozess der Textgenerierung. Dieser Text ist eigentlich eine Abbildung der Welt, und die Welt wird auf diesen Wörtern abgebildet . Daher lernt das neuronale Netzwerk, ihn aus immer mehr Perspektiven zu betrachten Schauen Sie sich in dieser Welt die Menschen und die Gesellschaft an, schauen Sie sich die Hoffnungen, Träume, Motivationen, Interaktionen und Situationen der Menschen an.

Ein neuronales Netzwerk lernt eine komprimierte, abstrakte, nutzbare Darstellung. Dies wird bei der Aufgabe gelernt, das nächste Wort genau vorherzusagen. Je genauer Ihre Vorhersage des nächsten Wortes ist, desto höher ist außerdem der Grad der Wiederherstellung und desto höher ist die Auflösung der Welt, die Sie dabei erhalten. Das ist also die Rolle der Vortrainingsphase.

Aber das führt nicht dazu, dass sich das neuronale Netzwerk so verhält, wie wir es uns wünschen. Wenn Sie sich ein Sprachmodell ansehen, beantwortet es tatsächlich die folgende Frage: Wenn ich einen zufälligen Text im Internet habe, beginnt er mit einem Präfix Beginnen Sie mit einigen Hinweisen. Was wird es vervollständigen? Könnte es einfach zufällig mit etwas Text aus dem Internet vervollständigen, das ist nicht dasselbe wie ich denke, dass ein Assistent, ein Assistent, der echt und hilfreich ist und bestimmte Regeln befolgt, zusätzliches Training erfordert.

Hier können die Feinabstimmung und das verstärkende Lernen durch menschliche Lehrer sowie andere Formen der KI-Unterstützung ins Spiel kommen, und zwar nicht nur das verstärkende Lernen durch menschliche Lehrer, sondern auch das verstärkende Lernen durch die Zusammenarbeit von Menschen und KI.

# 03 

Die nächsten fünf bis zehn Jahre Deep Learning: Höhepunkte der Trainingsskala, Booms des vertikalen Trainings

Ich erwarte, dass Deep Learning weiterhin Fortschritte macht. Eine Zeit lang gab es große Fortschritte bei der Skalierung, und wir haben dies am deutlichsten von GPT-1 bis GPT-3 gesehen . Aber die Dinge ändern sich ein wenig. Der Grund dafür, dass die Skalierung so schnell voranschreitet, liegt darin, dass die Menschen über diese Rechenzentren verfügen, sodass große Fortschritte allein durch die Neuzuweisung vorhandener Ressourcen erzielt werden können. Es muss nicht lange dauern, vorhandene Ressourcen neu zuzuweisen, es braucht nur jemanden, der sich dafür entscheidet.

Das ist jetzt anders, weil der Trainingsumfang zu groß ist und der Fortschritt nicht mehr so ​​schnell sein wird wie zuvor, weil der Aufbau eines Rechenzentrums Zeit braucht.

Aber in der Zwischenzeit gehe ich davon aus, dass Deep Learning auf andere Weise weitere Fortschritte machen wird. Der Technologie-Stack für Deep Learning ist sehr umfangreich und ich gehe davon aus, dass es viele Ebenen von Verbesserungen geben wird, die zusammengenommen immer noch zu sehr robusten Fortschritten führen werden. Ich vermute, dass möglicherweise neue, derzeit unbekannte Eigenschaften des Deep Learning entdeckt und genutzt werden, und ich gehe davon aus, dass die Systeme in den nächsten fünf bis zehn Jahren weitaus besser sein werden als die, die wir heute haben . Aber wie genau, das ist meiner Meinung nach etwas schwer zu beantworten. Denn die Verbesserung besteht möglicherweise nur aus einer kleinen Anzahl großer Verbesserungen und einer großen Anzahl kleinerer Verbesserungen, die alle in ein großes und komplexes technisches Produkt integriert sind.

Bis zu einem gewissen Punkt sollten wir damit rechnen, dass spezialisiertes Training große Auswirkungen haben wird , aber der Grund, warum wir allgemeines Training durchführen, besteht einfach darin, an den Punkt zu gelangen, an dem neuronale Netze die von uns gestellten Fragen überhaupt verstehen können;

Nur wenn es über ein äußerst solides Verständnis verfügt, können wir in die Berufsausbildung einsteigen und wirklich davon profitieren . Ich denke, dass dies alles mögliche fruchtbare Richtungen sind.

# 04 

GPT ist sehr sachkundig, während Menschen gut in der Fachforschung sind und die Fähigkeit haben, aus einer kleinen Menge an Informationen ein tiefes Verständnis zu gewinnen

Es ist etwas schwierig, uns Menschen und künstliche neuronale Netze direkt zu vergleichen, da Menschen derzeit aus weniger Daten mehr lernen können.

Aus diesem Grund benötigen neuronale Netze wie ChatGPT zunächst so viele Daten, um ihre langsame Lernfähigkeit auszugleichen. Wenn wir diese neuronalen Netze trainieren und sie verbessern, beginnt sich die Fähigkeit zum Lernen zu entwickeln.

Aber im Allgemeinen unterscheidet sich die Art und Weise, wie Menschen lernen, stark von den Anfängen dieser neuronalen Netze . Diese neuronalen Netze verfügen beispielsweise nur über sehr gute Kenntnisse in Mathematik oder Programmierung, aber um ein bestimmtes Niveau zu erreichen, beispielsweise in der Analysis, ist eine große Anzahl von Lehrbüchern erforderlich. Eine Person benötigt möglicherweise nur zwei Lehrbücher und mehr als 200 Übungen.

Derzeit wird ein solches neuronales Netzwerk den Menschen in Bezug auf Umfang und Wissensumfang zwangsläufig übertreffen. Sie sprechen zum Beispiel fließend über Poesie und zu jedem Thema, sie können über historische Ereignisse und viele andere Dinge sprechen; andererseits können Menschen tiefgreifende Recherche betreiben. Ein Experte hat ein tiefes Verständnis für ein Thema, auch wenn er möglicherweise nur eine kleine Menge Dokumentation gelesen hat.

# 05 

ChatGPT ist noch nicht bewusst, aber es können Experimente entwickelt werden, um zu testen, ob zukünftige KI bewusst ist

Bewusstsein ist schwierig, wie definiert man es? Es war schon lange schwierig, es zu definieren. Wie testet man es also in einem System? Vielleicht gibt es ein System, das perfekt funktioniert, perfekt so, wie Sie es erwarten, aber aus irgendeinem Grund ist es möglicherweise nicht autonom.

Ich denke, es gibt einen sehr einfachen Weg: Es gibt ein Experiment, um zu überprüfen, ob ein KI-System bei Bewusstsein ist, aber wir können es noch nicht ausführen.

Aber vielleicht können wir in Zukunft, wenn KI sehr schnell aus weniger Daten lernen kann, die folgenden Experimente durchführen:

Wir können die Trainingsdaten sehr sorgfältig kuratieren und niemals etwas über das Bewusstsein (in den Trainingsdaten) erwähnen. Wir sagen einfach: „Hier ist ein Ball, hier ist ein Schloss, hier ist wie ein kleines Spielzeug“, und Sie können sich diese Art von Daten vorstellen Es wäre sehr kontrolliert, vielleicht mehrere Jahre dieser Trainingsdaten.

Ein solches KI-System würde mit vielen verschiedenen Lehrern interagieren, sehr sorgfältig von ihnen lernen, aber niemals über Bewusstsein sprechen, und die Menschen würden mit KI über nichts anderes als die oberflächlichsten Erfahrungskonzepte sprechen.

Und dann setzen Sie sich irgendwann mit dieser KI zusammen und sagen: Okay, ich möchte Ihnen etwas über das Bewusstsein erzählen, ein Phänomen, das die Leute beschreiben, aber nicht wirklich verstehen, und das die Leute anders sehen.

Es wäre interessant, sich eine KI vorzustellen, die sagt: „Oh mein Gott, mir geht es genauso, aber ich weiß nicht, wie ich es ausdrücken soll“, und das ist (Forscher) sicherlich etwas, über das man nachdenken sollte.

Wenn KI nur darauf trainiert ist, mit sehr alltäglichen Daten über Objekte und Bewegungen oder bestimmten sehr engen Konzepten umzugehen, wissen Sie. Wir erwähnen Bewusstsein nicht, aber die KI spricht endlich eloquent und korrekt auf eine Weise, die wir erkennen können und die (KI hat Bewusstsein) überzeugend sein wird.

# 06 

Open Source oder Closed Source: Open Source ist geeignet, wenn die KI-Fähigkeit gering ist, und Open Source ist unverantwortlich, wenn die KI-Fähigkeit stark genug ist

Ich denke, dass die Herausforderungen, vor denen die KI steht, allumfassend sind und viele verschiedene Herausforderungen und Gefahren umfassen, die einander widersprechen. Ich denke, Open Source vs. Closed Source ist ein gutes Beispiel. Warum ist Open Source ideal? Lassen Sie es mich so sagen: Was sind die Vorteile von Open-Source-KI? Die Antwort: Verhinderung der Machtkonzentration in den Händen von KI-Entwicklern.

Wenn Sie in einer Welt leben würden, in der beispielsweise nur wenige Unternehmen diese sehr leistungsstarke Technologie kontrollieren, könnten Sie sagen, dass dies keine ideale Welt ist und KI für jeden offen und verfügbar sein sollte. Das ist das Open-Source-Argument.

Natürlich gibt es kommerzielle Anreize gegen Open Source, aber es gibt auch ein weiteres seit langem bestehendes Argument gegen Open Source: Wenn wir glauben, dass KI irgendwann unübertroffen mächtig werden wird, wenn wir an einen Punkt gelangen, an dem KI so mächtig ist, können Sie es einfach tun Sagen Sie ihm: „Können Sie die Initiative ergreifen, um ein Biologie-Forschungslabor einzurichten? Ergreifen Sie die Initiative, um den ganzen Papierkram zu erledigen, den Arbeitsbereich zu leiten, Techniker einzustellen, Experimente zusammenzustellen, ergreifen Sie die Initiative, um all diese Dinge zu tun.“

Wenn KI unglaublich leistungsfähig wird, sollte sie dann nicht auch Open Source sein? Mein Standpunkt zur Open-Source-Frage ist also: Ich denke, es ist in Ordnung, die Fähigkeiten dieser neuronalen Netze zu berücksichtigen. Wie schlau sie sind und wie viele Dinge sie können. Wenn die Fähigkeiten gering sind, halte ich Open Source für eine gute Sache, aber irgendwann (wann genau) lässt sich darüber streiten, aber ich würde sagen, dass die Fähigkeiten irgendwann so groß werden, dass Open-Source-KI-Modelle offensichtlich sind unverantwortlich.

Meiner Meinung nach ist der aktuelle Stand der KI-Fähigkeiten aus Sicherheitsgründen nicht hoch genug, um das Quellmodell zu schließen. Diese Forschung befindet sich derzeit in einem Wettbewerbsstadium. Ich denke, wenn die Fähigkeiten dieser Modelle weiter zunehmen, wird der Tag kommen, an dem Sicherheitsüberlegungen ein offensichtlicher und direkter Auslöser dafür sein werden, diese Modelle nicht als Open Source anzubieten.

# 07 

Gemeinnützige Organisation oder gewinnorientierte Organisation: die Notwendigkeit eines angemessenen Gleichgewichts

Tatsächlich wäre es in gewisser Weise vorzuziehen, wenn OpenAI eine gemeinnützige Organisation bleiben könnte, bis seine Mission erfüllt ist.

Allerdings ist darauf hinzuweisen, dass diese Rechenzentren sehr teuer sind. Ich bin mir sicher, dass Sie die von verschiedenen KI-Startups gesammelten Geldbeträge gelesen haben, von denen der überwiegende Teil an Cloud-Computing-Anbieter geht. Warum? Der Grund dafür ist, dass das Training dieser großen neuronalen Netze viele Rechenressourcen erfordert, was offensichtlich ist.

Sie können die Kluft erkennen, die derzeit zwischen der Wissenschaft und KI-Unternehmen besteht. Spitzenforschung auf dem Gebiet der Künstlichen Intelligenz wird seit langem und vielen Jahrzehnten in den Fachbereichen der Universitäten betrieben. Diese Situation hielt bis Mitte der 2010er Jahre an. Aber irgendwann werden die Komplexität und die Kosten dieser Programme so unerschwinglich, dass Universitäten nicht mehr mit der Industrie konkurrieren können und nun andere Wege finden müssen, um an (Ressourcen) zu kommen.

Das Problem bei gemeinnützigen Organisationen besteht in diesem Zusammenhang darin, dass Menschen, die für die gemeinnützige Organisation spenden, nie eine Gegenleistung erhalten, was eine echte Spende ist. Ob Sie es glauben oder nicht, es ist tatsächlich viel schwieriger, Menschen dazu zu bewegen, für gemeinnützige Organisationen zu spenden.

Wir haben uns also gefragt: Was ist die Lösung, auf die man gut reagieren könnte? Also kamen wir auf eine Idee, die für jede mir bekannte Unternehmensstruktur auf der Welt einzigartig war. Die Unternehmensstruktur von OpenAI ist absolut einzigartig. OpenAI ist kein gewinnorientiertes Unternehmen, sondern ein gewinnorientiertes Unternehmen. Ich möchte erklären, was das bedeutet. Das bedeutet, dass das Eigenkapital von OpenAI eher einer Anleihe ähnelt als dem Eigenkapital eines normalen Unternehmens. Das Hauptmerkmal einer Anleihe besteht darin, dass sie nach der Zahlung verschwindet. Mit anderen Worten: Die Verpflichtungen von OpenAI gegenüber seinen Investoren sind begrenzt, nicht die unbegrenzten Verpflichtungen eines normalen Unternehmens gegenüber seinen Investoren .

Sam Altman verfügt nicht über Eigenkapital , die anderen Gründer jedoch schon. Aber es gibt auch Grenzen. Es unterscheidet sich vom normalen Eigenkapital eines Startup-Unternehmens, weist aber auch gewisse Ähnlichkeiten auf: Je früher Sie dem Unternehmen beitreten, desto höher ist das Limit, da höhere Limits erforderlich sind, um frühe Investoren anzuziehen. Da das Unternehmen weiterhin erfolgreich ist, werden die Limits gesenkt.

Warum ist das wichtig? Denn das bedeutet, dass OpenAI wieder eine gemeinnützige Organisation wird , wenn das Unternehmen alle seine Verpflichtungen gegenüber Investoren und Mitarbeitern begleicht . Man könnte sagen, es ist völliger Wahnsinn und es ändert nichts. Aber es lohnt sich zu überlegen, was wir erwarten und, was noch wichtiger ist, was unserer Meinung nach aus KI werden wird.

Ich finde es nicht unglaublich, dass und die wirtschaftlichen Turbulenzen groß sein werden, zu einer gemeinnützigen Organisation wirdleistungsfähigerseine Mission erfüllt, seinen Verpflichtungen gegenüber Investoren und Mitarbeitern nachkommt und in einer Zeit,OpenAI Dies ist die Lösung, um Gewinne im Vergleich zu gemeinnützigen Organisationen zu begrenzen.

# 08 

KI muss sich in Richtung einer Welt vernünftiger staatlicher Regulierung bewegen, aber das bedeutet nicht, „den Fortschritt zu verlangsamen“, sondern „den Fortschritt vernünftiger zu machen“.

Tatsächlich wird KI äußerst leistungsfähig und transformativ sein.


Ich glaube wirklich, dass wir uns auf eine Welt vernünftiger staatlicher Regulierung zubewegen, und hier gibt es mehrere Dimensionen. Wir wollen in einer Welt mit klaren Regeln leben , etwa dem Training leistungsfähigerer neuronaler Netze. Wir möchten sorgfältige Einschätzungen und Vorhersagen darüber erhalten, was diese neuronalen Netze heute leisten können und was wir voraussichtlich in einem Jahr oder nach Abschluss der Ausbildung leisten können.

Rational gesehen würde ich den Begriff „Fortschritt verlangsamen“ nicht verwenden, sondern „Fortschritt angemessen gestalten“, um ihn zu beschreiben . Auf diese Weise haben wir bei jedem Schritt unsere Hausaufgaben gemacht und können tatsächlich eine glaubwürdige Aussage treffen, dass „das neuronale Netzwerksystem, das wir trainiert haben, dies tut, hier sind alle Schritte, es wurde validiert oder zertifiziert.“ I Ich denke, das ist die Welt, in die wir eintauchen, und das zu Recht.

# 09 

Der erste KPI von OpenAI ist der technologische Fortschritt

Der heiligste KPI, und ich denke, das ist die Art von Frage, auf die verschiedene Leute unterschiedliche Antworten geben. Aber wenn ich es wirklich eingrenzen würde, würde ich sagen, dass es ein paar KPIs gibt, die wirklich wichtig sind, und einer davon ist zweifellos der technologische Fortschritt.

Haben wir gute Recherchen durchgeführt? Haben wir ein besseres Verständnis unseres Systems? Können wir sie besser trainieren? Können wir sie besser kontrollieren? Ist unser Forschungsplan gut umgesetzt? Wird unser Sicherheitsplan gut umgesetzt? Wie zufrieden sind wir damit? Ich würde sagen, das wäre meine Beschreibung der wichtigsten KPIs: gute technische Arbeit leisten.

Natürlich gibt es die Produktseite, die ich ziemlich cool finde, aber ich würde sagen, dass die Kerntechnologie das Herzstück von OpenAI ist, nämlich die Entwicklung, Kontrolle und Manipulation dieser Technologie.

# 10 

Tipp für junge Leute: Vertrauen Sie Ihrer Intuition und seien Sie einzigartig

Im Allgemeinen denke ich, dass es am besten ist, aus den eigenen einzigartigen Tendenzen Kapital zu schlagen. Wissen Sie, wenn Sie über die gesamte Bandbreite an Neigungen, Fähigkeiten oder Talenten nachdenken, die eine Person haben könnte, ist das eine sehr seltene Kombination. Für welche Richtung Sie sich auch entscheiden, es ist eine sehr gute Idee, dies zu nutzen.

Es gibt Dinge, die ich über die KI-Forschung sagen kann, aber Sie neigen dazu, Ihr eigenes Denken zu behalten und sich wirklich zu fragen, was Sie tun können. Gibt es etwas, das für Sie völlig offensichtlich ist und Sie darüber nachdenken lässt, warum niemand sonst es versteht? Wenn Sie so denken, ist das ein gutes Zeichen. Es bedeutet, dass Sie vielleicht etwas dagegen tun können. Wir werden uns darauf einlassen, es erforschen und sehen, ob Ihre Intuition wahr ist oder nicht.

Mein Mentor Hinton hat das gesagt, und es gefällt mir wirklich gut. Er sagte, dass Sie Ihrer Intuition vertrauen sollten, denn wenn Ihre Intuition gut ist, werden Sie weit kommen, wenn Ihre Intuition nicht gut ist, gibt es keinen Weg.

Was Unternehmertum betrifft, denke ich, dass hier Ihre einzigartige Perspektive wertvoller oder sogar entscheidender ist. Vielleicht erkläre ich, warum ich denke, dass (diese einzigartige Perspektive) in der Forschung wertvoller ist, wo sie sehr wertvoll ist; aber im Geschäftsleben müssen Sie Ihre einzigartige Lebenserfahrung nutzen, was Sie sehen, welche Technologien Sie sehen, sehen, ob Sie sich konzentrieren können auf einen bestimmten Aspekt eingehen und es dann wirklich tun.

e892bc9db473a4719a4594ec6e37ca26.png

Trockenwaren lernen, etwa dreimal

Supongo que te gusta

Origin blog.csdn.net/Datawhale/article/details/130695507
Recomendado
Clasificación