Le "Parrain de l'Intelligence Artificielle" a démissionné de Google et regretté le développement de l'IA, sonnant l'alarme pour le monde ?

   Au cours de la dixième année d'adhésion à Google, alors que l'apprentissage en profondeur a inauguré un développement explosif, Geoffrey Hinton, connu sous le nom de "parrain de l'intelligence artificielle", a démissionné de Google, juste pour avertir les gens que l'IA est devenue très dangereuse.

    Selon des informations publiques, Geoffrey Hinton a rejoint Google en 2013 et a occupé le poste de vice-président. Il a étudié les algorithmes d'apprentissage automatique pendant plus de dix ans et a introduit la technologie d'apprentissage en profondeur dans les nombreuses entreprises de Google, faisant directement de Google l'une des entreprises les plus remarquables du monde. La technologie de l'IA. En 2019, il a remporté le "Turing Award", la plus haute distinction de l'industrie informatique, et a personnellement formé un grand nombre de talents liés à l'apprentissage automatique, dont Ilya Sutskever, co-fondateur et scientifique en chef d'OpenAI. En 2016, Hinton a participé au projet d'intelligence artificielle AlphaGo, célèbre pour avoir vaincu le champion du monde humain au jeu de Go.

   Dans un tweet du 1er mai, Hinton a confirmé son départ de Google, en précisant : "... En fait, je suis parti pour pouvoir parler ouvertement des dangers de l'IA sans avoir à penser à l'impact sur Google, Google Behavior est également très responsable. .”

   Il est rapporté que Hinton a les préoccupations suivantes concernant l'intelligence artificielle. Tout d'abord, avec le soutien de la technologie de l'intelligence artificielle, Internet sera bientôt inondé de toutes sortes de fausses informations. De fausses photos, de fausses vidéos et de fausses nouvelles inonderont Internet au point que de nombreuses personnes "ne pourront plus savoir ce qui est réel". Deuxièmement, l'IA remplacera la plupart des emplois, faisant exploser le chômage. Hinton a déclaré : "L'IA élimine la corvée, mais cela peut prendre bien plus que cela." IBM a annoncé hier qu'elle suspendrait le recrutement pour des postes que l'intelligence artificielle (IA) peut effectuer, et pourrait remplacer 7 800 emplois par l'intelligence artificielle.

   L'intelligence artificielle pourrait constituer une menace pour les humains à l'avenir, car l'IA a appris des comportements inattendus à partir de grandes quantités de données. Dans ce genre de formation continue, il est fort probable que le "robot tueur autonome" devienne une réalité. Quatrièmement, la concurrence entre Google et Microsoft et d'autres grandes entreprises va bientôt dégénérer en une concurrence mondiale. Sans une sorte de réglementation, cette concurrence ne s'arrêtera pas et la vitesse de développement de l'intelligence artificielle dépassera de loin la nôtre. Imaginez et finissez par sortir de contrôle.

   La vitesse de développement de l'IA a largement dépassé les attentes de nombreux experts, dont Hinton. Hinton a déclaré: "Beaucoup de gens pensent que c'est loin. J'avais l'habitude de le penser aussi. Je pense qu'il nous faudra au moins 30 à 50 ans pour arriver à ce jour. Mais en ce qui concerne les informations que j'ai apprises jusqu'à présent , j'ai déjà Je ne pense pas."

   Les mots ci-dessus sont prononcés par d'autres, et beaucoup de gens peuvent encore penser que ces opinions sont alarmistes. Mais lorsque Geoffrey Hinton, l'expert le plus autorisé dans le domaine de l'intelligence artificielle au monde et le fondateur de l'apprentissage en profondeur, démissionne de Google et avertit le monde, cela incitera plus de gens à réfléchir sérieusement et à prêter attention à cette question.

   Il est entendu que certains investisseurs et chercheurs en IA ont republié l'interview de Geoffrey Hinton, appelant les universités, l'industrie et les régulateurs gouvernementaux à agir rapidement pour formuler un cadre réglementaire et des réglementations dès que possible alors que la technologie actuelle est toujours dans la plage contrôlable. etc.

   Les régulateurs, les législateurs et les dirigeants de l'industrie technologique ont exprimé à plusieurs reprises leur inquiétude face au développement de l'intelligence artificielle ces derniers mois. Plus de 2 600 cadres et chercheurs de la technologie ont signé une lettre ouverte appelant à un moratoire sur le développement de l'IA, citant "des risques profonds pour la société et l'humanité". Douze législateurs européens ont signé une lettre similaire en avril, un récent projet de loi de l'UE classe les outils d'IA en fonction de leur niveau de risque et le Royaume-Uni a alloué 125 millions de dollars pour soutenir un groupe de travail chargé de développer une "intelligence artificielle sûre".

Résumer

   À l'heure actuelle, les géants de la technologie semblent plus préoccupés par la manière de rendre l'IA de plus en plus puissante, plutôt que par la manière dont elle peut s'adapter à la société et à l'environnement. Face aux nouveaux progrès de l'intelligence artificielle, le modèle de gouvernance actuel et les mesures de gouvernance n'ont pas suivi. Si une IA plus puissante est introduite à ce moment, elle est susceptible d'apporter des dangers cachés plus graves.

   Par conséquent, les gens ne devraient pas intensifier rapidement la recherche sur l'IA jusqu'à ce qu'ils en sachent suffisamment pour la contrôler, et il est également important d'établir un mécanisme crédible, ouvert et transparent pour garantir que l'IA est correctement réglementée et contrôlée pour réaliser son potentiel et atténuer ses effets négatifs. .

Je suppose que tu aimes

Origine blog.csdn.net/LinkFocus/article/details/130465196
conseillé
Classement