Нарушение: Хинтон, отец глубокого обучения, ушел из Google, чтобы предупредить о рисках ИИ!

cddb0cfaf93a8752e43fdb538db2fc05.png

6cb2f4e5202dbede08ab7d23a668c281.png

c0adc363f1a245467178d002413e58bc.png




‍Средства инновационных услуг индустрии интеллектуального анализа данных

—— Сосредоточьтесь на цифровом интеллекте и измените бизнес


Сегодня произошло знаковое событие в сфере ИИ. То есть Хинтон уволился из Google, который проработал 10 лет, чтобы иметь возможность более свободно выражать свои опасения по поводу вышедшего из-под контроля ИИ.Видно, что он действительно глубоко переживает кризис.

Не так давно статья-интервью в New York Times сообщила об уходе Хинтона из Google, а позже он подтвердил эту новость в Твиттере. Сообщается, что Хинтон предложил уйти в отставку в апреле и поговорил напрямую с генеральным директором Google Сундаром Пичаи в четверг.

Я считаю, что генеральный директор Google определенно сделает все возможное, чтобы удержать его, ведь, столкнувшись с сильной конкуренцией со стороны OpenAI и Microsoft, Google теперь сталкивается с большим врагом, и ему нужны такие люди, как Хинтон, чтобы помочь ему быстро наверстать упущенное.

93082a0621e79c03c15ec4c90c7d2f66.png

Но в конце концов Хинтон ушел из Google, что свидетельствует о его решимости.

Отец глубокого обучения обеспокоен тем, что его «ребенок» угрожает существованию человечества

Более важным, чем то, почему он ушел, является то, почему он ушел.

Хинтон четко обозначил причину своего ухода: «В сегодняшней газете New York Times Кадметс предположил, что я ушел из Google, чтобы критиковать Google. На самом деле я ушел, чтобы говорить об опасностях Эла, не задумываясь о вреде для Google. очень ответственно».

e6fac9c411996a4667778e431b1905d0.png

Другими словами, самая важная причина, по которой Хинтон решительно ушел из Google, заключалась в том, чтобы более свободно говорить о рисках ИИ.

Отношение к ИИ можно разделить на две отдельные фракции: одна фракция приветствует прогресс ИИ, как будто ИИ является спасителем человечества, а другая фракция очень обеспокоена тем, что ИИ выйдет из-под контроля и серьезно угрожает выживанию человечества. существа.

Понятно, что Хинтон постепенно превратился в теоретика угроз ИИ.

Итак, когда так много людей предупреждают о рисках, связанных с ИИ, почему мнение одного только Хинтона так важно? Ведь с точки зрения популярности он определенно не так хорош, как Маск, еще один теоретик угроз ИИ.

Потому что Хинтон — отец глубокого обучения, а без глубокого обучения сегодня не было бы ChatGPT. В какой-то степени, если ИИ действительно будет угрожать безопасности человечества в будущем, то Хинтон, несомненно, будет первым, кто откроет «ящик Пандоры».

 Работа Хинтона сыграла ключевую роль в развитии глубокого обучения и нейронных сетей.Некоторые из его ключевых концепций и структур, таких как обратное распространение, сети глубокого убеждения и ограниченные машины Больцмана, заложили основу для разработки текущих больших моделей.Основа.

Обратное распространение — это алгоритм обучения нейронных сетей, оптимизирующий веса путем вычисления градиента целевой функции. Этот метод сейчас широко используется в крупномасштабных моделях глубокого обучения, таких как OpenAI GPT-4.

Сети глубокого доверия и ограниченные машины Больцмана — это архитектуры глубокого обучения, разработанные Хинтоном, которые обеспечивают теоретическую основу для более поздних моделей глубокого обучения, таких как сверточные нейронные сети (CNN) и сети с долговременной кратковременной памятью (LSTM).

Работа Хинтона по неконтролируемому обучению, в том числе его вклад в глубокие автоэнкодеры и генеративно-состязательные сети (GAN), предоставила новые стратегии обучения и генеративной разработки для разработки больших моделей.

Работа Хинтона не только способствовала развитию больших моделей в теории, но и способствовала этому на практике. На самом деле главный научный сотрудник OpenAI Илья Суцкевер является учеником Хинтона.

Конечно, он лучше всех знает о своем «ребенке». Теперь, когда Хинтон предупредил об опасностях ИИ, к этому следует отнестись серьезно.

Это напоминает мне другое разрушительное оружие, изобретенное человечеством, — атомную бомбу.

В Манхэттенском проекте в США есть две ключевые фигуры — Эйнштейн и Оппенгеймер.

В самом начале Эйнштейн был важным пропагандистом программы США по созданию атомной бомбы, он даже писал тогдашнему президенту США Рузвельту, призывая США разработать атомную бомбу как можно скорее. Однако позже Эйнштейн очень сожалел об этом: «Мое самое большое чувство сейчас — это сожаление, сожаление о том, что я не написал это письмо президенту Рузвельту в начале... В то время я хотел убрать атомную бомбу. , преступное орудие убийства, у Безумного Гитлера вырвал его из его руки. Не могу теперь думать о том, чтобы отправить его другому сумасшедшему».

По сравнению с Эйнштейном роль Оппенгеймера как отца атомной бомбы более очевидна. Но годы спустя Оппенгеймер тоже пожалел об этом. Оппенгеймер сказал, что наблюдение за испытательным взрывом напомнило ему строчку из индийской Бхагавад-гиты: «Теперь я смерть, разрушитель миров».

Кеннет Бейнбридж, еще один физик, руководивший первым ядерным испытанием, сформулировал это чуть более лаконично: «Теперь мы все сукины дети».

Теперь такое же замечание сделал другой «отец», что должно пробудить повышенную бдительность.

Следует отметить, что опасения Хинтона по поводу ИИ не то чтобы незначительны, а очень серьезны. У него тяжелое сердце и необычная настойчивость. Однажды он сказал: «Я сожалею о работе всей своей жизни. если бы не сделал этого, был бы кто-то другой».

Это звучит немного пугающе.

Судя по разным признакам, большая модель, представленная ChatGPT, имеет определенную степень разумности. Если мы продолжим бесконтрольно бежать по этой дороге, люди действительно могут стать свидетелями пробуждения сознания ИИ в течение нескольких десятилетий.

Далее давайте обсудим, как предотвратить выход ИИ из-под контроля или, по крайней мере, снизить связанные с ним риски.

Выгравировать любовь к людям в «гене» ИИ

У людей и даже у всего животного мира материнская любовь является особенно ярко выраженной биологической характеристикой. Любовь матери к своему ребенку заложена генетически, примитивна и универсальна. Подавляющее большинство матерей инстинктивно питают бескорыстную любовь к своим детям и даже жертвуют жизнью ради них.

Итак, есть ли способ заставить систему ИИ иметь такой же биологический инстинкт, как материнская любовь к человеку? Другими словами, закрепление любви к людям в «гене» системы ИИ становится характерной чертой любой интеллектуальной системы.

Исаак Азимов предложил «Три закона робототехники» в своем научно-фантастическом романе, который является примером ограничений поведения роботов. Эти законы гласят, что роботы должны защищать людей, подчиняться людям и защищать себя.

Для достижения этой цели системы ИИ должны быть специально разработаны на уровне алгоритмов.

Здесь необходимо упомянуть метод жестко закодированных правил.

Прежде всего, людям необходимо определить набор основных этических принципов, которые должны отражать основные ценности человека, такие как уважение жизни, уважение свободы, обеспечение справедливости и т. д. Эти принципы будут служить основным руководством для поведение систем ИИ.

На основе основных этических принципов нам необходимо определить некоторые конкретные правила поведения, чтобы прояснить, как системы ИИ должны вести себя в конкретных сценариях. Эти правила должны максимально охватывать все возможные ситуации, чтобы системы ИИ могли соответствовать нашим ожиданиям в практических приложениях.

В реальном мире могут возникать конфликты между различными принципами и правилами. Нам необходимо установить четкие приоритеты и компромиссы для систем ИИ, чтобы гарантировать, что при столкновении с такими конфликтами системы смогут принимать решения, соответствующие человеческим ценностям.

После установления полного набора правил нам нужно записать некоторые основные ценности и модели поведения непосредственно в исходный код системы ИИ в виде жестко закодированных правил, чтобы гарантировать, что при любых обстоятельствах система будет следовать этим установить правила.

При обучении системы ИИ мы должны убедиться, что обучающие данные и функция вознаграждения соответствуют нашим правилам и принципам. Этого можно достичь путем фильтрации обучающих данных и разработки соответствующей функции вознаграждения. Например, если ИИ ведет себя с нарушением правил, то следует давать отрицательное вознаграждение.

Даже если система ИИ правильно спроектирована и обучена, ее все равно необходимо регулярно проверять и контролировать, чтобы гарантировать, что ее поведение остается в рамках правил. Этого можно достичь с помощью таких методов, как ведение журнала, оценка производительности и онлайн-мониторинг.

Следует отметить, что хотя вышеперечисленные методы могут обеспечить определенную степень защиты, на текущем уровне технологий мы не можем полностью гарантировать, что система ИИ не сможет пробить жестко запрограммированные правила.

Некоторые продвинутые системы ИИ могут иметь возможности самообучения и самосовершенствования.Возможности самообучения и самосовершенствования продвинутых систем ИИ в основном исходят из их алгоритмов обучения, особенно алгоритмов обучения с подкреплением и глубокого обучения. Алгоритмы обучения обычно оптимизируются для производительности, а не для правил. Следовательно, если система ИИ увидит, что нарушение правил ведет к повышению производительности, она может решить нарушить правила.

Таким образом, уход Хинтона из Google знаменует собой конец эпохи, а также обнажает некоторые вызовы и проблемы, стоящие перед областью ИИ, наиболее важной из которых является риск выхода ИИ из-под контроля. Хинтон давно беспокоит этот вопрос, утверждая, что если ИИ будет развиваться слишком быстро, вне нашего понимания и контроля, это может иметь непредсказуемые последствия.

Однако, пока риск реален, мы не бездействуем. У нас есть ряд методов и приемов, позволяющих гарантировать, что ИИ остается под контролем человека, включая введение правил при проектировании и обучении систем ИИ, использование объяснимых моделей и регулирование поведения ИИ с помощью законов и политик. Хотя эти методы имеют свои преимущества и недостатки, все они могут обеспечить нам определенную степень защиты.

В будущем нам нужно уделять больше внимания этическим и социальным последствиям ИИ при разработке технологий ИИ. Нам нужен ИИ, чтобы служить людям, а не становиться нашими хозяевами. Мы можем извлечь уроки из некоторых принципов биологии, таких как кодирование принципа «любви к людям» в «ген» ИИ, чтобы ИИ мог соблюдать наши правила и принципы, стремясь к производительности. Таким образом, мы можем создать мощный, но доброжелательный ИИ, который помогает нам решать сложные проблемы и улучшает качество нашей жизни, а не становится для нас угрозой.

В конце концов, нам нужно оставаться скромными и благоговейными, и нам нужно продолжать учиться и проводить исследования, чтобы лучше понимать и контролировать ИИ. Это не только техническая задача, но и этическая и социальная. Мы верим, что если мы будем работать вместе, мы сможем создать будущее ИИ, которое будет безопасным и полезным.

Текст: Мисти Рейн  /  Дата Обезьяна

01477e64ff6559d569c56a16daaf9f3f.jpeg

d8cec089897141971faa164784e3f415.png

85c72313b64cb53d0c054b706b7d8d56.png

b3a157d6eb18a4a11531932ed2bb1778.png

Supongo que te gusta

Origin blog.csdn.net/YMPzUELX3AIAp7Q/article/details/130468835
Recomendado
Clasificación