Перевод: Билл Гейтс Риски ИИ реальны, но управляемы

Мир многому научился, как решать проблемы, связанные с прорывными инновациями.

Риски, связанные с ИИ, кажутся огромными. Что происходит с людьми, потерявшими работу из-за умных машин? Повлияет ли искусственный интеллект на результаты выборов? Что, если будущий искусственный интеллект решит, что люди больше не нужны, и захочет от нас избавиться?

Это справедливые вопросы, и к вызываемым ими опасениям следует относиться серьезно. Но есть веская причина думать, что мы можем с ними справиться: это не первый раз, когда крупные инновации создают новые угрозы, которые необходимо сдерживать. Мы делали это раньше.

Будь то появление автомобиля или распространение персональных компьютеров и Интернета, люди пережили и другие преобразующие моменты, которые в конечном итоге стали лучше, несмотря на множество потрясений. Вскоре после того, как первые автомобили выехали на дороги, произошли первые аварии. Но мы не запрещали автомобили — мы ввели ограничения скорости, стандарты безопасности, лицензионные требования, законы о вождении в нетрезвом виде и другие правила дорожного движения.

Сейчас мы находимся на самых ранних стадиях другой глубокой трансформации — эпохи искусственного интеллекта. Это похоже на те неопределенные времена до ограничений скорости и ремней безопасности. ИИ меняется так быстро, что непонятно, что будет дальше. Мы сталкиваемся с серьезными вопросами о том, как работают современные технологии, как люди используют их в злонамеренных целях и как искусственный интеллект изменит то, как мы работаем как общество и как отдельные люди.

В такие моменты естественно чувствовать себя неловко. Но история показывает, что можно решить проблемы, связанные с новыми технологиями.

Я уже писал ранее о том, как искусственный интеллект изменит нашу жизнь. Это поможет решить проблемы, которые в прошлом казались неразрешимыми, — в области здравоохранения, образования, изменения климата и т. д. Фонд Гейтса делает это приоритетом, и наш генеральный директор Марк Сузман недавно поделился тем, как он видит его роль в сокращении неравенства.

В будущем у меня будет больше информации о преимуществах ИИ, но в этом посте я хочу отметить опасения, о которых я слышу и читаю чаще всего, многие из которых у меня есть, и объяснить, как я их воспринимаю.

Одна вещь, которая очевидна из всего того, что было написано о рисках ИИ до сих пор — а было написано много — это то, что ни у кого нет ответов на все вопросы. Еще одна вещь, которая мне ясна, заключается в том, что будущее искусственного интеллекта не такое мрачное, как думают одни, и не такое радужное, как думают другие. Риски реальны, но я уверен, что ими можно управлять. Представляя каждый выпуск, я вернусь к нескольким темам:

Многие проблемы, поднятые искусственным интеллектом, имеют исторические прецеденты. Например, это окажет большое влияние на образование, но то же самое произошло и с карманными калькуляторами несколько десятилетий назад, а в последнее время — с появлением компьютеров в классах. Мы можем учиться на том, что работало в прошлом.
Многие проблемы, вызванные искусственным интеллектом, также можно решить с помощью искусственного интеллекта.
Нам нужно адаптировать старые законы и принять новые, так же как существующие законы о борьбе с мошенничеством должны быть адаптированы к онлайн-миру.
В этой статье я сосредоточусь на существующих или неизбежных рисках. Я не имею в виду, что происходит, когда мы разрабатываем ИИ, который может изучить любой предмет или задачу, в отличие от сегодняшнего специализированного ИИ. Дойдем ли мы до этого момента через десятилетие или столетие, обществу необходимо задуматься над глубокими вопросами. Что, если бы суперИИ строил свои собственные цели? Что, если они конфликтуют с людьми? Должны ли мы вообще строить сверхразумный интеллект?

Однако рассмотрение этих долгосрочных рисков не должно происходить за счет более непосредственных рисков. Я собираюсь поговорить о них сейчас.

1. Генерируемые ИИ дипфейки и дезинформация могут подорвать выборы и демократию.

Идея о том, что технологии можно использовать для распространения лжи и лжи, не нова. Люди делали это с книгами и листовками на протяжении веков. Это стало проще с появлением текстовых процессоров, лазерных принтеров, электронной почты и социальных сетей.

Искусственный интеллект взял проблему поддельного текста и расширил ее, чтобы позволить почти любому создавать поддельные аудио и видео, известные как дипфейки. Если вы получите голосовое сообщение, которое звучит так, как будто ваш ребенок говорит: «Меня похитили, пожалуйста, переведите 1000 долларов на этот банковский счет в течение следующей минуты, не звоните в полицию», это окажет ужасное эмоциональное воздействие, гораздо более эффект электронного письма, в котором говорится то же самое.

В более широком масштабе дипфейки, созданные искусственным интеллектом, могут быть использованы для искажения результатов выборов. Конечно, сложные технологии не нужны, чтобы посеять сомнения в законном победителе выборов, но ИИ облегчит эту задачу.

Уже есть фейковые видеоролики с сфабрикованными кадрами известных политиков. Представьте себе, что утром перед крупными выборами видео, на котором один из кандидатов грабит банк, становится вирусным. Это фейк, но средствам массовой информации и кампании потребуются часы, чтобы доказать это. Сколько людей увидят это и изменят свой голос в последнюю минуту? Это может изменить ситуацию, особенно на близких выборах.

Когда соучредитель OpenAI Сэм Альтман недавно свидетельствовал перед комитетом Сената США, сенаторы от обеих партий сосредоточились на влиянии ИИ на выборы и демократию. Я надеюсь, что эта тема и дальше будет у всех на повестке дня.

Мы, конечно, не решили проблему дезинформации и дипфейков. Но две вещи внушают мне осторожный оптимизм. Во-первых, люди могут научиться не принимать все как должное. В течение многих лет пользователи электронной почты попадались на удочку, когда кто-то, выдавая себя за принца Нигера, обещает огромное вознаграждение в обмен на предоставление номера вашей кредитной карты. Но со временем большинство людей учатся читать эти электронные письма обоими глазами. По мере того, как мошенничество становилось все более изощренным, менялись и многие его цели. Нам нужно накачать такие же мускулы для дипфейков.

Еще одна вещь, которая вселяет в меня надежду, это то, что искусственный интеллект может помочь идентифицировать дипфейки и создавать их. Например, Intel разработала детектор дипфейков, а государственное агентство DARPA работает над технологией, позволяющей определить, были ли манипуляции с видео или аудио.

Это будет циклический процесс: кто-то находит способ обнаружить фейки, кто-то придумывает, как им противостоять, кто-то разрабатывает меры противодействия и так далее. Это не будет идеальным успехом, но и мы не будем беспомощными.

2. ИИ упрощает атаки на людей и правительства.

Сегодня, когда хакеры хотят найти уязвимые места в программном обеспечении, они делают это грубой силой — пишут код для устранения потенциальных уязвимостей, пока не найдут способ. Он включает в себя множество тупиков, а значит, требует времени и терпения.

Специалисты по безопасности, которые хотят бороться с хакерами, должны делать то же самое. Каждое программное исправление, которое вы устанавливаете на свой телефон или ноутбук, представляет собой часы поисков как хороших, так и плохих людей.

Модели ИИ ускорят этот процесс, помогая хакерам писать более эффективный код. Они также могут использовать общедоступную информацию о людях, например о том, где они работают и кто их друзья, для разработки фишинговых атак, которые гораздо более совершенны, чем те, которые мы наблюдаем сегодня.

Хорошая новость заключается в том, что ИИ можно использовать как во благо, так и во вред. Команды безопасности в правительстве и частном секторе должны иметь новейшие инструменты для поиска и устранения брешей в безопасности, прежде чем преступники смогут ими воспользоваться. Я надеюсь, что индустрия безопасности программного обеспечения расширит работу, которую они уже делают в этой области — это должно быть их главной заботой.

Вот почему мы не должны пытаться временно мешать людям внедрять новые разработки в области искусственного интеллекта, как это предлагают некоторые. Киберпреступники не перестанут создавать новые инструменты. Как и любой, кто хочет использовать ИИ для разработки ядерного оружия и биотеррористических атак. Усилия по прекращению этой практики должны продолжаться в том же темпе.

Существует связанный с этим риск на глобальном уровне: гонка вооружений в области искусственного интеллекта, который может быть использован для разработки и проведения кибератак против других государств. Каждое правительство хочет иметь самую мощную технологию, чтобы отражать атаки своих противников. Этот стимул не позволять никому добиваться успеха может подстегнуть гонку по созданию все более опасного кибероружия. Всем становится хуже.

Это пугающая идея, но у нас есть история, которая направляет нас. При всех своих недостатках мировой режим нераспространения ядерного оружия предотвратил полномасштабную ядерную войну, которой так боялось мое поколение в детстве. Правительствам следует рассмотреть возможность создания глобального агентства по искусственному интеллекту, аналогичного Международному агентству по атомной энергии.

3. ИИ заберет рабочие места у людей.

В течение следующих нескольких лет основное влияние ИИ на работу будет заключаться в том, чтобы помогать людям выполнять свою работу более эффективно. Это верно независимо от того, работают ли они на заводе или в офисе, обрабатывая звонки по продажам и кредиторскую задолженность. В конце концов, ИИ будет достаточно хорошо выражать идеи, чтобы писать электронные письма и управлять вашим почтовым ящиком вместо вас. Вы сможете писать запросы на простом английском или любом другом языке и создавать насыщенные презентации о своей работе.

Как я сказал в своем февральском посте, когда производительность растет, это хорошо для общества. Это дает людям больше времени для других дел на работе и дома. Потребность в людях, которые помогают другим — например, в обучении, уходе за больными и поддержке пожилых людей, — никогда не исчезнет. Но это правда, что некоторым работникам потребуется поддержка и переобучение, когда мы перейдем на рабочее место, управляемое ИИ. Это роль правительств и бизнеса, и они должны управлять ею, чтобы работники не остались позади — чтобы избежать нарушения жизни людей во время потери рабочих мест в обрабатывающей промышленности США.

Кроме того, имейте в виду, что это не первый раз, когда новые технологии вызывают серьезные сдвиги на рынке труда. Я не думаю, что влияние ИИ будет таким же большим, как промышленная революция, но оно определенно будет таким же большим, как появление ПК. Приложения для обработки текстов не устранили офисную работу, но изменили ее навсегда. Работодатели и работники должны были адаптироваться, и они это сделали. Преобразование, вызванное ИИ, будет ухабистым, но есть все основания полагать, что мы можем уменьшить разрушение жизни и средств к существованию людей.

4. ИИ наследует наши предубеждения и выдумывает.

Галлюцинации — термин, которым ИИ уверенно делает утверждения, которые в корне неверны, — обычно возникают из-за того, что машина не понимает контекста вашего запроса. Попросите ИИ написать короткий рассказ об отпуске на Луне, и он может дать вам очень творческий ответ. Но попросите его помочь вам спланировать поездку в Танзанию, он может попытаться отправить вас в несуществующий отель.

Еще один риск ИИ заключается в том, что он отражает или даже усугубляет существующие предубеждения против людей определенной гендерной идентичности, расы, этнической принадлежности и т. д.

Чтобы понять, почему возникают галлюцинации и искажения, важно знать, как сегодня работают наиболее распространенные модели ИИ. По сути, это очень сложные версии кода, которые позволяют вашему почтовому приложению предугадывать следующее слово, которое вы наберете: они сканируют большие объемы текста (в некоторых случаях почти все, что доступно в Интернете) и анализируют, чтобы найти закономерности в человеческом языке.

Когда вы задаете вопрос ИИ, он смотрит на слова, которые вы используете, а затем ищет фрагменты текста, которые обычно связаны с этими словами. Если вы напишете «список ингредиентов для блинов», он может заметить, что в предложении часто встречаются слова «мука, сахар, соль, разрыхлитель, молоко и яйца». Затем, основываясь на том, что он знает о порядке, в котором эти слова обычно появляются, он генерирует ответ. (В моделях ИИ, которые работают таким образом, используются так называемые трансформаторы. GPT-4 — одна из таких моделей.

Этот процесс объясняет, почему ИИ может испытывать галлюцинации или казаться предвзятым. У него нет контекста для вопросов, которые вы задаете, или того, что вы ему говорите. Если вы скажете человеку, что он сделал ошибку, он может сказать: «Извините, я сделал опечатку. Но это иллюзия — он ничего не печатал. Я сделал опечатку» — это предложение, которое люди часто пишут после того, как кто-то их исправляет.

Точно так же модели ИИ наследуют любые предубеждения, присутствующие в тексте, на котором они обучались. Если много читать о врачах и в тексте в основном упоминаются врачи-мужчины, то в ответе предполагается, что большинство врачей — мужчины.

Хотя некоторые исследователи утверждают, что галлюцинации — неотъемлемая проблема, я с этим не согласен. Я оптимистично смотрю на то, что со временем модели ИИ можно будет научить отличать факты от вымысла. Например, OpenAI ведет многообещающую работу в этой области.

Другие организации, в том числе Институт Алана Тьюринга и Национальный институт стандартов и технологий, работают над проблемой предвзятости. Один из подходов заключается в том, чтобы встроить в ИИ человеческие ценности и рассуждения более высокого уровня. Это похоже на то, как работает человек с самосознанием: может быть, вы думаете, что большинство врачей — мужчины, но вы достаточно осведомлены об этом предположении, чтобы понимать, что вам нужно сознательно бороться с ним. ИИ может работать аналогичным образом, особенно если модели разработаны людьми из разных слоев общества.

В конце концов, каждый, кто использует ИИ, должен знать о проблеме предвзятости и быть информированным пользователем. Статья, которую вы просите написать ИИ, может быть предвзятой, потому что она полна фактических ошибок. Вам нужно проверить предвзятость вашего ИИ, а также свои собственные.

5. Студенты не научатся писать, потому что ИИ сделает всю работу за них.

Многие учителя опасаются, что ИИ нарушит их работу со студентами. В эпоху, когда любой, у кого есть доступ к Интернету, может использовать ИИ для написания респектабельного первого черновика диссертации, что может помешать студенту сдать его как свой собственный?

Уже существуют инструменты ИИ, которые учатся определять, было ли что-то написано человеком или компьютером, поэтому учителя могут определить, когда их ученики не выполняют свою работу. Но некоторые учителя не пытаются отговорить своих учеников от использования ИИ в своих письмах — они на самом деле поощряют его.

В январе ветеран английского языка по имени Чери Шилдс написала статью в Education Week о том, как она использует ChatGPT в своем классе. Это помогает ее ученикам во всем: от написания статьи до написания плана и даже дает им отзыв об их работе.

«Учителям придется использовать технологию искусственного интеллекта как еще один инструмент, доступный учащимся», — написала она. "Подобно тому, как мы когда-то учили студентов, как правильно выполнять поиск в Google, учителя должны разработать четкие уроки о том, как боты ChatGPT могут помочь в написании эссе. Признание существования ИИ и помощь учащимся в его использовании может революционизировать то, как мы преподаем. Не каждый день У каждого учителя есть время, чтобы изучить и использовать новые инструменты, но такие педагоги, как Чери Шилдс, приводят хороший аргумент в пользу того, что те, кто это сделает, получат огромную пользу.

Это напоминает мне о днях, когда электронные калькуляторы стали обычным явлением в 1970-х и 1980-х годах. Некоторые учителя математики опасаются, что ученики перестанут учиться выполнять базовые арифметические действия, но другие принимают новые технологии и сосредотачиваются на мыслительных навыках, лежащих в основе арифметики.

Есть еще один способ, которым ИИ может помочь в написании и критическом мышлении. Особенно в эти первые дни, когда галлюцинации и предвзятость все еще являются проблемой, преподаватели могут создавать эссе с помощью ИИ, а затем проверять их со студентами. Образовательные некоммерческие организации, такие как Khan Academy и Open Educational Resources Project, которые я финансирую, предоставляют учителям и учащимся бесплатные онлайн-инструменты, в которых большое внимание уделяется тестовым утверждениям. Немногие навыки важнее, чем умение отличить настоящее от ложного.

Нам действительно нужно убедиться, что образовательное программное обеспечение помогает сократить разрыв в достижениях, а не усугубляет его. Сегодняшнее программное обеспечение в первую очередь ориентировано на уже мотивированных студентов. Он может составить для вас план обучения, указать на хорошие ресурсы и проверить ваши знания. Но оно еще не знает, как втянуть вас в предмет, который вас еще не интересует. Это то, что разработчики должны решить, чтобы все типы студентов могли извлечь выгоду из ИИ.

6. Что дальше?

Я считаю, что есть больше причин не быть оптимистичными в отношении того, что мы можем управлять рисками ИИ, максимизируя его преимущества. Но нам нужно действовать быстро.

Правительствам необходимо развивать опыт в области ИИ, чтобы они могли разработать разумные законы и правила для работы с этой новой технологией. Им нужно бороться с дезинформацией и дипфейками, угрозами безопасности, изменениями на рынке труда и влиянием на образование. Только один пример: закон должен разъяснить, какое использование дипфейков является законным и как следует помечать дипфейки, чтобы все понимали, когда то, что они видят или слышат, не соответствует действительности.

Политические лидеры должны иметь возможность участвовать в информированном, вдумчивом диалоге со своими избирателями. Им также необходимо решить, насколько сотрудничать с другими странами по этим вопросам, а не действовать в одиночку.

В частном секторе ИИ-компании должны работать безопасно и ответственно. Это включает в себя защиту конфиденциальности людей, обеспечение того, чтобы их модели ИИ отражали фундаментальные человеческие ценности, минимизацию предвзятости, распространение преимуществ среди как можно большего числа людей и предотвращение использования технологии преступниками или террористами. Компании во многих секторах экономики должны будут помочь сотрудникам перейти на рабочие места, ориентированные на ИИ, чтобы никто не остался без внимания. Клиенты всегда должны знать, когда они взаимодействуют с ИИ, а не с людьми.

Наконец, я призываю всех уделять как можно больше внимания развитию искусственного интеллекта. Это самая преобразующая инновация, которую любой из нас когда-либо видел в своей жизни, и здоровые общественные дебаты будут зависеть от того, все ли понимают эту технологию, ее преимущества и риски. Выгоды будут огромными, и лучшая причина полагать, что мы можем управлять рисками, заключается в том, что мы делали это раньше.

ссылка

  • Риски ИИ реальны, но управляемы
  • https://www.gatesnotes.com/The-risks-of-AI-are-real-but-management?WT.mc_id=2023071060000_AI-Concerns_BG-EM_&WT.tsrc=BGEM

рекомендация

отblog.csdn.net/zgpeace/article/details/131927851
рекомендация