Traducción: Bill Gates Los riesgos de la IA son reales pero manejables

El mundo ha aprendido mucho sobre cómo lidiar con los problemas que plantean las innovaciones revolucionarias.

Los riesgos que plantea la inteligencia artificial parecen abrumadores. ¿Qué les sucede a las personas que pierden sus trabajos debido a las máquinas inteligentes? ¿La inteligencia artificial afectará los resultados electorales? ¿Qué pasa si la futura inteligencia artificial decide que los humanos ya no son necesarios y quiere deshacerse de nosotros?

Estos son problemas justos y las preocupaciones que plantean deben tomarse en serio. Pero hay una buena razón para pensar que podemos lidiar con ellos: esta no es la primera vez que una innovación importante presenta nuevas amenazas que deben ser contenidas. Lo hemos hecho antes.

Ya sea con la introducción del automóvil o el surgimiento de la computadora personal e Internet, las personas pasaron por otros momentos transformadores que terminaron siendo mejores a pesar de la gran confusión. Poco después de que los primeros autos salieran a la carretera, ocurrieron los primeros choques. Pero no prohibimos los autos: adoptamos límites de velocidad, estándares de seguridad, requisitos de licencia, leyes sobre la conducción bajo los efectos del alcohol y otras reglas viales.

Ahora estamos en las primeras etapas de otra transformación profunda, la era de la inteligencia artificial. Es similar a esos tiempos inciertos antes de los límites de velocidad y los cinturones de seguridad. La IA está cambiando tan rápido que no está claro qué vendrá después. Nos enfrentamos a grandes preguntas sobre cómo funciona la tecnología actual, las formas en que las personas la usan con fines maliciosos y cómo la inteligencia artificial cambiará la forma en que trabajamos como sociedad y como individuos.

En momentos como estos, es natural sentirse incómodo. Pero la historia demuestra que es posible afrontar los retos que plantean las nuevas tecnologías.

He escrito antes sobre cómo la inteligencia artificial revolucionará nuestras vidas. Ayudará a resolver problemas que en el pasado parecían intratables, en salud, educación, cambio climático y más. La Fundación Gates está haciendo de esto una prioridad, y nuestro CEO Mark Suzman compartió recientemente cómo ve su papel en la reducción de la desigualdad.

Tendré más que decir en el futuro sobre los beneficios de la IA, pero en esta publicación quiero reconocer las preocupaciones que escucho y leo con más frecuencia, muchas de las cuales tengo, y explicar cómo las percibo.

Una cosa que queda clara de todo lo que se ha escrito sobre los riesgos de la IA hasta ahora, y se ha escrito mucho, es que nadie tiene todas las respuestas. Otra cosa que tengo clara es que el futuro de la inteligencia artificial no es tan sombrío como algunos piensan, ni tan halagüeño como otros piensan. Los riesgos son reales, pero soy optimista de que se pueden controlar. A medida que presente cada tema, volveré a varios temas:

Muchos de los problemas que plantea la inteligencia artificial tienen precedentes históricos. Tendrá un gran impacto en la educación, por ejemplo, pero también lo han tenido las calculadoras portátiles hace décadas y, más recientemente, permitir que las computadoras ingresen a las aulas. Podemos aprender de lo que ha funcionado en el pasado.
Muchos problemas causados ​​por la inteligencia artificial también se pueden manejar con la ayuda de la inteligencia artificial.
Necesitamos adaptar las leyes antiguas y adoptar otras nuevas, al igual que las leyes antifraude existentes deben adaptarse al mundo en línea.
En este artículo, me centraré en los riesgos existentes o inminentes. No me refiero a lo que sucede cuando desarrollamos una IA que puede aprender cualquier tema o tarea, a diferencia de la IA dedicada de hoy. Ya sea que lleguemos a este punto en una década o en un siglo, la sociedad necesita pensar en cuestiones profundas. ¿Qué pasaría si una súper IA construyera sus propios objetivos? ¿Qué pasa si entran en conflicto con los humanos? ¿Deberíamos incluso construir una inteligencia superinteligente?

Sin embargo, la consideración de estos riesgos a largo plazo no debe realizarse a expensas de riesgos más inmediatos. Voy a hablar de ellos ahora.

1. Las falsificaciones y la desinformación generadas por IA podrían socavar las elecciones y las democracias.

La idea de que la tecnología se puede utilizar para difundir mentiras y falsedades no es nueva. La gente ha estado haciendo esto con libros y folletos durante siglos. Se hizo más fácil con la llegada de los procesadores de texto, las impresoras láser, el correo electrónico y las redes sociales.

La inteligencia artificial ha tomado el problema del texto falso y lo ha ampliado para permitir que casi cualquier persona cree audio y video falsos, conocidos como deepfakes. Si recibe un mensaje de voz que suena como si su hijo dijera "Me han secuestrado, envíe $ 1,000 a esta cuenta bancaria en el próximo minuto, no llame a la policía", tendrá un impacto emocional terrible, mucho más que el efecto de un correo electrónico diciendo lo mismo.

A mayor escala, las falsificaciones profundas generadas por IA podrían usarse para tratar de sesgar las elecciones. Por supuesto, no se necesita tecnología sofisticada para sembrar dudas sobre el ganador legítimo de una elección, pero la IA lo hará más fácil.

Ya hay videos falsos con imágenes fabricadas de políticos conocidos. Imagine que en la mañana de una elección importante, un video que muestra a uno de los candidatos robando un banco se vuelve viral. Es falso, pero los medios de comunicación y la campaña tardarán horas en probarlo. ¿Cuántas personas lo verán y cambiarán su voto en el último minuto? Podría cambiar las cosas, especialmente en una elección reñida.

Cuando el cofundador de OpenAI, Sam Altman, testificó recientemente ante un comité del Senado de EE. UU., los senadores de ambos partidos se centraron en el impacto de AI en las elecciones y la democracia. Espero que este tema siga estando en la agenda de todos.

Ciertamente no hemos resuelto el problema de la desinformación y las falsificaciones profundas. Pero dos cosas me hacen cautelosamente optimista. Una es que la gente puede aprender a no dar todo por sentado. Durante años, los usuarios de correo electrónico han caído en una estafa en la que alguien que se hace pasar por un príncipe de Níger promete una gran recompensa a cambio de compartir su número de tarjeta de crédito. Pero eventualmente, la mayoría de las personas aprenden a verificar dos veces estos correos electrónicos. A medida que las estafas se han vuelto más sofisticadas, también lo han hecho muchos de sus objetivos. Necesitamos construir los mismos músculos para los deepfakes.

Otra cosa que me da esperanzas es que la inteligencia artificial pueda ayudar a identificar falsificaciones profundas y crearlas. Por ejemplo, Intel ha desarrollado un detector de falsificación profunda y la agencia gubernamental DARPA está trabajando en tecnología para identificar si se ha manipulado el video o el audio.

Será un proceso circular: alguien encuentra una forma de detectar falsificaciones, alguien descubre cómo contrarrestarlo, alguien desarrolla una contramedida, etc. No será un éxito perfecto, pero tampoco seremos indefensos.

2. La IA facilita el lanzamiento de ataques contra personas y gobiernos.

Hoy en día, cuando los piratas informáticos quieren encontrar fallas explotables en el software, lo hacen por la fuerza bruta: escriben código para eliminar posibles debilidades hasta que encuentran la manera. Implica muchos callejones sin salida, lo que significa que requiere tiempo y paciencia.

Los profesionales de la seguridad que quieran luchar contra los piratas informáticos deben hacer lo mismo. Cada parche de software que instala en su teléfono o computadora portátil representa horas de búsqueda, tanto por personas buenas como malas.

Los modelos de IA acelerarán este proceso al ayudar a los piratas informáticos a escribir un código más eficiente. También pueden usar información pública sobre individuos, como dónde trabajan y quiénes son sus amigos, para desarrollar ataques de phishing que son mucho más avanzados que los que vemos hoy.

La buena noticia es que la IA se puede usar tanto para bien como para mal. Los equipos de seguridad del gobierno y del sector privado deben contar con las herramientas más recientes para encontrar y solucionar los agujeros de seguridad antes de que los delincuentes puedan explotarlos. Espero que la industria de la seguridad del software amplíe el trabajo que ya está haciendo en esta área; esta debería ser su principal preocupación.

Esta es también la razón por la que no debemos tratar de evitar temporalmente que las personas implementen nuevos desarrollos en inteligencia artificial, como algunos han propuesto. Los ciberdelincuentes no dejan de fabricar nuevas herramientas. Tampoco lo haría cualquiera que quiera usar IA para diseñar armas nucleares y ataques bioterroristas. Los esfuerzos para detener estas prácticas deben continuar al mismo ritmo.

Existe un riesgo relacionado a nivel global: una carrera armamentista en inteligencia artificial que podría usarse para diseñar y lanzar ataques cibernéticos contra otros estados. Todo gobierno quiere tener la tecnología más poderosa para poder frustrar los ataques de sus adversarios. Este incentivo para permitir que nadie tenga éxito podría impulsar una carrera para crear armas cibernéticas cada vez más peligrosas. Todos empeoran.

Es una idea aterradora, pero tenemos la historia para guiarnos. A pesar de todas sus deficiencias, el régimen mundial de no proliferación nuclear ha evitado la guerra nuclear total que mi generación creció temiendo tanto. Los gobiernos deberían considerar la creación de una agencia global de IA similar a la Agencia Internacional de Energía Atómica.

3. AI tomará trabajos de personas.

En los próximos años, el principal impacto de la IA en el trabajo será ayudar a las personas a hacer su trabajo de manera más eficiente. Esto es cierto ya sea que estén en la fábrica o en la oficina manejando llamadas de ventas y cuentas por pagar. Eventualmente, la IA será lo suficientemente buena para expresar ideas que podrá escribir correos electrónicos y administrar su bandeja de entrada por usted. Podrá escribir solicitudes en inglés sencillo o en cualquier otro idioma y generar presentaciones ricas sobre su trabajo.

Como dije en mi publicación de febrero, cuando aumenta la productividad, es bueno para la sociedad. Les da a las personas más tiempo para hacer otras cosas en el trabajo y en el hogar. La necesidad de personas que ayuden a los demás, como la enseñanza, el cuidado de los enfermos y el apoyo a los ancianos, nunca desaparecerá. Pero es cierto que algunos trabajadores necesitarán apoyo y capacitación a medida que hacemos la transición a un lugar de trabajo impulsado por la IA. Ese es el papel de los gobiernos y las empresas, y deben administrarlo para que los trabajadores no se queden atrás, para evitar el tipo de interrupción en la vida de las personas durante la pérdida de empleos en la industria manufacturera de EE. UU.

Además, tenga en cuenta que esta no es la primera vez que las nuevas tecnologías provocan cambios importantes en el mercado laboral. No creo que el impacto de la IA sea tan grande como el de la Revolución Industrial, pero sin duda será tan grande como la introducción de la PC. Las aplicaciones de procesamiento de textos no eliminaron el trabajo de oficina, pero lo cambiaron para siempre. Los empleadores y los empleados tuvieron que adaptarse, y lo hicieron. La transformación causada por la IA será accidentada, pero hay muchas razones para pensar que podemos reducir la interrupción de la vida y los medios de subsistencia de las personas.

4. La IA hereda nuestros prejuicios e inventa cosas.

Las alucinaciones, el término para que una IA haga afirmaciones con confianza que son fundamentalmente incorrectas, generalmente ocurren porque la máquina no comprende el contexto de su solicitud. Pídele a una IA que escriba una historia corta sobre unas vacaciones en la luna y podría darte una respuesta muy imaginativa. Pero pídele que te ayude a planificar tu viaje a Tanzania, podría intentar enviarte a un hotel que no existe.

Otro riesgo de la IA es que refleja o incluso exacerba los prejuicios existentes contra las personas de ciertas identidades de género, razas, etnias, etc.

Para comprender por qué ocurren las alucinaciones y los sesgos, es importante saber cómo funcionan los modelos de IA más comunes en la actualidad. Básicamente, son versiones de código muy complejas que permiten que su aplicación de correo electrónico prediga la siguiente palabra que escribirá: escanean grandes cantidades de texto (en algunos casos, casi todo lo que está disponible en línea) y analizan para encontrar patrones en lenguaje humano.

Cuando le haces una pregunta a la IA, mira las palabras que usas y luego busca fragmentos de texto que generalmente están asociados con esas palabras. Si escribes "lista de ingredientes para panqueques", podría notar que las palabras "harina, azúcar, sal, levadura en polvo, leche y huevos" aparecen con frecuencia en la oración. Luego, en base a lo que sabe sobre el orden en que suelen aparecer esas palabras, genera una respuesta. (Los modelos de IA que funcionan de esta manera usan los llamados transformadores. GPT-4 es uno de esos modelos.

Este proceso explica por qué la IA puede experimentar alucinaciones o parecer parcial. No tiene contexto para las preguntas que haces o las cosas que le dices. Si le dices a una persona que cometió un error, podría decir: "Lo siento, cometí un error tipográfico. Pero eso es una ilusión: no escribió nada. Solo dijo, porque escaneó suficiente texto, sepa que "Lo siento, Hice un error tipográfico" es una oración que la gente suele escribir después de que alguien la corrige.

Del mismo modo, los modelos de IA heredan cualquier sesgo presente en el texto en el que fueron entrenados. Si uno lee mucho sobre médicos y el texto menciona principalmente a médicos varones, su respuesta asumirá que la mayoría de los médicos son hombres.

Mientras que algunos investigadores argumentan que las alucinaciones son un problema inherente, no estoy de acuerdo. Soy optimista de que, con el tiempo, se puede enseñar a los modelos de IA a distinguir la realidad de la ficción. Por ejemplo, OpenAI está haciendo un trabajo prometedor en esta área.

Otras organizaciones, incluido el Instituto Alan Turing y el Instituto Nacional de Estándares y Tecnología, están trabajando en el tema del sesgo. Un enfoque es construir valores humanos y razonamiento de alto nivel en la IA. Es similar a cómo funciona una persona consciente de sí misma: tal vez pienses que la mayoría de los médicos son hombres, pero eres lo suficientemente consciente de esa suposición como para saber que tienes que luchar contra ella conscientemente. La IA puede funcionar de manera similar, especialmente si los modelos están diseñados por personas de diferentes orígenes.

Al final, todos los que usan IA deben ser conscientes del problema del sesgo y ser un usuario informado. El artículo que le pides a una IA que redacte puede estar sesgado porque está lleno de errores fácticos. Debe verificar los sesgos de su IA, así como los suyos.

5. Los estudiantes no aprenderán a escribir porque la IA hará el trabajo por ellos.

A muchos profesores les preocupa que la IA interrumpa su trabajo con los estudiantes. En una era en la que cualquier persona con acceso a Internet puede usar la inteligencia artificial para escribir un primer borrador respetable de una disertación, ¿qué impide que un estudiante la entregue como propia?

Ya existen herramientas de IA que están aprendiendo a saber si algo fue escrito por un humano o una computadora, para que los maestros puedan saber cuándo sus alumnos no están haciendo su trabajo. Pero algunos maestros no están tratando de disuadir a sus alumnos de usar IA en su escritura, en realidad lo están alentando.

En enero, una maestra de inglés veterana llamada Cherie Shields escribió un artículo en Education Week sobre cómo usa ChatGPT en su salón de clases. Ayuda a sus alumnos con todo, desde comenzar un trabajo hasta escribir un esquema e incluso brindarles comentarios sobre su trabajo.

"Los maestros tendrán que adoptar la tecnología de inteligencia artificial como otra herramienta disponible para los estudiantes", escribió. "Así como una vez les enseñamos a los estudiantes cómo hacer una buena búsqueda en Google, los maestros deben diseñar lecciones claras sobre cómo los bots de ChatGPT pueden ayudar con la redacción de ensayos. Reconocer la existencia de la IA y ayudar a los estudiantes a usarla podría revolucionar la forma en que enseñamos. No todos los días Todos los maestros tienen tiempo para aprender y usar nuevas herramientas, pero los educadores como Cherie Shields argumentan que aquellos que lo hagan se beneficiarán inmensamente.

Esto me recuerda los días en que las calculadoras electrónicas se volvieron comunes en las décadas de 1970 y 1980. A algunos profesores de matemáticas les preocupa que los estudiantes dejen de aprender a hacer aritmética básica, pero otros adoptan la nueva tecnología y se enfocan en las habilidades de pensamiento detrás de la aritmética.

Hay otra forma en que la IA puede ayudar a escribir y al pensamiento crítico. Especialmente en estos primeros días, cuando las alucinaciones y los prejuicios siguen siendo un problema, los educadores pueden hacer que la IA genere ensayos y luego los verifique con los estudiantes. Las organizaciones educativas sin fines de lucro como Khan Academy y Open Educational Resources Project, que yo financio, brindan a los maestros y estudiantes herramientas en línea gratuitas que ponen un gran énfasis en las afirmaciones de las pruebas. Pocas habilidades son más importantes que saber distinguir lo que es real de lo que no lo es.

Realmente necesitamos asegurarnos de que el software educativo ayude a cerrar la brecha de logros, no a empeorarla. El software actual está dirigido principalmente a estudiantes ya motivados. Puede crear un plan de estudio para usted, indicarle buenos recursos y evaluar su conocimiento. Pero aún no sabe cómo atraerlo hacia un tema que aún no le interesa. Esto es algo que los desarrolladores deben abordar para que todos los tipos de estudiantes puedan beneficiarse de la IA.

6. ¿Qué sigue?

Creo que hay más razones para no ser optimistas de que podemos gestionar los riesgos de la IA mientras maximizamos sus beneficios. Pero tenemos que actuar rápido.

Los gobiernos deben desarrollar experiencia en IA para que puedan desarrollar leyes y regulaciones sensatas para hacer frente a esta nueva tecnología. Deben lidiar con la desinformación y las falsificaciones profundas, las amenazas a la seguridad, los cambios en el mercado laboral y el impacto en la educación. Solo un ejemplo: la ley debe aclarar qué usos de las falsificaciones profundas son legales y cómo se deben marcar las falsificaciones profundas para que todos entiendan cuándo lo que ven o escuchan no es real.

Los líderes políticos deben poder entablar un diálogo informado y reflexivo con sus electores. También deben decidir cuánto cooperar con otros países en estos temas, en lugar de hacerlo solos.

En el sector privado, las empresas de IA deben trabajar de manera segura y responsable. Esto incluye proteger la privacidad de las personas, garantizar que sus modelos de IA reflejen los valores humanos fundamentales, minimizar los sesgos, distribuir los beneficios a tantas personas como sea posible y evitar que la tecnología sea utilizada por delincuentes o terroristas. Las empresas de muchos sectores de la economía deberán ayudar a los empleados a hacer la transición a lugares de trabajo centrados en la IA para que nadie se quede atrás. Los clientes siempre deben saber cuándo interactúan con la IA en lugar de con los humanos.

Finalmente, animo a todos a prestar la mayor atención posible al desarrollo de la inteligencia artificial. Esta es la innovación más transformadora que cualquiera de nosotros verá en su vida, y un debate público saludable dependerá de que todos comprendan la tecnología, sus beneficios y riesgos. Los beneficios serán enormes y la mejor razón para creer que podemos gestionar el riesgo es que lo hemos hecho antes.

referencia

  • Los riesgos de la IA son reales pero manejables
  • https://www.gatesnotes.com/The-risks-of-AI-are-real-but-manageable?WT.mc_id=2023071060000_AI-Concerns_BG-EM_&WT.tsrc=BGEM

Supongo que te gusta

Origin blog.csdn.net/zgpeace/article/details/131927851
Recomendado
Clasificación