El desafío moral de la IA

La inteligencia artificial (IA) es casi omnipresente, y la mayoría de los aspectos de nuestras vidas han sido penetrados por ellos, desde lo que decidimos leer, qué vuelo reservar, qué comprar en línea, si la solicitud de empleo es exitosa, si recibimos un préstamo bancario e incluso cómo tratar. Cáncer, etc. Todas estas cosas ahora se pueden determinar automáticamente mediante un complejo sistema de software. Con el impactante progreso que la IA ha logrado en los últimos años, puede ayudar a mejorar nuestras vidas de muchas maneras.
Escriba la descripción de la imagen aquí
En los últimos dos años, el auge de la IA ha sido imparable. Se ha invertido mucho dinero en nuevas empresas de inteligencia artificial y muchas empresas de tecnología establecidas (incluidos gigantes como Amazon, Microsoft y Facebook) han abierto nuevos laboratorios de investigación. No es exagerado decir que software ahora significa IA. Algunas personas predicen que la IA está a punto de producir grandes cambios y su influencia incluso supera a Internet.

Hemos preguntado a muchos expertos técnicos sobre el impacto de innumerables máquinas brillantes en los humanos en este mundo que cambia rápidamente. Vale la pena señalar que casi todas las respuestas se centran en la ética. Para Peter Norvig, director de investigación de Google y pionero del aprendizaje automático, la tecnología de inteligencia artificial basada en datos ha logrado recientemente muchos éxitos. La pregunta clave es descubrir cómo garantizar que estos nuevos sistemas puedan mejorar la sociedad en su conjunto, no solo el control Su cuerpo principal. Novig dijo: "La IA ha demostrado su valor en muchas tareas prácticas, desde marcar imágenes, comprender el lenguaje hasta ayudar a diagnosticar enfermedades, etc. El desafío ahora es garantizar que todos puedan beneficiarse de esta tecnología".

El mayor problema es que la complejidad del software a menudo significa que es casi imposible explicar con precisión por qué el sistema de inteligencia artificial toma esa decisión. La IA actual se basa principalmente en una tecnología exitosa llamada aprendizaje automático, pero no se puede levantar la tapa y ver su escena de trabajo interna. Por eso, solo podemos optar por creerlo. El desafío también sigue, es decir, necesitamos encontrar nuevos métodos de monitoreo y auditoría en muchas áreas, especialmente en áreas donde la IA juega un papel importante.
Escriba la descripción de la imagen aquí
Para Jonathan Zittrain, profesor de derecho de Internet en la Facultad de Derecho de Harvard, uno de los mayores peligros es que los sistemas informáticos cada vez más complejos pueden impedir que reciban el escrutinio necesario. Dijo: "Con la ayuda de la tecnología, nuestro sistema se ha vuelto cada vez más complejo. Estoy muy preocupado por la reducción de la autonomía humana. Si configuramos el sistema y luego lo olvidamos, la autoevolución del sistema traerá consigo Las consecuencias pueden estar fuera de nuestro alcance. No hay una consideración moral clara para esto ".

Aquí es donde se preocupan otros expertos técnicos. Missy Cummings, directora del Laboratorio de Autonomía y Humanos de la Universidad de Duke en los Estados Unidos, preguntó: "¿Cómo podemos demostrar que estos sistemas son seguros?" Cummings fue la primera mujer piloto de combate en la Marina de los Estados Unidos y ahora es Experto en drones.

La IA necesita regulación, pero todavía no sabemos cómo regularla. Cummings dijo: "En la actualidad, no tenemos un método generalmente aceptado o estándares de la industria para probar estos sistemas. Es muy difícil para estas tecnologías implementar una supervisión extensa". En un mundo que cambia rápidamente, los reguladores a menudo Me encontré perdido por esto. En muchas áreas clave, como el sistema de justicia penal y el campo médico, muchas empresas han utilizado la inteligencia artificial para explorar intentos de tomar decisiones sobre la libertad condicional o el diagnóstico de enfermedades. Pero si le damos el poder de decisión a la máquina, podemos perder el control ¿Quién puede garantizar que la máquina pueda tomar la decisión correcta en cada caso?

Danah Boyd, investigador principal de Microsoft Research, dijo que se están escribiendo muchas preguntas serias sobre los valores en estos sistemas de IA. ¿Quién será el responsable al final? Boyd dijo: "Los reguladores, la sociedad civil y los teóricos sociales están cada vez más ansiosos por ver que estas tecnologías mantienen la equidad y la ética, pero estos conceptos son muy vagos".
Escriba la descripción de la imagen aquí
Un área llena de problemas éticos es el lugar de trabajo. La IA ayudará a los robots a realizar tareas más complejas y dará lugar a la sustitución de más trabajadores humanos. Por ejemplo, Foxconn de China planea reemplazar 60.000 trabajadores con robots. La fábrica de Ford en Colonia, Alemania, también ha invertido en robots para coordinar el trabajo con los trabajadores humanos.

Más importante aún, si cada vez más automatización ha tenido un gran impacto en el empleo, también tendrá un impacto negativo en la salud mental de las personas. Ezekiel Emanuel, bioético y ex asesor médico del presidente Obama, dijo: “Si piensas en las cosas que hacen que la vida de las personas sea significativa, encontrarás tres cosas: Relaciones interpersonales significativas, intereses fuertes y trabajo significativo. El trabajo significativo es un factor importante para definir la vida de una persona. En algunas áreas, perder un trabajo cuando una fábrica cierra puede llevar al suicidio, al abuso de drogas y al riesgo de depresión incrementar."

Como resultado, es posible que necesitemos ver necesidades más éticas. Kate Darling, experta en derecho y ética en el Instituto de Tecnología de Massachusetts, cree: "La empresa está siguiendo el mecanismo de incentivos del mercado. Esto no es algo malo, pero no podemos confiar solo en la ética para controlarlo. Ayuda a la supervisión En su lugar, hemos visto su existencia en las áreas de privacidad y nuevas tecnologías, y necesitamos encontrar una manera de lidiar con eso ".

Darling señaló que muchas empresas de renombre (como Google) han establecido comités de ética para supervisar el desarrollo y la implementación de la IA. Algunas personas creen que este mecanismo debería adoptarse ampliamente. Darling dijo: "No queremos reprimir la innovación, pero a cierto nivel, es posible que queramos crear una cierta estructura".

Se sabe poco sobre quién puede ser elegido para el Comité de Ética de Google y qué puede hacer. Pero en septiembre de 2016, Facebook, Google y Amazon formaron una organización conjunta con el objetivo de encontrar soluciones a las amenazas de seguridad y privacidad que plantea la IA. OpenAI es una organización similar que tiene como objetivo desarrollar y promover la IA de código abierto que pueda beneficiar a todos. Novig de Google dijo: "La tecnología de aprendizaje automático se investiga públicamente y se difunde a través de publicaciones abiertas y código fuente abierto. Es muy importante que podamos compartir todas las recompensas".
Si podemos establecer estándares de la industria y estándares éticos, y comprender completamente la existencia de la IA Riesgos, y luego establecer un mecanismo regulador con éticos, expertos técnicos y líderes empresariales como núcleo es muy importante. Esta es la mejor forma de utilizar la IA para el bienestar humano. Strand dijo: "Nuestro trabajo es reducir las preocupaciones de la gente acerca de que los robots se apoderen del mundo en las películas de ciencia ficción y prestar más atención a cómo se puede utilizar la tecnología para ayudar a los humanos a pensar y tomar decisiones, en lugar de reemplazarla por completo".

Supongo que te gusta

Origin blog.csdn.net/jessiaflora/article/details/78777643
Recomendado
Clasificación