Ética de la IA Capítulo 1: Introducción

El capítulo proporciona una breve descripción de la estructura y lógica del libro indicando el contenido de los casos tratados en cada sección. Concluye identificando el concepto de ética utilizado en este libro y cómo se ubica en la discusión más amplia sobre la ética, los derechos humanos y la regulación de la IA.

Uno de los grandes problemas que podrían enfrentar la ética y los especialistas en ética de la IA es la opacidad de lo que realmente sucede en la IA, dado que una buena comprensión de una actividad en sí es muy útil para determinar sus cuestiones éticas. Por lo tanto, existe la expectativa de que los especialistas en ética de la IA estén familiarizados con la tecnología, pero nadie sabe realmente cómo los algoritmos más avanzados hacen lo que hacen, incluidos los propios desarrolladores de IA.

A pesar de esta opacidad de la IA en sus formas actuales, es importante reflexionar y discutir qué cuestiones éticas pueden surgir debido a su desarrollo y uso. El enfoque de la ética de la IA que hemos elegido aquí es utilizar estudios de casos. Este enfoque nos permitirá ilustrar los principales desafíos éticos de la IA, a menudo en referencia a los derechos humanos.

Los estudios de casos son un método probado para aumentar el conocimiento de conceptos teóricos ilustrándolos a través de situaciones del mundo real. También aumentan la participación de los estudiantes y mejoran la experiencia de aprendizaje y, por lo tanto, son muy adecuados para la enseñanza. Por lo tanto, hemos elegido el método de estudio de caso para este libro. Seleccionamos las cuestiones éticas más significativas o pertinentes que se discuten actualmente en el contexto de la IA y dedicamos un capítulo a cada una de ellas.

La estructura de cada capítulo es la siguiente. Primero, presentamos breves viñetas de casos de la vida real para brindar una visión general de una cuestión ética particular. En segundo lugar, presentamos una evaluación narrativa de las viñetas y el contexto más amplio. En tercer lugar, sugerimos formas en que se podrían abordar estas cuestiones éticas. Esto suele tomar la forma de una visión general de las herramientas disponibles para reducir los riesgos éticos del caso particular.

A continuación presentamos una breve descripción de los casos:

Discriminación injusta e ilegal (capítulo 2)

La primera viñeta trata sobre la preselección automatizada de candidatos a puestos de trabajo mediante una herramienta de inteligencia artificial entrenada con currículums de los diez años anteriores . A pesar de los esfuerzos para abordar las dificultades iniciales relacionadas con el prejuicio de género, la empresa finalmente abandonó el enfoque porque no era compatible con su compromiso con la diversidad e igualdad en el lugar de trabajo.

La segunda viñeta describe cómo se le negó la libertad condicional a un preso con un historial de rehabilitación modelo basado en las predicciones de riesgo para la sociedad de un sistema de inteligencia artificial . Quedó claro que las opiniones personales subjetivas expresadas por los guardias penitenciarios, que pueden haber sido influenciados por prejuicios raciales, conducían a una puntuación de riesgo excesivamente alta.

La tercera viñeta cuenta la historia de un estudiante de ingeniería de ascendencia asiática cuya foto de pasaporte fue rechazada por los sistemas del gobierno de Nueva Zelanda porque supuestamente tenía los ojos cerrados. Se trataba de un error basado en el origen étnico en el reconocimiento de fotografías de pasaporte.

Privacidad (Capítulo 3)

La primera viñeta trata sobre el sistema chino de puntuación de crédito social , que utiliza una gran cantidad de puntos de datos para calcular una puntuación de confiabilidad de los ciudadanos . Las puntuaciones altas conducen a la asignación de beneficios, mientras que las puntuaciones bajas pueden dar lugar a la retirada de servicios.

La segunda viñeta cubre el Programa Saudita del Genoma Humano , con beneficios previstos en forma de avances médicos versus preocupaciones sobre la privacidad genética .

Capitalismo de vigilancia (capítulo 4)

La primera viñeta trata sobre la recopilación de fotografías de servicios como Instagram, LinkedIn y YouTube en contravención de lo que los usuarios de estos servicios probablemente esperaban o habían aceptado. La importante empresa de software de inteligencia artificial, que se especializa en software de reconocimiento facial , posee supuestamente diez mil millones de imágenes faciales de todo el mundo.

La segunda viñeta trata sobre una filtración de datos de un proveedor de servicios de seguimiento de la salud , que puso a disposición del público los datos de salud de 61 millones de personas.

La tercera viñeta resume los procedimientos judiciales italianos contra Facebook por engañar a sus usuarios al no explicarles de manera oportuna y adecuada, durante la activación de su cuenta, que los datos se recopilarían con fines comerciales.

Manipulación (Cap. 5)

La primera viñeta cubre el escándalo de Facebook y Cambridge Analytica , que permitió a Cambridge Analytica recolectar 50 millones de perfiles de Facebook, permitiendo la entrega de mensajes personalizados a los titulares de los perfiles y un análisis más amplio del comportamiento de los votantes en el período previo a las elecciones presidenciales de EE. UU. de 2016. y el referéndum sobre el Brexit ese mismo año.

La segunda viñeta muestra cómo se utiliza la investigación para presentar productos comerciales a compradores potenciales en momentos vulnerables específicamente determinados , por ejemplo, productos de belleza que se promocionan en momentos en que los destinatarios de los anuncios en línea probablemente se sientan menos atractivos.

Derecho a la vida, a la libertad y a la seguridad de la persona (Cap. 6)

La primera viñeta trata sobre el conocido accidente de un automóvil autónomo Tesla , que mata a la persona que estaba dentro.

La segunda viñeta resume las vulnerabilidades de seguridad de los centros domésticos inteligentes , que pueden provocar ataques de intermediario, un tipo de ciberataque en el que la seguridad de un sistema se ve comprometida, lo que permite a un atacante espiar información confidencial.

La tercera viñeta trata sobre los ataques adversarios en el diagnóstico médico , en los que un sistema entrenado por IA podría ser engañado en casi un 70% con imágenes falsas.

Dignidad (Cap. 7)

La primera viñeta describe el caso de un empleado que fue despedido injustamente y escoltado fuera de las instalaciones de su empresa por guardias de seguridad, con implicaciones para su dignidad. La decisión de despido se basó en una toma de decisiones opaca mediante una herramienta de inteligencia artificial, comunicada por un sistema automático.

La segunda viñeta cubre los robots sexuales , en particular si son una afrenta a la dignidad de las mujeres y las niñas.

De manera similar, la tercera viñeta se pregunta si los robots asistenciales son una afrenta a la dignidad de las personas mayores.

AI for Good y los Objetivos de Desarrollo Sostenible de la ONU (Cap. 8)

La primera viñeta muestra cómo el pronóstico climático estacional (SCF) en entornos con recursos limitados ha llevado a la negación de créditos a agricultores pobres en Zimbabwe y Brasil y a acelerar el despido de trabajadores en la industria pesquera en Perú.

La segunda viñeta trata sobre un equipo de investigación de un país de altos ingresos que solicita grandes cantidades de datos de teléfonos móviles a usuarios de Sierra Leona, Guinea y Liberia para rastrear los movimientos de población durante la crisis del Ébola . Los comentaristas argumentaron que el tiempo dedicado a negociar la solicitud con estructuras de gobierno que carecían de recursos debería haberse utilizado para manejar la escalada de la crisis del ébola.

Y no debe perderse el capítulo final (Cap. 9).


Un enfoque predominante de la ética de la IA es el desarrollo de directrices, la mayoría de las cuales se basan en principios éticos de nivel medio que normalmente se desarrollan a partir de los principios de la ética biomédica. Este es también el enfoque adoptado por el Grupo de Expertos de Alto Nivel (HLEG) de la Unión Europea sobre IA. La intervención del AI HLEG ha sido influyente, ya que ha tenido un gran impacto en el debate en Europa. Sin embargo, ha habido importantes críticas al enfoque de la ética de la IA basado en principios y directrices éticos.Una preocupación clave es que permanece lejos de la aplicación y no explica cómo se puede poner en práctica la ética de la IA. Con el enfoque basado en estudios de casos presentado en este libro, pretendemos superar este punto de crítica, mejorar la reflexión ética y demostrar posibles intervenciones prácticas.

En general, la IA es un ejemplo de una tecnología actual y en desarrollo dinámico. Por lo tanto, una pregunta importante es si podemos seguir reflexionando y aprender algo del debate sobre la ética de la IA que pueda aplicarse a las generaciones futuras de tecnologías para garantizar que la humanidad se beneficie del progreso y el desarrollo tecnológico y tenga formas de abordar las desventajas de la tecnología .

Supongo que te gusta

Origin blog.csdn.net/ycy1300585044/article/details/132723114
Recomendado
Clasificación