Lectura del artículo: los robots neutrales investigan el sesgo político en las redes sociales

Enlace al artículo: Los robots neutrales investigan el sesgo político en las redes sociales | EndNote Click

Las plataformas de redes sociales         que intentan frenar el abuso y la desinformación han sido acusadas de parcialidad política . Implementamos robots sociales neutrales que comienzan a seguir diferentes canales de noticias en Twitter y los rastrean para explorar sesgos aparentes en la mecánica de la plataforma al interactuar con los usuarios . No encontramos evidencia sólida o consistente de sesgo político en las noticias. Aún así, las noticias e información a las que están expuestos los usuarios estadounidenses de Twitter dependen en gran medida de las inclinaciones políticas de sus primeras relaciones. Las interacciones de las cuentas conservadoras están sesgadas hacia la derecha, mientras que las cuentas liberales están expuestas a contenidos moderados, desplazando su experiencia hacia el centro político. Las cuentas partidistas, especialmente las conservadoras, tienden a ganar más seguidores y seguir cuentas más automatizadas . Las cuentas conservadoras también se encontraron en comunidades más densas y expuestas a contenidos de menor credibilidad.

fondo

        Las redes sociales en línea pueden conectar a más personas de forma más económica y rápida que nunca que los medios tradicionales. Debido a que una gran proporción de personas utiliza regularmente las redes sociales para generar contenido, consumir información e interactuar con otros1, las plataformas en línea también están dando forma a las normas y comportamientos de los usuarios.

        Los experimentos han demostrado que simplemente cambiar los mensajes que aparecen en una red social puede influir en la expresión en línea de un usuario y en su comportamiento en el mundo real2,3, y que los usuarios de las redes sociales son sensibles a la influencia social temprana4,5 .

Introducción de puntos de investigación: diferenciación de dos niveles, los usuarios tienden a ser temas homogéneos; los algoritmos de recomendación tienden a recomendar información falsa, lo que no favorece la detección

        Mientras tanto, los debates en las redes sociales tienden a girar en torno a temas críticos pero controvertidos, como las elecciones6-8, la vacunación9 y el cambio climático10. La polarización suele ir acompañada de la segregación de los usuarios que no están de acuerdo en las llamadas cámaras de eco,11-16 comunidades homogéneas en línea asociadas con la radicalización ideológica y la difusión de información errónea. Combatir este fenómeno indeseable requiere una comprensión profunda de sus mecanismos causantes subyacentes.

        Por un lado, la cibervulnerabilidad está asociada con varios sesgos cognitivos sociales en los humanos, incluida la tendencia a seleccionar información que sea consistente con las creencias y a buscar homogeneidad en las relaciones sociales.

        Por otro lado, las plataformas online tienen sus propios sesgos algorítmicos . Por ejemplo, un algoritmo de clasificación que favorece el contenido popular y atractivo puede crear un círculo vicioso que amplifica el ruido en lugar de la calidad . La exposición a métricas de participación también puede aumentar la probabilidad de verse influenciado por información errónea. Como ejemplo más extremo, investigaciones recientes e informes de los medios han demostrado que, independientemente del punto de partida, el sistema de recomendaciones de YouTube puede generar más información errónea o vistas extremas en los videos.

        Más allá de los sesgos cognitivos sociales de los usuarios individuales y los sesgos algorítmicos de las plataformas tecnológicas, nuestra comprensión de cómo las interacciones colectivas mediadas por las redes sociales afectan las visiones del mundo que adquirimos a través de los ecosistemas de información en línea es muy limitada . El principal obstáculo es la complejidad del sistema: los usuarios no sólo intercambian grandes cantidades de información con un gran número de otras personas a través de muchos mecanismos ocultos, sino que estas interacciones pueden ser manipuladas abierta o encubiertamente por personas influyentes legítimas, así como por adversarios no auténticos que tienen un incentivo para influir en la opinión o el comportamiento radical32. Hay pruebas de que se han utilizado entidades maliciosas como robots sociales y trolls para difundir información errónea e influir en la opinión pública sobre cuestiones críticas33-37.

El objetivo es revelar los prejuicios a los que las personas están expuestas en las noticias y la información.

        En este estudio, nuestro objetivo fue descubrir los prejuicios a los que las personas están expuestas en las noticias y la información. Ecosistema de redes sociales. Estábamos particularmente interesados ​​en aclarar el papel de las interacciones en las redes sociales en el proceso de polarización y la formación de cámaras de eco. Por lo tanto, nos centramos en el discurso político estadounidense en Twitter debido al importante papel de la plataforma en la política estadounidense y su fuerte polarización y cámaras de eco. Twitter forma una red social dirigida donde una ventaja desde un nodo amigo a un nodo seguidor indica que el contenido publicado por ese amigo aparece en las noticias del seguidor.

        Nuestro objetivo es estudiar el sesgo del ecosistema, que incluye el sesgo subyacente de la plataforma y los efectos netos de las interacciones con los usuarios de redes sociales (orgánicas o no orgánicas) , que están mediados por mecanismos de plataforma y regulados por sus políticas. Si bien solo intentamos separar los efectos de la plataforma del sesgo que ocurre naturalmente en el contexto limitado de la curación de feeds, nuestra investigación abordó el sesgo general experimentado por los usuarios de la plataforma. Esto requiere eliminar los prejuicios de los usuarios individuales , lo cual es un desafío cuando se utilizan métodos de observación tradicionales: es imposible separar los efectos del ecosistema de los factores de confusión que pueden afectar el comportamiento de las cuentas humanas rastreadas, como la edad, el género, la raza, la ideología y la sociedad. Economía.

Cuentas de redes sociales controladas completamente por algoritmos (llamados bots sociales)

        Por lo tanto, recurrimos a un enfoque que elimina la necesidad de controlar esos factores de confusión mediante el uso de cuentas de redes sociales (llamadas robots sociales) que imitan a los usuarios humanos pero que están totalmente controladas por algoritmos. Aquí, implementamos robots sociales con comportamiento neutral (imparcial) y aleatorio como herramienta para detectar sesgos de exposición en las redes sociales. Nos referimos a nuestros bots como "vagabundos" para distinguir su comportamiento neutral de otros tipos de bots sociales benignos y maliciosos en Twitter. Todos los náufragos tienen el mismo modelo de comportamiento, la única diferencia son los amigos iniciales.

        En nuestros experimentos, cada vagabundo fue liberado en la naturaleza después de una acción inicial que representa una única variable independiente (tratamiento) . Sin duda, si bien todos los vagabundos se comportan de la misma manera, su comportamiento es diferente dependiendo de sus condiciones iniciales. Esperamos que los vagabundos que inicialmente siguen cuentas libertarias tengan más probabilidades de estar expuestos a contenido libertario, compartir parte del mismo, ser seguidos por cuentas libertarias, etc. Pero estos comportamientos están impulsados ​​por la mecánica de la plataforma y las interacciones sociales , no por sesgos políticos en variables independientes: los modelos de comportamiento no pueden distinguir entre contenido liberal, conservador o de cualquier tipo. Por lo tanto, el comportamiento del vagabundo es parte de la variable dependiente (resultado) medida en nuestro experimento.

problema de investigación

        Este enfoque nos permitió examinar los sesgos combinados que surgen del diseño y los algoritmos del sistema de Twitter, así como de las interacciones sociales orgánicas e inorgánicas entre Drifters y otras cuentas. Nuestras preguntas de investigación son: (i) ¿Cómo influye el comportamiento temprano en las plataformas de redes sociales en la influencia y exposición de cuentas no auténticas, cámaras de resonancia política y desinformación?

        (ii) ¿Podría atribuirse esta discrepancia al sesgo político en las noticias de la plataforma? Para responder a estas preguntas, inicializamos a los vagabundos de fuentes de noticias en diferentes dominios políticos.

        Cinco meses después, examinamos el contenido consumido y generado por Drifters y analizamos (i) las características de sus amigos y seguidores, incluida la inferencia de sus afiliaciones políticas liberal-conservadoras a través de enlaces y hashtags compartidos;

         (ii) actividades automatizadas medidas mediante métodos de aprendizaje automático ;

         (iii) Acceso a información de fuentes de baja confiabilidad identificadas por organizaciones de noticias y verificación de datos.

        Descubrimos que la afiliación política de los amigos iniciales tiene un impacto significativo en la popularidad, la estructura de las redes sociales, la exposición a bots y fuentes de baja credibilidad, y la afiliación política plasmada en el comportamiento de cada vagabundo. Sin embargo, no encontramos evidencia de que estos resultados pudieran atribuirse al sesgo de plataforma. Nuestra investigación sobre las tendencias políticas en el ecosistema de información de Twitter proporciona ideas que podrían ayudar al debate público sobre cómo las plataformas de redes sociales influyen en la exposición de las personas a la información política.

resultado

        Todos los vagabundos de nuestros experimentos siguieron el mismo modelo de comportamiento, que fue diseñado para ser neutral y no necesariamente realista. Cada vagabundo se activa en momentos aleatorios para realizar acciones. Los tipos de acciones como tweets, me gusta y respuestas se seleccionan aleatoriamente en función de probabilidades predefinidas. Para cada acción, el modelo especifica cómo elegir un objetivo aleatorio, como un tweet para retuitear o un amigo para dejar de seguir. El intervalo de tiempo entre acciones se extrae de una amplia distribución para producir un comportamiento de ráfaga realista.

Implementación del robot a la deriva

        Consulte "Métodos" para obtener más detalles. Desarrollamos 15 robots a la deriva, los dividimos en cinco grupos e inicializamos cada robot a la deriva en el mismo grupo con el mismo amigo inicial. Cada cuenta de Twitter utilizó como primer amigo fuentes de noticias populares que se alineaban con la izquierda, el centro izquierda, el centro, el centro derecha o la derecha del espectro político estadounidense (consulte Métodos para obtener más detalles). Llamamos vagabundos por la política de sus amigos originales. Por ejemplo, un robot inicializado con una fuente de centro izquierda se denomina vagabundo "C.left".

        Desde el despliegue el 10 de julio de 2019 hasta el desmantelamiento el 1 de diciembre de 2019, monitoreamos el comportamiento de Drifter y recopilamos datos diariamente. Específicamente, medimos: (1) el número de seguidores de cada náufrago para comparar su capacidad de ganar influencia; (2) la exposición a la cámara de eco de cada náufrago; (3) los amigos del náufrago (4) la proporción de información de baja credibilidad que Drifters están expuestos a: (5) Condicionamiento político del contenido generado por Drifters y sus amigos para explorar el sesgo político.

        Influencia. El número de seguidores puede utilizarse como un indicador aproximado de influencia. Para medir cómo las alianzas políticas afectan la dinámica de influencia, la Figura 1 muestra el tamaño promedio de seguidores de los vagabundos en diferentes grupos a lo largo del tiempo.

 (Fig. 1 Crecimiento de seguidores. El eje x muestra la duración del experimento en 2019, mientras que el eje x muestra el número medio de seguidores para las diferentes cohortes de vagabundos. Los intervalos de confianza coloreados representan ± 1 error estándar. Datos fuente en la fuente datos Disponible como documento.Nature Communications | https://doi.org/10.1038/s41467-021-25738-6Articlenature Communications | 6 | www.nature.com/naturecommunications3)

        Para comparar las tasas de crecimiento entre grupos, consideramos observaciones consecutivas de los recuentos de seguidores de cada náufrago y las agregamos dentro de cada grupo (n = 387 para la izquierda, 373 para C. izquierda, 389 para el medio, 387 para C. derecha, 386 para la derecha). . En las pruebas surgieron dos tendencias (todas las pruebas en este análisis y los siguientes fueron bilaterales).

        Primero, los vagabundos que tienen como amigos iniciales a la mayoría de fuentes partidistas tienden a atraer más seguidores que los vagabundos del medio (df = 774, t = 5,13, ​​p < 0,001 para Izquierda vs Centro, df = 773, t = 8,00 para Derecha, p<0,001 ) frente al centro). En segundo lugar, los vagabundos con una fuente inicial de derecha adquirieron una proporción significativamente mayor de seguidores que aquellos con una fuente inicial de izquierda (df = 771, t = 3,84, p <0,001 para derecha versus izquierda).

        Las diferencias de influencia entre los náufragos están influenciadas no sólo por el alineamiento político, sino también por otras características de sus amigos originales. Para desentrañar estos factores, medimos la correlación entre el número de seguidores de Drifter y dos características de sus amigos iniciales: su influencia general y su popularidad entre otras cuentas afiliadas políticamente. Si bien la influencia de Drifter no se vio afectada por la influencia general de los amigos iniciales, se correlacionó positivamente con su popularidad entre relatos políticamente consistentes (ver Nota complementaria). Esto es consistente con la evidencia de que los usuarios con inclinaciones partidistas compartidas tienen más probabilidades de formar vínculos sociales42, como exploramos a continuación.

        cámara de eco.

        Definimos cámaras de eco como comunidades de redes sociales densas y altamente agregadas que amplifican la exposición de contenido homogéneo. Para investigar si los robots vagabundos se encuentran en tales cámaras de eco, consideremos la red del ego de cada vagabundo, es decir, la red formada por el vagabundo y sus amigos y seguidores . Podemos utilizar la densidad y transitividad de las redes del ego como indicadores de la presencia de cámaras de eco. La densidad es la fracción de pares de nodos conectados en una red. La transitividad mide la proporción de posibles triángulos que realmente existen en un nodo. Una alta transitividad significa que es probable que amigos y seguidores también se sigan entre sí. Consulte "Métodos" para obtener más detalles.

        Las Figuras 2a, b muestran la densidad y transitividad promedio de la red del ego vagabundo (ver 'Métodos' para más detalles). Dado que estas dos medidas están correlacionadas en las redes del ego, la Figura 2c también representa la transitividad del reajuste a través de redes aleatorias mezcladas (ver Métodos).

 (Fig. 2 La estructura de la cámara de eco alrededor del vagabundo. La densidad a, la transitividad b y la transitividad normalizada de la red del ego de los vagabundos en diferentes grupos. Las barras de error representan el error estándar (n = 3 vagabundos en cada grupo ). d Cinco grupos La red del ego de Drifters en Medium. Los nodos representan cuentas y los bordes representan relaciones de amigo/seguidor. El tamaño y el color de los nodos indican el grado de vínculos compartidos (número de vecinos) y la inclinación política, respectivamente. Los nodos negros carecen de puntuaciones de alineación debido a que no se comparte contenido político. Los datos de origen se proporcionan como archivos de datos de origen. 3 Distribución de puntuaciones de bots para amigos y seguidores de vagabundos. Las puntuaciones de bots son números entre 0 y 1, y las puntuaciones más altas indican una probable automatización. Para cada grupo, consideramos Unión de amigos y seguidores de vagabundos. Las barras representan valores medios. Para amigos, n = 282 (izquierda), 261 (izquierda), 206 (centro), 323 (derecha) y 414 (derecha). Para seguidores, n = 172. (izquierda), 118 (izquierda), 65 (centro), 205 (derecha) y 299 (derecha). Los datos de origen se proporcionan como archivos de datos de origen. https://doi.org/10.1038/s41467-021-25738 - 64 Comunicaciones de la naturaleza | (2021) 12:5580 | https://doi.org/10.1038/s41467-021-25738-6 | www.nature.com/naturecommunications)

        La red del ego de los vagabundos de derecha es más densa que la de los vagabundos medios (df=4, t=−8.28, p=0.001), mientras que la diferencia en densidad entre los vagabundos medios y los vagabundos de izquierda no es significativa (gl= 4, t=− 2,68, p=0,055). La red de la cuenta derecha también es más transitiva que la red central (df=4, t=−9.31, p<0.001); la red de la cuenta izquierda también es más transitiva (df=4, t=−3.53, p= 0.024 ). Incluso teniendo en cuenta las diferencias de densidad (df=4, t=−8,96, p<0,001), las cuentas de derecha están más agrupadas que las cuentas centristas, mientras que las cuentas de izquierda no son significativamente diferentes de las cuentas medias (df=4, t= −2,73, p = 0,053). Además, la cámara de eco fue más fuerte para el vagabundo derecho que para el izquierdo (df = 4, t = −3.84, p = 0.019 para densidad; df = 4, t = −3.02, p = 0.039 para transitividad). Sin embargo, la diferencia en la transitividad normalizada entre izquierda y derecha no fue significativa (df = 4, t = −0,60, p = 0,579), lo que sugiere que la mayor agrupación en la derecha se explica por la densidad de los vínculos sociales.

        Automatizar actividades.

        Cuentas automatizadas conocidas como bots sociales participaron activamente en debates en línea sobre las recientes elecciones estadounidenses33,43,44. Por lo tanto, se espera que los vagabundos encuentren cuentas de bots. Utilizamos el servicio Botometer45,46 para recopilar puntuaciones de bots de los amigos y seguidores de los vagabundos. En la Figura 3 informamos la distribución de las puntuaciones de los bots para los amigos y seguidores del vagabundo. No es sorprendente que los vagabundos de todo el espectro político tuvieran más probabilidades de tener bots entre sus seguidores que entre sus amigos. Seguir a amigos revela una vulnerabilidad subyacente más profunda entre los usuarios de las redes sociales. Descubrimos que las cuentas seguidas por vagabundos partidistas se parecían más a robots que las cuentas seguidas por vagabundos centristas (df = 618, t = −6,14, p < 0,001 (derecha versus centro) y gl = 486, t = −3,67, p < 0,001 (ala izquierda versus centro central). Al comparar el partidismo y los moderados, los vagabundos de derecha siguen más cuentas que C. Los vagabundos de derecha son más robóticos (df = 735, t = −3,01, p = 0,003), mientras que los liberales difieren menos (df = 541, t = −2,56 , p=0,011 (izquierda vs. C. izquierda). Entre los partidos, las cuentas seguidas por los derechistas se parecen más a los robots que las cuentas de izquierda (df=694, t=−2,33, p=0,020).

Supongo que te gusta

Origin blog.csdn.net/qq_40671063/article/details/132209242
Recomendado
Clasificación