Zuckerberg dice no tiene nada que ver con la polarización y las noticias faltas

Martes 18 de Junio de 2024
Edición Nº 2099


28 07 2023

Estudio

Zuckerberg dice no tiene nada que ver con la polarización y las noticias faltas

Investigación sobre las elecciones de EEUU en 2020

Los poderosos algoritmos utilizados por Facebook e Instagram han sido culpados cada vez más por amplificar la desinformación y la polarización política. Pero una serie de estudios innovadores publicados el jueves sugieren que abordar estos desafíos requerirá algo más que ajustar el software de las plataformas.

Los cuatro trabajos de investigación, publicados en Science and Nature también revelan el alcance de las cámaras de eco político en Facebook, donde conservadores y liberales dependen de fuentes divergentes de información, interactúan con grupos opuestos y consumen cantidades claramente diferentes de información errónea.

Con la cooperación de Meta, los investigadores detrás de los estudios analizaron datos de millones de usuarios de Facebook e Instagram relacionados con las elecciones presidenciales de 2020 en Estados Unidos, y encuestaron a usuarios específicos que aceptaron participar.

Un área de investigación se centró en los algoritmos de los feeds de las redes sociales y cómo afectan las actitudes y el comportamiento de los votantes. Los algoritmos sugieren contenido para los usuarios haciendo suposiciones basadas en los grupos, amigos, temas y titulares en los que un usuario ha hecho clic en el pasado. Si bien sobresalen en mantener a los usuarios comprometidos, los algoritmos han sido criticados por amplificar la desinformación y el contenido ideológico que ha empeorado las divisiones políticas en los Estados Unidos. Las propuestas para regular estos sistemas se encuentran entre las ideas más discutidas para abordar el papel de las redes sociales en la difusión de información errónea y el fomento de la polarización.

Pero cuando los investigadores cambiaron los algoritmos para algunos usuarios durante las elecciones de 2020, vieron poca diferencia.

"Encontramos que los algoritmos son extremadamente influyentes en las experiencias de las personas en la plataforma y existe una segregación ideológica significativa en la exposición de noticias políticas", dijo Talia Jomini Stroud, directora del Centro para la Participación de los Medios de la Universidad de Texas en Austin y una de las líderes de los estudios.

"También encontramos que las propuestas populares para cambiar los algoritmos de las redes sociales no influyeron en las actitudes políticas".

Cuando los investigadores reemplazaron el algoritmo con una simple lista cronológica de publicaciones de amigos, una opción que Facebook recientemente puso a disposición de los usuarios, no tuvo un impacto medible en la polarización. Cuando desactivaron la opción de volver a compartir de Facebook, que permite a los usuarios compartir rápidamente publicaciones virales, los usuarios vieron significativamente menos noticias de fuentes no confiables y menos noticias políticas en general, pero no hubo cambios significativos en sus actitudes políticas.

Del mismo modo, reducir el contenido que los usuarios de Facebook obtienen de cuentas con la misma alineación ideológica no tuvo un efecto significativo en la polarización, la susceptibilidad a la desinformación o las opiniones extremistas.

Juntos, los hallazgos sugieren que los usuarios de Facebook buscan contenido que se alinee con sus puntos de vista y que los algoritmos ayudan al "facilitar que las personas hagan lo que están dispuestos a hacer", según David Lazer, profesor de la Universidad Northeastern que trabajó en los cuatro artículos.

Eliminar el algoritmo por completo redujo drásticamente el tiempo que los usuarios pasaban en Facebook o Instagram al tiempo que aumentaba su tiempo en TikTok, YouTube u otros sitios, mostrando cuán importantes son estos sistemas para Meta en el panorama de las redes sociales cada vez más concurrido.

El trabajo también reveló el alcance de las diferencias ideológicas de los usuarios de Facebook y las diferentes formas en que los conservadores y liberales utilizan la plataforma para obtener noticias e información sobre política.

Los usuarios conservadores de Facebook son más propensos a consumir contenido que ha sido etiquetado como desinformación por los verificadores de hechos. También tienen más fuentes para elegir. El análisis encontró que entre los sitios web incluidos en las publicaciones políticas de Facebook, mucho más atienden a los conservadores que a los liberales.

En general, el 97% de las fuentes de noticias políticas en Facebook identificadas por los verificadores de hechos como que difundieron información errónea fueron más populares entre los conservadores que entre los liberales.

Para realizar el análisis, los investigadores obtuvieron un acceso sin precedentes a los datos de Facebook e Instagram de las elecciones de 2020 a través de una colaboración con Meta, los propietarios de las plataformas. Los investigadores dicen que Meta no ejerció ningún control sobre sus hallazgos.

Los autores de los artículos reconocieron algunas limitaciones a su trabajo. Si bien encontraron que cambiar los algoritmos de Facebook tuvo poco impacto en la polarización, señalan que el estudio solo cubrió unos pocos meses durante las elecciones de 2020 y, por lo tanto, no puede evaluar el impacto a largo plazo que han tenido los algoritmos.

También señalaron que la mayoría de las personas obtienen sus noticias e información de una variedad de fuentes: televisión, radio, Internet y boca a boca, y que esas interacciones también podrían afectar las opiniones de las personas.

Katie Harbath, ex directora de políticas públicas de Facebook, dijo que la investigación mostró la necesidad de una mayor investigación sobre las redes sociales y desafió las suposiciones sobre el papel que desempeñan las redes sociales en la democracia estadounidense. Harbath no participó en la investigación.

"La gente quiere una solución simple y lo que estos estudios muestran es que no es simple", dijo Harbath, miembro del Centro de Políticas Bipartidistas y director ejecutivo de la firma de tecnología y política Anchor Change. "Para mí, refuerza que cuando se trata de polarización, o las creencias políticas de la gente, hay mucho más que entra en esto que las redes sociales".

El presidente de asuntos globales de Meta, Nick Clegg, argumentó que los hallazgos mostraron que "hay poca evidencia de que las características clave de las plataformas de Meta por sí solas causen una polarización 'afectiva' dañina o tengan un impacto significativo en actitudes, creencias o comportamientos políticos clave".

Pero la realidad es más complicada que eso, según los críticos que dicen que los hallazgos no deberían permitir que las compañías de redes sociales se libren de la lucha contra la desinformación.

"Los estudios que Meta respalda, que parecen poco sistemáticos en pequeños períodos de tiempo de muestra, no deberían servir como excusas para permitir que se propaguen mentiras", dijo Nora Benavidez, asesora principal del grupo digital de derechos civiles Free Press, al Washington Post. "Las plataformas de redes sociales deberían intensificar más antes de las elecciones, no inventar nuevos esquemas para eludir la rendición de cuentas".

Frances Haugen, ex empleada de Facebook y denunciante, criticó el momento de la investigación, diciendo al Post que se produjo después de que Meta promulgara medidas de protección electoral más agresivas para abordar la información errónea antes de las elecciones. Y para cuando comenzó el experimento, muchos usuarios ya se habían unido a grupos que los habrían inundado con contenido cuestionable, dijo.

Lazer, el profesor de Northeastern, dijo que al principio se mostró escéptico de que Meta les diera a los investigadores el acceso que necesitaban, pero se sorprendió gratamente. Dijo que las condiciones impuestas por la compañía estaban relacionadas con preocupaciones legales y de privacidad razonables. Se publicarán más estudios de la colaboración en los próximos meses.

"No hay un estudio como este", dijo sobre la investigación publicada el jueves. "Ha habido mucha retórica sobre esto, pero en muchos sentidos la investigación ha sido bastante limitada".


 

Escrito por: The Guardian

Newsletter

Suscribite a nuestro NewsLetter y recibí todas las noticias en tu mail

Notas destacadas