No es fácil Los investigadores ajustaron los algoritmos de Facebook para ver si podían solucionar la polarización política en Estados Unidos. Fracasaron.

No fue fácil. Los investigadores ajustaron algoritmos de Facebook para solucionar polarización política en EE. UU., pero fracasaron.

Los cuatro artículos de investigación, publicados en Science y Nature, también revelan la extensión de las cámaras de eco políticas en Facebook, donde conservadores y liberales se basan en fuentes divergentes de información, interactúan con grupos opuestos y consumen cantidades claramente diferentes de desinformación.

Los algoritmos son sistemas automatizados que las plataformas de redes sociales utilizan para sugerir contenido a los usuarios, haciendo suposiciones basadas en los grupos, amigos, temas y titulares en los que un usuario ha hecho clic en el pasado. Si bien son excelentes para mantener a los usuarios comprometidos, los algoritmos han sido criticados por amplificar la desinformación y el contenido ideológico que ha empeorado las divisiones políticas del país.

Las propuestas para regular estos sistemas están entre las ideas más discutidas para abordar el papel de las redes sociales en la difusión de desinformación y la promoción de la polarización. Pero cuando los investigadores cambiaron los algoritmos para algunos usuarios durante las elecciones de 2020, apenas vieron diferencias.

“Descubrimos que los algoritmos tienen una influencia extremadamente grande en las experiencias en la plataforma de las personas y que existe una segregación ideológica significativa en la exposición a noticias políticas”, dijo Talia Jomini Stroud, directora del Center for Media Engagement en la Universidad de Texas en Austin y una de las líderes de los estudios. “También encontramos que las propuestas populares para cambiar los algoritmos de las redes sociales no afectaron las actitudes políticas”.

Si bien las diferencias políticas son una función de cualquier democracia saludable, la polarización ocurre cuando esas diferencias comienzan a separar a los ciudadanos unos de otros y a las relaciones societarias que comparten. Puede socavar la confianza en las instituciones democráticas y la prensa libre.

La división significativa puede socavar la confianza en la democracia o las instituciones democráticas y llevar a una “polarización afectiva”, cuando los ciudadanos comienzan a verse más como enemigos que como oposición legítima. Es una situación que puede llevar a la violencia, como ocurrió cuando los seguidores del entonces presidente Donald Trump atacaron el Capitolio de los Estados Unidos el 6 de enero de 2021.

Para realizar el análisis, los investigadores obtuvieron un acceso sin precedentes a los datos de Facebook e Instagram de las elecciones de 2020 a través de una colaboración con Meta, los propietarios de las plataformas. Los investigadores afirman que Meta no ejerció ningún control sobre sus hallazgos.

Cuando reemplazaron el algoritmo con una simple lista cronológica de publicaciones de amigos, una opción que Facebook recientemente puso a disposición de los usuarios, no tuvo un impacto medible en la polarización. Cuando desactivaron la opción de compartir nuevamente de Facebook, que permite a los usuarios compartir rápidamente publicaciones virales, los usuarios vieron significativamente menos noticias de fuentes no confiables y menos noticias políticas en general, pero no hubo cambios significativos en sus actitudes políticas.

De la misma manera, reducir el contenido que los usuarios de Facebook obtienen de cuentas con la misma alineación ideológica no tuvo un efecto significativo en la polarización, la susceptibilidad a la desinformación o las opiniones extremistas.

En conjunto, los hallazgos sugieren que los usuarios de Facebook buscan contenido que se alinee con sus puntos de vista y que los algoritmos ayudan al “facilitar que las personas hagan lo que están inclinadas a hacer”, según David Lazer, profesor de la Universidad Northeastern que trabajó en los cuatro artículos.

Eliminar por completo el algoritmo redujo drásticamente el tiempo que los usuarios pasaron en Facebook o Instagram, al tiempo que aumentó su tiempo en TikTok, YouTube u otros sitios, lo que muestra cuán importantes son estos sistemas para Meta en el cada vez más concurrido panorama de las redes sociales.

En respuesta a los artículos, Nick Clegg, presidente de asuntos globales de Meta, dijo que los hallazgos mostraban “poca evidencia de que las características clave de las plataformas de Meta por sí solas causen una polarización afectiva dañina o tengan un impacto significativo en las actitudes políticas, creencias o comportamientos clave”.

Katie Harbath, exdirectora de política pública de Facebook, dijo que mostraban la necesidad de una mayor investigación sobre las redes sociales y desafiaban las suposiciones sobre el papel que desempeñan las redes sociales en la democracia estadounidense. Harbath no estuvo involucrada en la investigación.

“La gente quiere una solución simple y lo que estos estudios muestran es que no es simple”, dijo Harbath, miembro del Bipartisan Policy Center y CEO de Anchor Change, una empresa de tecnología y política. “Para mí, refuerza que cuando se trata de la polarización, o las creencias políticas de las personas, hay mucho más que interviene que las redes sociales”.

El trabajo también reveló la extensión de las diferencias ideológicas de los usuarios de Facebook y las diferentes formas en que los conservadores y los liberales utilizan la plataforma para obtener noticias e información sobre política.

Los usuarios conservadores de Facebook son más propensos a consumir contenido que ha sido etiquetado como desinformación por verificadores de hechos. También tienen más fuentes para elegir. El análisis encontró que, entre los sitios web incluidos en las publicaciones políticas de Facebook, muchos más están dirigidos a conservadores que a liberales.

En general, el 97% de las fuentes de noticias políticas en Facebook identificadas por verificadores de hechos como difusoras de desinformación eran más populares entre conservadores que entre liberales.

Los autores de los documentos reconocieron algunas limitaciones en su trabajo. Si bien encontraron que cambiar los algoritmos de Facebook tenía poco impacto en la polarización, señalan que el estudio solo abarcó unos pocos meses durante las elecciones de 2020 y, por lo tanto, no puede evaluar el impacto a largo plazo que los algoritmos han tenido desde que comenzó su uso hace años.

También señalaron que la mayoría de las personas obtienen sus noticias e información de una variedad de fuentes, como la televisión, la radio, Internet y el boca a boca, y que esas interacciones también podrían afectar las opiniones de las personas. Muchos en Estados Unidos culpan a los medios de comunicación por empeorar la polarización.

Para completar sus análisis, los investigadores examinaron datos de millones de usuarios de Facebook e Instagram y encuestaron a usuarios específicos que aceptaron participar. Toda la información de identificación sobre usuarios específicos fue eliminada por razones de privacidad.

Lazer, el profesor de Northeastern, dijo que al principio era escéptico de que Meta les diera a los investigadores el acceso que necesitaban, pero se sorprendió gratamente. Dijo que las condiciones impuestas por la empresa estaban relacionadas con preocupaciones legales y de privacidad razonables. Se publicarán más estudios de la colaboración en los próximos meses.

“No hay ningún estudio como este”, dijo sobre la investigación publicada el jueves. “Ha habido mucha retórica al respecto, pero en muchos aspectos la investigación ha sido bastante limitada”.