viernes, 28 de julio de 2023

Esteban Concia | Comunicación


@EstebanConcia

Ahora nadie es culpable. Zuckerberg dice que no tiene nada ver con la polarización. Estudio dice que "grieta" es previa y redes no la amplían sino que la confirman 2 cosas del informe: opciones conservadoras circulan más y mejor contenido en redes. También son las más proclives a usar fakenews




Las revistas académicas Science y Nature han publicado cuatro trabajos de investigación emblemáticos para comprender mejor el impacto de Facebook e Instagram en las actitudes y comportamientos políticos clave durante el ciclo electoral estadounidense de 2020. Meta abrió datos para la investigación

Algunas conclusiones Los estudios experimentales se suman a un creciente cuerpo de investigación que muestra que hay poca evidencia de que las características clave de las plataformas de Meta por sí solas causen una polarización "afectiva" dañina o tengan efectos significativos en las actitudes, creencias o comportamientos políticos clave. Los documentos marcan la primera vez que Meta, o cualquier empresa de tecnología, se abre de manera tan transparente a una investigación académica integral revisada por pares sobre su impacto durante una elección. A medida que las plataformas de redes sociales han empoderado a las personas para conectarse con otras, expresarse libremente y construir y ser parte de comunidades sin fronteras, ha estallado el debate político en línea. Plataformas como Facebook e Instagram se han convertido en un Pero dado que estas tecnologías son tan jóvenes y su surgimiento tuvo lugar durante un período de profunda disrupción económica, política y tecnológica más amplia, nuestra comprensión del papel de las redes sociales en la sociedad aún es imperfecta e incompleta. Nos enfrentamos a una serie de preguntas importantes para las que todavía no hay respuestas definitivas basadas en evidencia empírica clara. ¿Las redes sociales nos vuelven más polarizados como sociedad o simplemente reflejan divisiones que ya existen? ¿Ayuda a las personas a estar mejor informadas sobre política, o menos? ¿Cómo afecta las actitudes de las personas hacia el gobierno y la democracia? 

Hoy tenemos nueva evidencia para ayudar a responder algunas de estas preguntas. Antes de las elecciones presidenciales de EE. UU. en 2020, existía la oportunidad de crear una base de evidencia para que los investigadores se sumergieran en estas y otras preguntas, así como una fuerte demanda de académicos para realizar la investigación. Ese fue el impulso detrás de una asociación de investigación sin precedentes entre Meta y académicos externos para comprender mejor el impacto de Facebook e Instagram en las actitudes y comportamientos políticos clave durante ese ciclo electoral.

El resultado es una serie de estudios, los primeros cuatro de los cuales se publican hoy. La intención es que se publiquen más artículos, 16 en total, en el futuro. Escenario para el debate democrático: entre ciudadanos, entre candidatos y votantes, y para activistas y grupos de defensa. Los artículos publicados hoy incluyen estudios sobre los efectos de la clasificación algorítmica y la viralidad, la prevalencia y los efectos de la exposición de información de ideas afines en Facebook y la segregación ideológica en la exposición a las noticias. Aunque las preguntas sobre el impacto de las redes sociales en las actitudes, creencias y comportamientos políticos clave no están completamente resueltas, los hallazgos experimentales se suman a un creciente cuerpo de investigación que muestra que hay poca evidencia de que las características clave de las plataformas de Meta por sí solas causen una polarización "afectiva" dañina o tengan efectos significativos en estos resultados. También desafían la afirmación ahora común de que la capacidad de compartir contenido en las redes sociales genera polarización. Por ejemplo, el resumen de Nature de un artículo afirma que los hallazgos "cuestionan las opiniones sobre la medida en que las 'cámaras de eco' de las redes sociales impulsan la polarización política". Y los copresidentes del estudio han declarado: "Eliminar el contenido compartido en Facebook produjo una disminución en el conocimiento de las noticias entre los participantes del estudio y no afectó significativamente la polarización política u otras actitudes políticas a nivel individual".

Los estudios también arrojan nueva luz sobre la afirmación de que la forma en que se muestra el contenido en las redes sociales, y específicamente por los algoritmos de Meta, mantiene a las personas divididas. Uno de los artículos muestra que existe una considerable segregación ideológica en el consumo de noticias políticas, lo que refleja una interacción compleja entre factores algorítmicos y sociales. Sin embargo, cuando los participantes en los experimentos vieron una cantidad reducida de contenido de fuentes que reforzaban sus puntos de vista, en realidad era más probable que se involucraran con el contenido de ideas afines que vieron. E incluso entonces, no tuvo un impacto detectable en la polarización, las actitudes políticas o las creencias. Michael Wagner, profesor de la Universidad de Wisconsin, ha observado todo el proceso de investigación para documentarlo y comentarlo públicamente como observador independiente. Y como escribe el Dr. Wagner en su introducción a los documentos, los cambios en lo que los participantes vieron en sus feeds o si encontraron contenido compartido “no redujeron la polarización ni mejoraron el conocimiento político durante las elecciones estadounidenses de 2020. De hecho, eliminar el contenido compartido redujo el conocimiento político”. Como cuatro de los investigadores principales explicaron en un blog cuando se anunció el proyecto, esperaba superar dos obstáculos importantes que se interpusieron en el camino de investigaciones anteriores sobre estos temas.

En primer lugar, que “la creciente preocupación pública y las obligaciones legales relacionadas con la privacidad de los datos llevaron a las empresas de redes sociales a restringir el acceso a los datos utilizados anteriormente por investigadores externos”. Y en segundo lugar, que “es difícil realizar un estudio científico riguroso sobre el impacto de las redes sociales después del hecho”. Para superar estos problemas, los datos se recopilaron durante el ciclo electoral, no después, y solicitamos el consentimiento explícito e informado de quienes optaron por ser parte de la investigación que analiza los datos a nivel individual. Esto significa que los participantes de la investigación dieron su consentimiento tanto para el uso de sus datos como para que se les proporcionara información sobre cómo y por qué se utilizarían sus datos. Además, como parte de los estudios, los investigadores también analizaron datos de usuarios agregados en Facebook e Instagram para ayudar a comprender los patrones. Los estudios, y el lenguaje de consentimiento, también fueron revisados ​​y aprobados por una Junta de Revisión Institucional (IRB) para garantizar que se adhirieran a altos estándares éticos. El año pasado, los productos de transparencia de Meta se utilizaron para promover la investigación académica sobre elecciones, polarización, violencia digital, desinformación y otros temas sociales apremiantes en docenas de publicaciones.

Recientemente anunciamos que los investigadores pueden solicitar el acceso a las versiones beta de un nuevo conjunto de herramientas de investigación: Biblioteca de metacontenido y API. La Biblioteca incluye datos de publicaciones públicas, páginas, grupos y eventos en Facebook. Para Instagram, incluirá publicaciones públicas y datos de cuentas comerciales y de creadores. Los datos de la biblioteca se pueden buscar, explorar y filtrar en una interfaz gráfica de usuario o a través de una API programática. La investigación publicada en estos documentos no resolverá todos los debates sobre las redes sociales y la democracia, pero esperamos que ayude a la sociedad a comprender mejor estos temas. Sus hallazgos serán muy valiosos para nosotros, y esperamos que también ayuden a los legisladores a medida que configuran las reglas del camino para Internet, en beneficio de nuestra democracia y de la sociedad en su conjunto. Cuando los investigadores reemplazaron el algoritmo con una simple lista cronológica de publicaciones de amigos, una opción que Facebook recientemente puso a disposición de los usuarios, no tuvo un impacto medible en la polarización. Cuando desactivaron la opción de volver a compartir de Facebook, que permite a los usuarios compartir rápidamente publicaciones virales, los usuarios vieron significativamente menos noticias de fuentes no confiables y menos noticias políticas en general, pero no hubo cambios significativos en sus actitudes políticas. Del mismo modo, reducir el contenido que los usuarios de Facebook obtienen de cuentas con la misma alineación ideológica no tuvo un efecto significativo en la polarización, la susceptibilidad a la desinformación o las opiniones extremistas. Juntos, los hallazgos sugieren que los usuarios de Facebook buscan contenido que se alinee con sus puntos de vista y que los algoritmos ayudan al "facilitar que las personas hagan lo que están dispuestos a hacer", según David Lazer, profesor de la Universidad Northeastern que trabajó en los cuatro artículos. Eliminar el algoritmo por completo redujo drásticamente el tiempo que los usuarios pasaban en Facebook o Instagram al tiempo que aumentaba su tiempo en TikTok, YouTube u otros sitios, mostrando cuán importantes son estos sistemas para Meta en el panorama de las redes sociales cada vez más concurrido. El trabajo también reveló el alcance de las diferencias ideológicas de los usuarios de Facebook y las diferentes formas en que los conservadores y liberales utilizan la plataforma para obtener noticias e información sobre política. Los usuarios conservadores de Facebook son más propensos a consumir contenido que ha sido etiquetado como desinformación por los verificadores de hechos.

También tienen más fuentes para elegir. El análisis encontró que entre los sitios web incluidos en las publicaciones políticas de Facebook, mucho más atienden a los conservadores que a los liberales. En general, el 97% de las fuentes de noticias políticas en Facebook identificadas por los verificadores de hechos como que difundieron información errónea fueron más populares entre los conservadores que entre los liberales.

 Para realizar el análisis, los investigadores obtuvieron un acceso sin precedentes a los datos de Facebook e Instagram de las elecciones de 2020 a través de una colaboración con Meta, los propietarios de las plataformas. Los investigadores dicen que Meta no ejerció ningún control sobre sus hallazgos. Los autores de los artículos reconocieron algunas limitaciones a su trabajo. Si bien encontraron que cambiar los algoritmos de Facebook tuvo poco impacto en la polarización, señalan que el estudio solo cubrió unos pocos meses durante las elecciones de 2020 y, por lo tanto, no puede evaluar el impacto a largo plazo que han tenido los algoritmos.

Fuente:

@EstebanConcia

Los documentos.

 https://science.org/doi/10.1126/science.adj7023

http://infopoliticaweb.com/publicacion/63

 

No hay comentarios: