Ahora nadie es culpable. Zuckerberg dice que no tiene nada ver con la polarización. Estudio dice que "grieta" es previa y redes no la amplían sino que la confirman 2 cosas del informe: opciones conservadoras circulan más y mejor contenido en redes. También son las más proclives a usar fakenews
Las revistas académicas Science y Nature han publicado cuatro trabajos de investigación emblemáticos para comprender mejor el impacto de Facebook e Instagram en las actitudes y comportamientos políticos clave durante el ciclo electoral estadounidense de 2020. Meta abrió datos para la investigación
Algunas conclusiones Los estudios experimentales se suman a un creciente cuerpo de investigación que muestra que hay poca evidencia de que las características clave de las plataformas de Meta por sí solas causen una polarización "afectiva" dañina o tengan efectos significativos en las actitudes, creencias o comportamientos políticos clave. Los documentos marcan la primera vez que Meta, o cualquier empresa de tecnología, se abre de manera tan transparente a una investigación académica integral revisada por pares sobre su impacto durante una elección. A medida que las plataformas de redes sociales han empoderado a las personas para conectarse con otras, expresarse libremente y construir y ser parte de comunidades sin fronteras, ha estallado el debate político en línea. Plataformas como Facebook e Instagram se han convertido en un Pero dado que estas tecnologías son tan jóvenes y su surgimiento tuvo lugar durante un período de profunda disrupción económica, política y tecnológica más amplia, nuestra comprensión del papel de las redes sociales en la sociedad aún es imperfecta e incompleta. Nos enfrentamos a una serie de preguntas importantes para las que todavía no hay respuestas definitivas basadas en evidencia empírica clara. ¿Las redes sociales nos vuelven más polarizados como sociedad o simplemente reflejan divisiones que ya existen? ¿Ayuda a las personas a estar mejor informadas sobre política, o menos? ¿Cómo afecta las actitudes de las personas hacia el gobierno y la democracia?
Hoy tenemos nueva evidencia para
ayudar a responder algunas de estas preguntas. Antes de las elecciones
presidenciales de EE. UU. en 2020, existía la oportunidad de crear una base de
evidencia para que los investigadores se sumergieran en estas y otras
preguntas, así como una fuerte demanda de académicos para realizar la
investigación. Ese fue el impulso detrás de una asociación de investigación sin
precedentes entre Meta y académicos externos para comprender mejor el impacto
de Facebook e Instagram en las actitudes y comportamientos políticos clave
durante ese ciclo electoral.
El resultado es una serie
de estudios, los primeros cuatro de los cuales se publican hoy. La intención es
que se publiquen más artículos, 16 en total, en el futuro. Escenario para el
debate democrático: entre ciudadanos, entre candidatos y votantes, y para
activistas y grupos de defensa. Los artículos publicados hoy incluyen estudios
sobre los efectos de la clasificación algorítmica y la viralidad, la
prevalencia y los efectos de la exposición de información de ideas afines en
Facebook y la segregación ideológica en la exposición a las noticias. Aunque
las preguntas sobre el impacto de las redes sociales en las actitudes,
creencias y comportamientos políticos clave no están completamente resueltas,
los hallazgos experimentales se suman a un creciente cuerpo de investigación
que muestra que hay poca evidencia de que las características clave de las
plataformas de Meta por sí solas causen una polarización "afectiva"
dañina o tengan efectos significativos en estos resultados. También desafían la
afirmación ahora común de que la capacidad de compartir contenido en las redes
sociales genera polarización. Por ejemplo, el resumen de Nature de un artículo
afirma que los hallazgos "cuestionan las opiniones sobre la medida en que
las 'cámaras de eco' de las redes sociales impulsan la polarización
política". Y los copresidentes del estudio han declarado: "Eliminar
el contenido compartido en Facebook produjo una disminución en el conocimiento
de las noticias entre los participantes del estudio y no afectó
significativamente la polarización política u otras actitudes políticas a nivel
individual".
Los estudios también
arrojan nueva luz sobre la afirmación de que la forma en que se muestra el
contenido en las redes sociales, y específicamente por los algoritmos de Meta,
mantiene a las personas divididas. Uno de los artículos muestra que existe una
considerable segregación ideológica en el consumo de noticias políticas, lo que
refleja una interacción compleja entre factores algorítmicos y sociales. Sin
embargo, cuando los participantes en los experimentos vieron una cantidad
reducida de contenido de fuentes que reforzaban sus puntos de vista, en
realidad era más probable que se involucraran con el contenido de ideas afines
que vieron. E incluso entonces, no tuvo un impacto detectable en la
polarización, las actitudes políticas o las creencias. Michael Wagner, profesor
de la Universidad de Wisconsin, ha observado todo el proceso de investigación
para documentarlo y comentarlo públicamente como observador independiente. Y
como escribe el Dr. Wagner en su introducción a los documentos, los cambios en
lo que los participantes vieron en sus feeds o si encontraron contenido
compartido “no redujeron la polarización ni mejoraron el conocimiento político
durante las elecciones estadounidenses de 2020. De hecho, eliminar el contenido
compartido redujo el conocimiento político”. Como cuatro de los investigadores
principales explicaron en un blog cuando se anunció el proyecto, esperaba
superar dos obstáculos importantes que se interpusieron en el camino de
investigaciones anteriores sobre estos temas.
En primer lugar, que “la
creciente preocupación pública y las obligaciones legales relacionadas con la
privacidad de los datos llevaron a las empresas de redes sociales a restringir
el acceso a los datos utilizados anteriormente por investigadores externos”. Y
en segundo lugar, que “es difícil realizar un estudio científico riguroso sobre
el impacto de las redes sociales después del hecho”. Para superar estos
problemas, los datos se recopilaron durante el ciclo electoral, no después, y
solicitamos el consentimiento explícito e informado de quienes optaron por ser
parte de la investigación que analiza los datos a nivel individual. Esto
significa que los participantes de la investigación dieron su consentimiento
tanto para el uso de sus datos como para que se les proporcionara información
sobre cómo y por qué se utilizarían sus datos. Además, como parte de los
estudios, los investigadores también analizaron datos de usuarios agregados en
Facebook e Instagram para ayudar a comprender los patrones. Los estudios, y el
lenguaje de consentimiento, también fueron revisados y aprobados por una
Junta de Revisión Institucional (IRB) para garantizar que se adhirieran a altos
estándares éticos. El año pasado, los productos de transparencia de Meta se
utilizaron para promover la investigación académica sobre elecciones,
polarización, violencia digital, desinformación y otros temas sociales
apremiantes en docenas de publicaciones.
Recientemente anunciamos
que los investigadores pueden solicitar el acceso a las versiones beta de un
nuevo conjunto de herramientas de investigación: Biblioteca de metacontenido y
API. La Biblioteca incluye datos de publicaciones públicas, páginas, grupos y
eventos en Facebook. Para Instagram, incluirá publicaciones públicas y datos de
cuentas comerciales y de creadores. Los datos de la biblioteca se pueden
buscar, explorar y filtrar en una interfaz gráfica de usuario o a través de una
API programática. La investigación publicada en estos documentos no resolverá
todos los debates sobre las redes sociales y la democracia, pero esperamos que
ayude a la sociedad a comprender mejor estos temas. Sus hallazgos serán muy
valiosos para nosotros, y esperamos que también ayuden a los legisladores a
medida que configuran las reglas del camino para Internet, en beneficio de
nuestra democracia y de la sociedad en su conjunto. Cuando los investigadores
reemplazaron el algoritmo con una simple lista cronológica de publicaciones de
amigos, una opción que Facebook recientemente puso a disposición de los
usuarios, no tuvo un impacto medible en la polarización. Cuando desactivaron la
opción de volver a compartir de Facebook, que permite a los usuarios compartir
rápidamente publicaciones virales, los usuarios vieron significativamente menos
noticias de fuentes no confiables y menos noticias políticas en general, pero
no hubo cambios significativos en sus actitudes políticas. Del mismo modo,
reducir el contenido que los usuarios de Facebook obtienen de cuentas con la
misma alineación ideológica no tuvo un efecto significativo en la polarización,
la susceptibilidad a la desinformación o las opiniones extremistas. Juntos, los
hallazgos sugieren que los usuarios de Facebook buscan contenido que se alinee
con sus puntos de vista y que los algoritmos ayudan al "facilitar que las
personas hagan lo que están dispuestos a hacer", según David Lazer,
profesor de la Universidad Northeastern que trabajó en los cuatro artículos.
Eliminar el algoritmo por completo redujo drásticamente el tiempo que los
usuarios pasaban en Facebook o Instagram al tiempo que aumentaba su tiempo en
TikTok, YouTube u otros sitios, mostrando cuán importantes son estos sistemas
para Meta en el panorama de las redes sociales cada vez más concurrido. El
trabajo también reveló el alcance de las diferencias ideológicas de los
usuarios de Facebook y las diferentes formas en que los conservadores y
liberales utilizan la plataforma para obtener noticias e información sobre
política. Los usuarios conservadores de Facebook son más propensos a consumir
contenido que ha sido etiquetado como desinformación por los verificadores de
hechos.
También tienen más fuentes
para elegir. El análisis encontró que entre los sitios web incluidos en las
publicaciones políticas de Facebook, mucho más atienden a los conservadores que
a los liberales. En general, el 97% de las fuentes de noticias políticas en
Facebook identificadas por los verificadores de hechos como que difundieron
información errónea fueron más populares entre los conservadores que entre los
liberales.
Para realizar el análisis, los investigadores
obtuvieron un acceso sin precedentes a los datos de Facebook e Instagram de las
elecciones de 2020 a través de una colaboración con Meta, los propietarios de
las plataformas. Los investigadores dicen que Meta no ejerció ningún control
sobre sus hallazgos. Los autores de los artículos reconocieron algunas
limitaciones a su trabajo. Si bien encontraron que cambiar los algoritmos de Facebook
tuvo poco impacto en la polarización, señalan que el estudio solo cubrió unos
pocos meses durante las elecciones de 2020 y, por lo tanto, no puede evaluar el
impacto a largo plazo que han tenido los algoritmos.
Los documentos.
https://science.org/doi/10.1126/science.adj7023
http://infopoliticaweb.com/publicacion/63