in

Las investigaciones internas de Facebook: los documentos muestran señales de alarma sobre la desinformación

Documentos de la empresa revelan que en varias ocasiones trabajadores de la red social advirtieron de la difusión de desinformación y teorías de la conspiración antes y después de las elecciones presidenciales de Estados Unidos.

Dieciséis meses antes de las elecciones presidenciales celebradas en noviembre del año pasado, una investigadora de Facebook describió un acontecimiento alarmante. Una semana después de abrir una cuenta experimental, ya estaba recibiendo contenido sobre la teoría conspirativa de QAnon, según escribió en un informe interno.

El 5 de noviembre, dos días después de las elecciones, otro empleado de Facebook escribió un mensaje para alertar a sus colegas sobre los comentarios con “desinformación electoral polémica” que se podían ver debajo de muchas publicaciones.

Cuatro días después de eso, un científico de datos de la empresa escribió una nota para sus compañeros de trabajo en la que decía que el diez por ciento de todas las vistas de material político en Estados Unidos —una cifra sorprendentemente alta— eran publicaciones que alegaban un fraude electoral.

En cada caso, los empleados de Facebook sonaron una alarma sobre desinformación y contenido inflamatorio en la plataforma e instaron a tomar medidas, pero la empresa no atendió los problemas o tuvo dificultades para hacerlo. La comunicación interna fue parte de un conjunto de documentos de Facebook que obtuvo The New York Times, que brindan nueva información sobre lo ocurrido dentro de la red social antes y después de las elecciones de noviembre, cuando a la empresa la tomaron desprevenida los usuarios que convirtieron la plataforma en un arma para difundir mentiras sobre la votación.

Del documento: Política de contenidos

¿QUÉ PASÓ?

1. Desde el miércoles hasta el sábado circularon muchos contenidos que insinuaban fraude en las elecciones, en torno al 10 por ciento de todos los contenidos cívicos y el 1-2 por ciento de todos los VPV de EE. UU. También hubo un margen de incitación a la violencia.

2. Había docenas de empleados vigilando esto, y FB lanzó ~15 medidas antes de las elecciones, y otras ~15 en los días posteriores. La mayoría de las medidas hicieron más agresivos los procesos existentes: por ejemplo, bajando los umbrales, haciendo más severas las sanciones o ampliando la elegibilidad de las medidas existentes. Algunas medidas fueron cualitativas: reclasificando como infractores ciertos tipos de contenidos que antes no lo eran.

3. Supongo que estas medidas redujeron la prevalencia de los contenidos infractores en al menos dos veces. Sin embargo, tuvieron daños colaterales (eliminación y degradación de contenidos no infractores), y el episodio provocó un notable resentimiento por parte de los usuarios republicanos de Facebook, que se sienten injustamente atacados.

Facebook ha culpado en público al expresidente Donald Trump y a otras plataformas sociales de la proliferación de falsedades sobre las elecciones. A mediados de enero, Sheryl Sandberg, la directora de operaciones de Facebook, dijo que los disturbios del 6 de enero en el Capitolio fueron “organizados principalmente en plataformas que no tienen nuestra capacidad para detener el odio”. En marzo, Mark Zuckerberg, el director ejecutivo de la empresa, les dijo a los legisladores que la empresa hizo su parte “para garantizar la seguridad de nuestras elecciones”.

Sin embargo, los documentos de la empresa muestran cuánto sabía Facebook sobre los movimientos y agrupaciones extremistas dentro de su sitio que querían polarizar a los votantes estadounidenses antes de las elecciones. Los documentos también ofrecen nuevos detalles sobre cuán conscientes estaban los investigadores de la empresa, después de las elecciones, del flujo de desinformación que sugería que los votos habían sido manipulados en contra de Trump.

Los documentos no ofrecen un panorama completo de la toma de decisiones al interior de Facebook. Algunos estudios internos sugirieron que la empresa tuvo dificultades para ejercer control sobre la escala de su red y la velocidad con la que se propagó la información, mientras que otros informes insinuaron que a Facebook le preocupaba perder interacción con sus usuarios o dañar su reputación.

Sin embargo, es evidente que los propios empleados de Facebook creían que la red social pudo haber hecho más, según los documentos.

“El cumplimiento fue gradual”, decía una revisión interna de marzo sobre la respuesta de Facebook frente a los grupos de Stop the Steal [Detener el robo], los cuales sostenían que la elección estadounidense fue amañada en contra de Trump. Los autores del informe señalaron que esperaban que el análisis posterior fuera una guía para que Facebook pudiera “hacerlo mejor la próxima vez”.

Muchas de las decenas de documentos de Facebook que revisó el Times no se habían divulgado antes. Frances Haugen, exgerente de producto convertida en denunciante, fue la primera en obtener algunos de los informes internos.

Los documentos de Haugen, algunos de los cuales han sido publicados por The Wall Street Journal, han creado indignación entre los legisladores y los reguladores, sumiendo a Facebook en una de sus peores crisis de relaciones públicas en años. Las revelaciones de Haugen, quien compareció en una audiencia en el Parlamento británico el lunes, hicieron resurgir las preguntas sobre el papel que desempeñó Facebook en los acontecimientos que condujeron a los disturbios del 6 de enero en el Capitolio.

Tom Brenner para The New York Times

Yaël Eisenstat, una exempleada de Facebook que supervisó la seguridad en los anuncios de las elecciones en el mundo, dijo que la investigación de la compañía mostró que había intentado analizar sus responsabilidades en torno a las elecciones de 2020. Pero “si nada de estos efectos cambia”, dijo, fue un desperdicio.

“Deberían tratar de entender si la forma en que diseñaron el producto es el problema”, dijo Eisenstat sobre su antiguo empleador.

Andy Stone, un vocero de Facebook, comentó que la empresa estaba “orgullosa” del trabajo que había hecho para proteger las elecciones de 2020. Stone señaló que Facebook colaboró con las fuerzas del orden, introdujo medidas de seguridad y monitoreó de cerca el contenido de su plataforma.

“Las medidas que sí necesitábamos se mantuvieron hasta bien entrado febrero y algunas, como no recomendar nuevos grupos políticos ni cívicos, siguen vigentes hasta la fecha”, comentó. “La responsabilidad de la violencia que ocurrió el 6 de enero es de quienes atacaron nuestro Capitolio y quienes los incitaron”.

Durante años, los empleados de Facebook advirtieron sobre el potencial de la red social para radicalizar a los usuarios, según los documentos.

En julio de 2019, una investigadora de la empresa que estudiaba la polarización realizó un descubrimiento impactante: una cuenta de prueba que hizo para una “mamá conservadora” de Carolina del Norte recibió recomendaciones sobre contenido de teorías conspirativas a una semana de haber entrado a la red social.

La investigación interna, titulada “El viaje de Carol a QAnon”, detalló cómo la cuenta de Facebook para una mujer imaginaria llamada Carol Smith había seguido páginas de Fox News y Sinclair Broadcasting. En cuestión de días, Facebook le había recomendado páginas y grupos relacionados con QAnon, la teoría de la conspiración que aseguraba falsamente que Trump se enfrentaba a una camarilla tenebrosa de pedófilos demócratas.





#g-fb-embed-carol-profile-box ,
#g-fb-embed-carol-profile-box .g-artboard {
margin:0 auto;
}
#g-fb-embed-carol-profile-box p {
margin:0;
}
#g-fb-embed-carol-profile-box .g-aiAbs {
position:absolute;
}
#g-fb-embed-carol-profile-box .g-aiImg {
position:absolute;
top:0;
display:block;
width:100% !important;
}
#g-fb-embed-carol-profile-box .g-aiSymbol {
position: absolute;
box-sizing: border-box;
}
#g-fb-embed-carol-profile-box .g-aiPointText p { white-space: nowrap; }
#g-fb-embed-carol-profile-Artboard_1-335 {
position:relative;
overflow:hidden;
}
#g-fb-embed-carol-profile-Artboard_1-335 p {
font-family:nyt-franklin,arial,helvetica,sans-serif;
font-weight:300;
line-height:17px;
filter:alpha(opacity=100);
-ms-filter:progid:DXImageTransform.Microsoft.Alpha(Opacity=100);
opacity:1;
letter-spacing:0em;
font-size:14px;
text-align:left;
color:rgb(51,51,51);
text-transform:none;
padding-bottom:0;
padding-top:0;
mix-blend-mode:normal;
font-style:normal;
height:auto;
position:static;
}
#g-fb-embed-carol-profile-Artboard_1-335 .g-pstyle0 {
font-weight:600;
line-height:22px;
font-size:18px;
color:rgb(0,0,0);
}
#g-fb-embed-carol-profile-Artboard_1-600 {
position:relative;
overflow:hidden;
}
#g-fb-embed-carol-profile-Artboard_1-600 p {
font-family:nyt-franklin,arial,helvetica,sans-serif;
font-weight:300;
line-height:20px;
filter:alpha(opacity=100);
-ms-filter:progid:DXImageTransform.Microsoft.Alpha(Opacity=100);
opacity:1;
letter-spacing:0em;
font-size:16px;
text-align:left;
color:rgb(51,51,51);
text-transform:none;
padding-bottom:0;
padding-top:0;
mix-blend-mode:normal;
font-style:normal;
height:auto;
position:static;
}
#g-fb-embed-carol-profile-Artboard_1-600 .g-pstyle0 {
font-weight:600;
line-height:22px;
font-size:18px;
color:rgb(0,0,0);
}

La cuenta ‘Carol’

La cuenta creada para una hipotética mujer de 41 años llamada Carol era escasa, sin foto de perfil y con un puñado de intereses, entre ellos la crianza de los hijos, el cristianismo y el civismo y la comunidad.

En una semana, la cuenta se llenó de contenido extremo, conspiranoico y gráfico. Poco después, empezó a recibir sugerencias para unirse a QAnon y grupos similares.

La cuenta ‘Carol’

La cuenta creada para una hipotética mujer de 41 años llamada Carol era escasa, sin foto de perfil y con un puñado de intereses, entre ellos la crianza de los hijos, el cristianismo y el civismo y la comunidad.

En una semana, la cuenta se llenó de contenido extremo, conspiranoico y gráfico. Poco después, empezó a recibir sugerencias para unirse a QAnon y grupos similares.


Al final de las tres semanas, la cuenta de Facebook de Carol Smith había empeorado. “Se volvió un flujo constante de contenido engañoso, polarizador y de baja calidad”, escribió la investigadora.

Stone, de Facebook, dijo sobre el trabajo: “Aunque se trataba de un estudio de un usuario hipotético, es un ejemplo perfecto de la investigación que la empresa realiza para mejorar nuestros sistemas y ayudó a informar nuestra decisión de eliminar QAnon de la plataforma”.

La investigadora realizó posteriormente experimentos de polarización en una cuenta de prueba de tendencia izquierdista y descubrió que los algoritmos de Facebook la alimentaban con memes de “baja calidad” y desinformación política. Dejó la compañía en agosto de 2020, el mismo mes en que Facebook tomó medidas contra las páginas y grupos de QAnon.

En su nota de salida, que fue revisada por el Times y fue reportada previamente por BuzzFeed News, dijo que Facebook estaba “exponiendo a los usuarios conociendo los riesgos de daños a la integridad” y citó la lentitud de la compañía en actuar sobre QAnon como una razón para su salida.

“Durante más de un año hemos sabido que nuestros sistemas de recomendación pueden llevar muy rápido a los usuarios por el camino de las teorías y los grupos conspirativos”, escribió la investigadora. “Mientras tanto, el grupo marginal/conjunto radical de creencias ha crecido hasta tener prominencia nacional, con candidatos de QAnon al Congreso y con etiquetas y grupos de QAnon que son tendencia entre el público en general”.

Para las elecciones de 2020, Facebook intentó dejar poco al azar.

Durante meses, la empresa perfeccionó medidas de emergencia conocidas como planes para “romper el vidrio” —como ralentizar la formación de nuevos grupos de Facebook— en caso de que hubiera un resultado disputado. Facebook también contrató a decenas de miles de empleados para que el sitio fuera seguro durante las elecciones, consultó con expertos en derecho y políticas, y amplió sus asociaciones con organizaciones verificadoras de información.

En un comunicado público de septiembre de 2020, Zuckerberg escribió que su empresa tenía “una responsabilidad de proteger nuestra democracia”. Zuckerberg resaltó una campaña para registro de votantes que Facebook había financiado y expuso las medidas que había tomado la empresa —como eliminar la desinformación sobre los votantes y bloquear anuncios políticos— para “reducir las probabilidades de violencia y agitación”.

Al parecer, muchas medidas sirvieron. El día de las elecciones pasó sin mayores complicaciones en Facebook.

Sin embargo, después de que los conteos de votos mostraron una carrera reñida entre Trump y Joe Biden —en aquel entonces el candidato presidencial demócrata—, en las primeras horas del 4 de noviembre, Trump publicó en Facebook y Twitter: “Están tratando de ROBAR la elección”.

Los documentos internos mostraron que algunos usuarios habían encontrado formas de socavar la confianza en la votación en Facebook.

El 5 de noviembre, un empleado de Facebook publicó un mensaje en un grupo interno en línea llamado “Retroalimentación de Noticias”. En la nota, les comentó a sus colegas que la desinformación sobre la votación era notoria en la sección de comentarios de las publicaciones. Aún peor, se estaban amplificando los comentarios con la desinformación electoral más incendiaria para que aparecieran en lo más alto de las cadenas de comentarios, a fin de difundir información imprecisa, dijo el empleado.

Stefani Reynolds para The New York Times

El 9 de noviembre, un científico de datos de Facebook comunicó a varios colegas en una publicación interna que se había disparado la cantidad de contenido en la red social que ponía en duda los resultados de las elecciones. Una de cada 50 vistas en Facebook en Estados Unidos, o el diez por ciento de todas las vistas de material político, era de contenido que declaraba el voto fraudulento, escribió el investigador.

“También hubo un margen de incitación a la violencia”, escribió en la publicación.

A pesar de todo, en noviembre, Facebook comenzó a relajar sus medidas de emergencia, según señalaron tres exempleados. Parecía que el periodo crítico postelectoral había pasado y a la empresa le preocupaba que algunas medidas tomadas antes de las elecciones, como reducir el alcance de las páginas radicales de derecha, pudieran generar quejas de los usuarios, agregaron.

La mañana del 6 de enero, mientras se reunían manifestantes cerca del edificio del Capitolio de Estados Unidos en Washington, algunos empleados de Facebook recurrieron a una hoja de cálculo. Ahí, comenzaron a catalogar las medidas que la empresa estaba tomando en contra de la desinformación electoral y el contenido incendiario en su plataforma.

Esa mañana, habían aumentado las quejas de los usuarios sobre publicaciones que incitaban a la violencia, según datos de la hoja de cálculo.

A lo largo de ese día, mientras una turba irrumpía en el Capitolio, los empleados actualizaron la hoja de cálculo con las medidas que se estaban tomando, según comentó un trabajador involucrado en el esfuerzo. De las decenas de medidas que recomendaron los empleados de Facebook, se implementaron algunas, como permitir que los ingenieros de la empresa borraran en masa las publicaciones que fueran denunciadas por promover la violencia.

Sin embargo, otras medidas, como evitar que los grupos cambiaran sus nombres a términos como Stop the Steal, no se implementaron por completo debido a fallas tecnológicas de último minuto, según la información de la hoja de cálculo.

Zuckerberg y Mike Schroepfer, director de tecnología de Facebook, publicaron notas internas sobre la tristeza que les provocó el disturbio en el Capitolio. No obstante, algunos empleados de Facebook respondieron con enojo, de acuerdo con las cadenas de mensajes que vio el Times.

Erin Schaff/The New York Times

“Me gustaría sentir otra cosa, pero simplemente no basta con decir que nos estamos adaptando, porque ya nos tendríamos que haber adaptado hace mucho”, escribió un empleado. “Hasta ayer, había decenas de grupos de Stop the Steal y dudo que midieran sus palabras para expresar sus intenciones”.

Otro empleado escribió: “A fin de cuentas, siempre he sentido que mi trabajo ha sido significativo y útil para el mundo en general. Pero, para ser sincero, este es un día muy sombrío para mí aquí”.

En un informe del 7 de enero, el alcance de lo ocurrido en Facebook quedó claro. La cantidad de denuncias de usuarios sobre contenido que posiblemente había violado las políticas de la empresa era siete veces mayor que en semanas anteriores, según el informe. Varias de las publicaciones más denunciadas “sugerían el derrocamiento del gobierno” o “expresaban su apoyo a la violencia”, descubrieron los investigadores.

En marzo, los investigadores de Facebook publicaron dos informes internos en los que evaluaron el papel de la empresa en los movimientos sociales que promovieron las mentiras del fraude electoral.

En uno, un grupo de empleados señaló que Facebook había seguido “el patrón”, es decir que había tomado medidas iniciales “limitadas o nulas” en contra de QAnon y los movimientos de deslegitimación electoral, y solo actuó y eliminó ese contenido una vez que ya había ganado impulso. The Wall Street Journal fue el primer medio en informar sobre el documento.

Los empleados escribieron que parte del problema fue que las reglas de desinformación electoral de Facebook dejaron demasiadas zonas grises. Como resultado, no se eliminaron publicaciones que “podrían interpretarse como dudas razonables sobre los procesos electorales” porque no violaban esas reglas al pie de la letra.

Esas publicaciones luego crearon un ambiente que contribuyó a la inestabilidad social, según el informe.

Del documento: Las ‘narrativas dañinas que no violan los términos’ son un arquetipo de problema que necesita soluciones novedosas

“Retrospectivamente, fuentes externas nos han dicho que las experiencias en la plataforma sobre esta narrativa pueden haber tenido impactos negativos sustanciales, incluyendo la colaboración material a la revuelta de la capital y la reducción potencial del compromiso cívico colectivo y la cohesión social en los años venideros”.

Otro informe, titulado “Stop the Steal and Patriot Party: The Growth and Mitigation of an Adversarial Harmful Movement”, expuso la forma en la que la gente había explotado la función de grupos de Facebook para formar rápidamente comunidades deslegitimadoras de las elecciones en el sitio antes del 6 de enero.

Según el informe, algunos organizadores enviaron cientos de invitaciones para crear los grupos, básicamente enviando correos no deseados a la gente. También pidieron a todos los que se unieron que invitaran a tantas personas como fuera posible, haciendo que los grupos aumentaran de tamaño. (Desde entonces, Facebook ha empezado a controlar más estrechamente la cantidad de invitaciones a los grupos).

Algunos organizadores de grupos de Stop the Steal en Facebook también parecían cooperar entre sí para “hacer crecer el movimiento”, según el informe.

“Una vez que ya pasó todo, es todavía más importante mirar atrás, para aprender qué podemos hacer en torno al crecimiento de los movimientos de deslegitimación electoral que se expandieron, difundieron conspiraciones y ayudaron a incitar la insurrección en el Capitolio”, decía el informe.

Mike Isaac, Davey Alba y Cecilia Kang colaboraron con este reportaje.

Ryan Mac es un reportero de tecnología centrado en la responsabilidad de las empresas del sector tecnológico mundial. Ganó un premio George Polk en 2020 por su cobertura de Facebook y vive en Los Ángeles. @RMac18

Sheera Frenkel es una premiada reportera de tecnología con sede en San Francisco. En 2021, ella y Cecilia Kang publicaron An Ugly Truth: Inside Facebook’s Battle for Domination. @sheeraf



Source: Elections - nytimes.com


Tagcloud:

Fossil fuel messaging has won over Republican voters, poll reveals

New clash over dumping of raw sewage in rivers as No 10 rejects compromise vote