More stories

  • in

    Germany Struggles to Stop Online Abuse Ahead of Election

    Scrolling through her social media feed, Laura Dornheim is regularly stopped cold by a new blast of abuse aimed at her, including from people threatening to kill or sexually assault her. One person last year said he looked forward to meeting her in person so he could punch her teeth out.Ms. Dornheim, a candidate for Parliament in Germany’s election on Sunday, is often attacked for her support of abortion rights, gender equality and immigration. She flags some of the posts to Facebook and Twitter, hoping that the platforms will delete the posts or that the perpetrators will be barred. She’s usually disappointed.“There might have been one instance where something actually got taken down,” Ms. Dornheim said.Harassment and abuse are all too common on the modern internet. Yet it was supposed to be different in Germany. In 2017, the country enacted one of the world’s toughest laws against online hate speech. It requires Facebook, Twitter and YouTube to remove illegal comments, pictures or videos within 24 hours of being notified about them or risk fines of up to 50 million euros, or $59 million. Supporters hailed it as a watershed moment for internet regulation and a model for other countries.But an influx of hate speech and harassment in the run-up to the German election, in which the country will choose a new leader to replace Angela Merkel, its longtime chancellor, has exposed some of the law’s weaknesses. Much of the toxic speech, researchers say, has come from far-right groups and is aimed at intimidating female candidates like Ms. Dornheim.Some critics of the law say it is too weak, with limited enforcement and oversight. They also maintain that many forms of abuse are deemed legal by the platforms, such as certain kinds of harassment of women and public officials. And when companies do remove illegal material, critics say, they often do not alert the authorities or share information about the posts, making prosecutions of the people publishing the material far more difficult. Another loophole, they say, is that smaller platforms like the messaging app Telegram, popular among far-right groups, are not subject to the law.Free-expression groups criticize the law on other grounds. They argue that the law should be abolished not only because it fails to protect victims of online abuse and harassment, but also because it sets a dangerous precedent for government censorship of the internet.The country’s experience may shape policy across the continent. German officials are playing a key role in drafting one of the world’s most anticipated new internet regulations, a European Union law called the Digital Services Act, which will require Facebook and other online platforms to do more to address the vitriol, misinformation and illicit content on their sites. Ursula von der Leyen, a German who is president of the European Commission, the 27-nation bloc’s executive arm, has called for an E.U. law that would list gender-based violence as a special crime category, a proposal that would include online attacks.“Germany was the first to try to tackle this kind of online accountability,” said Julian Jaursch, a project director at the German think tank Stiftung Neue Verantwortung, which focuses on digital issues. “It is important to ask whether the law is working.”Campaign billboards in Germany’s race for chancellor, showing, from left, Annalena Baerbock of the Green Party, Olaf Scholz of the Social Democrats and Christian Lindner of the Free Democrats.Sean Gallup/Getty ImagesMarc Liesching, a professor at HTWK Leipzig who published an academic report on the policy, said that of the posts that had been deleted by Facebook, YouTube and Twitter, a vast majority were classified as violating company policies, not the hate speech law. That distinction makes it harder for the government to measure whether companies are complying with the law. In the second half of 2020, Facebook removed 49 million pieces of “hate speech” based on its own community standards, compared with the 154 deletions that it attributed to the German law, he found.The law, Mr. Liesching said, “is not relevant in practice.”With its history of Nazism, Germany has long tried to balance free speech rights against a commitment to combat hate speech. Among Western democracies, the country has some of the world’s toughest laws against incitement to violence and hate speech. Targeting religious, ethnic and racial groups is illegal, as are Holocaust denial and displaying Nazi symbols in public. To address concerns that companies were not alerting the authorities to illegal posts, German policymakers this year passed amendments to the law. They require Facebook, Twitter and YouTube to turn over data to the police about accounts that post material that German law would consider illegal speech. The Justice Ministry was also given more powers to enforce the law. “The aim of our legislative package is to protect all those who are exposed to threats and insults on the internet,” Christine Lambrecht, the justice minister, who oversees enforcement of the law, said after the amendments were adopted. “Whoever engages in hate speech and issues threats will have to expect to be charged and convicted.”Germans will vote for a leader to replace Angela Merkel, the country’s longtime chancellor.Markus Schreiber/Associated PressFacebook and Google have filed a legal challenge to block the new rules, arguing that providing the police with personal information about users violates their privacy.Facebook said that as part of an agreement with the government it now provided more figures about the complaints it received. From January through July, the company received more than 77,000 complaints, which led it to delete or block about 11,500 pieces of content under the German law, known as NetzDG.“We have zero tolerance for hate speech and support the aims of NetzDG,” Facebook said in a statement. Twitter, which received around 833,000 complaints and removed roughly 81,000 posts during the same period, said a majority of those posts did not fit the definition of illegal speech, but still violated the company’s terms of service.“Threats, abusive content and harassment all have the potential to silence individuals,” Twitter said in a statement. “However, regulation and legislation such as this also has the potential to chill free speech by emboldening regimes around the world to legislate as a way to stifle dissent and legitimate speech.”YouTube, which received around 312,000 complaints and removed around 48,000 pieces of content in the first six months of the year, declined to comment other than saying it complies with the law.The amount of hate speech has become increasingly pronounced during election season, according to researchers at Reset and HateAid, organizations that track online hate speech and are pushing for tougher laws.The groups reviewed nearly one million comments on far-right and conspiratorial groups across about 75,000 Facebook posts in June, finding that roughly 5 percent were “highly toxic” or violated the online hate speech law. Some of the worst material, including messages with Nazi symbolism, had been online for more than a year, the groups found. Of 100 posts reported by the groups to Facebook, roughly half were removed within a few days, while the others remain online.The election has also seen a wave of misinformation, including false claims about voter fraud.Annalena Baerbock, the 40-year-old leader of the Green Party and the only woman among the top candidates running to succeed Ms. Merkel, has been the subject of an outsize amount of abuse compared with her male rivals from other parties, including sexist slurs and misinformation campaigns, according to researchers.Ms. Baerbock, the Green Party candidate for chancellor, taking a selfie with one of her supporters.Laetitia Vancon for The New York TimesOthers have stopped running altogether. In March, a former Syrian refugee running for the German Parliament, Tareq Alaows, dropped out of the race after experiencing racist attacks and violent threats online.While many policymakers want Facebook and other platforms to be aggressive in screening user-generated content, others have concerns about private companies making decisions about what people can and can’t say. The far-right party Alternative for Germany, which has criticized the law for unfairly targeting its supporters, has vowed to repeal the policy “to respect freedom of expression.”Jillian York, an author and free speech activist with the Electronic Frontier Foundation in Berlin, said the German law encouraged companies to remove potentially offensive speech that is perfectly legal, undermining free expression rights.“Facebook doesn’t err on the side of caution, they just take it down,” Ms. York said. Another concern, she said, is that less democratic countries such as Turkey and Belarus have adopted laws similar to Germany’s so that they could classify certain material critical of the government as illegal.Renate Künast, a former government minister who once invited a journalist to accompany her as she confronted individuals in person who had targeted her with online abuse, wants to see the law go further. Victims of online abuse should be able to go after perpetrators directly for libel and financial settlements, she said. Without that ability, she added, online abuse will erode political participation, particularly among women and minority groups.In a survey of more than 7,000 German women released in 2019, 58 percent said they did not share political opinions online for fear of abuse.“They use the verbal power of hate speech to force people to step back, leave their office or not to be candidates,” Ms. Künast said.The Reichstag, where the German Parliament convenes, in Berlin.Emile Ducke for The New York TimesMs. Dornheim, the Berlin candidate, who has a master’s degree in computer science and used to work in the tech industry, said more restrictions were needed. She described getting her home address removed from public records after somebody mailed a package to her house during a particularly bad bout of online abuse.Yet, she said, the harassment has only steeled her resolve.“I would never give them the satisfaction of shutting up,” she said. More

  • in

    Facebook se debate entre combatir la desinformación y no afectar su crecimiento

    SAN FRANCISCO — En los tensos días posteriores a la elección presidencial, un equipo de empleados de Facebook presentó al director ejecutivo, Mark Zuckerberg, un hallazgo alarmante: la desinformación relacionada con las elecciones se estaba volviendo viral en la plataforma.El presidente Donald Trump decía que la elección había sido amañada, y las historias de los medios de comunicación de derecha con afirmaciones falsas y engañosas sobre los votos desechados, los votos mal contados y los conteos sesgados estaban entre las noticias más populares de la plataforma.En respuesta, los empleados propusieron un cambio de emergencia en el algoritmo de noticias del sitio, que ayuda a determinar lo que más de 2000 millones de personas ven todos los días. Se trataba de hacer énfasis en la importancia de lo que Facebook denomina puntuaciones de “calidad del ecosistema de noticias”, o NEQ (por su sigla en inglés), una clasificación interna secreta que asigna a los medios noticiosos en función de las señales sobre la calidad de su periodismo.Por lo general, los puntajes NEQ desempeñan un papel menor en la determinación de lo que aparece en los muros de los usuarios. Sin embargo, varios días después de la elección, Zuckerberg acordó aumentar el peso que el algoritmo de Facebook le dio a los puntajes NEQ para asegurarse de que las noticias autorizadas aparecieran de manera más prominente, según dijeron tres personas que tienen información sobre la decisión y que no están autorizadas a divulgar las discusiones internas.El cambio forma parte de los planes de “remodelación” que Facebook desarrolló durante meses para lidiar con las secuelas de una elección disputada. Dio como resultado un aumento de visibilidad para grandes medios como CNN, The New York Times y NPR, mientras que los mensajes de páginas hiperpartidistas muy comprometidas, como Breitbart y Occupy Democrats, se volvieron menos visibles, señalaron los empleados.Era una visión de lo que podría ser un Facebook más tranquilo y menos polarizador. Algunos empleados argumentaron que el cambio debía ser permanente, aunque no estaba claro cómo podría afectar la cantidad de tiempo que la gente pasaba en Facebook. En una reunión de empleados celebrada la semana posterior a la elección, los trabajadores preguntaron si el “canal de noticias mejorado” podía mantenerse, dijeron dos personas que asistieron a la junta.Guy Rosen, un ejecutivo de Facebook que supervisa la división de integridad encargada de la limpieza de la plataforma, dijo durante una llamada con reporteros la semana pasada que los cambios siempre fueron temporales. “Nunca ha habido un plan para volverlos permanentes”, afirmó. John Hegeman, quien supervisa el canal de noticias, dijo en una entrevista que, aunque Facebook podría dar marcha atrás a estos experimentos, los analizaría y aprendería de ellos.El debate sobre las noticias ilustra una tensión central que algunos miembros de Facebook están sintiendo en la actualidad: que las aspiraciones de la compañía de mejorar el mundo a menudo están en conflicto con su deseo de dominio.En los últimos meses, a medida que Facebook ha sido objeto de un mayor escrutinio en cuanto a su papel en la amplificación de información falsa y divisiva, sus empleados se han enfrentado por el futuro de la empresa. Por un lado están los idealistas, incluyendo a muchos trabajadores de base y algunos ejecutivos, que quieren hacer más para limitar la desinformación y la polarización del contenido. Por otro lado están los pragmáticos, quienes temen que esas medidas puedan perjudicar el crecimiento de Facebook o provocar una reacción política que ocasione una regulación dolorosa.“Hay tensiones en casi todas las decisiones de productos que tomamos, y en toda la compañía hemos desarrollado una política llamada ‘Mejores decisiones’ para asegurarnos de que las tomamos con precisión, y que nuestros objetivos están directamente conectados con el hecho de ofrecer las mejores experiencias posibles para las personas”, dijo Joe Osborne, portavoz de Facebook.Estas batallas han afectado la moral. En una encuesta a los empleados aplicada este mes, los trabajadores de Facebook reportaron sentirse menos orgullosos de la compañía en comparación con años anteriores. Solo cerca de la mitad sentía que Facebook tenía un impacto positivo en el mundo, por debajo de las tres cuartas partes que opinaron eso a principios de este año, según una copia de la encuesta, conocida como Pulse, que fue analizada por The New York Times. La “intención de quedarse” de los empleados también disminuyó, así como la confianza en el liderazgo.BuzzFeed News informó previamente sobre los resultados del sondeo.Aunque el día de las elecciones y sus secuelas han pasado con pocos incidentes, algunos empleados desilusionados renunciaron; alegaron que ya no podían trabajar para una compañía cuyos productos creen que son perjudiciales. Otros se han quedado, bajo el razonamiento de que pueden cambiar las cosas desde el interior. Otros han hecho el cálculo moral de que, a final de cuentas, incluso con sus defectos, Facebook hace más bien que mal.“Los salarios de Facebook están entre los más altos del sector tecnológico en este momento, y cuando te vas a casa con un cheque gigante cada dos semanas, tienes que convencerte de que es por una buena causa”, comentó Gregor Hochmuth, exingeniero de Instagram, propiedad de Facebook, quien dejó la compañía en 2014. “De lo contrario, tu trabajo no es muy diferente del de otras industrias que destrozan el planeta y pagan a sus empleados de manera exorbitante para ayudarles a que se olviden de eso”.Con la mayoría de los empleados trabajando a distancia durante la pandemia, gran parte del examen de conciencia ha tenido lugar en Workplace, la red interna de Facebook.En mayo, al calor de las protestas de Black Lives Matter, Zuckerberg enfureció a muchos empleados cuando se negó a remover una publicación del presidente Trump que decía “cuando empieza el saqueo, empieza el tiroteo”. Los legisladores y los grupos de derechos civiles dijeron que la publicación impulsaba la violencia contra los manifestantes y pidieron que fuera retirada. Pero Zuckerberg dijo que la publicación no violaba las reglas de Facebook.Para señalar su insatisfacción, varios empleados formaron un nuevo grupo en Workplace, llamado “Take Action”. La gente en el grupo, que se incrementó hasta alcanzar más de 1500 miembros, cambiaron sus fotos de perfil a una imagen de un puño levantado de Black Lives Matter.El grupo se convirtió en un hogar para la disidencia interna y el humor negro sobre las debilidades de Facebook. En varias ocasiones, los empleados reaccionaron a las noticias negativas sobre la compañía publicando un meme de una escena de una comedia británica en la que dos nazis tienen una epifanía moral y se preguntan: “¿Somos los malos?”.En junio, los trabajadores organizaron un paro virtual para protestar por las decisiones de Zuckerberg sobre las publicaciones de Trump.En septiembre, Facebook actualizó sus políticas para los empleados con el fin de desalentar a los trabajadores de mantener debates políticos contenciosos en foros abiertos de Workplace, al decir que deberían limitar las conversaciones a espacios específicamente designados. También exigió a los empleados que usaran sus rostros reales o la primera inicial de sus nombres como la foto de su perfil, un cambio interpretado por algunos trabajadores como una medida represiva.Varios empleados dijeron que se sentían frustrados porque, para abordar temas delicados como la desinformación, a menudo tenían que demostrar que las soluciones propuestas no enojarían a los poderosos partidarios ni se harían a expensas del crecimiento de Facebook.Las ventajas y desventajas se evidenciaron este mes, cuando los ingenieros y científicos de datos de Facebook publicaron los resultados de una serie de experimentos llamados “P (Malo para el Mundo)”.La compañía había encuestado a los usuarios acerca de si ciertas publicaciones que habían visto eran “buenas para el mundo” o “malas para el mundo”. Encontraron que las publicaciones de alto alcance —vistas por muchos usuarios— tenían más probabilidades de ser consideradas “malas para el mundo”, un hallazgo que algunos empleados dijeron que les alarmaba.Así que el equipo entrenó un algoritmo de aprendizaje automático para predecir los mensajes que los usuarios considerarían como “malos para el mundo” y rebajarlos en los canales de noticias. En las primeras pruebas, el nuevo algoritmo redujo con éxito la visibilidad de los contenidos censurables. Pero también redujo el número de veces que los usuarios abrieron Facebook, una métrica interna conocida como “sesiones” que los ejecutivos monitorean de cerca.“Los resultados fueron buenos, excepto que llevó a una disminución de las sesiones, lo que nos motivó a probar un enfoque diferente”, según un resumen de los resultados, que fue publicado en la red interna de Facebook y revisado por el Times.Luego, el equipo realizó un segundo experimento en el que ajustaron el algoritmo para que un conjunto más grande de contenido “malo para el mundo” fuera rebajado con menos fuerza. Aunque eso dejaba publicaciones controversiales en los canales de noticias de los usuarios, no reducía sus sesiones o el tiempo empleado.Ese cambio fue aprobado en última instancia. Pero otras características que los empleados desarrollaron antes de la elección nunca lo fueron.Una, llamada “corregir el registro”, habría notificado retroactivamente a los usuarios que habían interactuado con noticias falsas y los habría dirigido a una verificación independiente de los hechos. Los empleados de Facebook propusieron ampliar el producto, que actualmente se utiliza para notificar a las personas que han compartido información falsa sobre la COVID-19, para que se aplique a otros tipos de información falsa.Pero eso fue vetado por los ejecutivos de políticas que temían que mostrara desproporcionadamente las notificaciones a las personas que compartían noticias falsas de sitios web de derecha, según dos personas familiarizadas con las conversaciones.Otro producto, un algoritmo para clasificar y degradar el “cebo de odio” —publicaciones que no violan estrictamente las reglas de discurso de odio de Facebook, pero que provocan una avalancha de comentarios de odio— se limitó a ser utilizado solo en grupos, en lugar de páginas, después de que el equipo de políticas determinó que afectaría principalmente a los editores de derecha si se aplicaba más ampliamente, dijeron dos personas familiarizadas con esa estrategia.Rosen, el ejecutivo de integridad de Facebook, impugnó esas caracterizaciones en una entrevista, que se celebró con la condición de que no se le citara directamente.Dijo que la herramienta “corregir el registro” no era tan eficaz como se esperaba, y que la empresa había decidido centrarse en otras maneras de poner freno a la información errónea. También dijo que la aplicación del detector de “cebo de odio” a las páginas de Facebook podría castigar injustamente a los editores por los comentarios de odio dejados por sus seguidores, o hacer posible que los malos actores dañen el alcance de una página al enviar spam con comentarios tóxicos. Ninguno de los dos proyectos fue archivado por preocupaciones políticas o porque redujo el uso de Facebook, dijo.“Ningún cambio en el canal de noticias se realiza únicamente por su impacto en el tiempo empleado”, dijo Osborne, el portavoz de Facebook. Añadió que las personas que hablaron con el Times no tenían autoridad para tomar decisiones.De alguna manera, al final del gobierno de Trump, los cambios de Facebook para limpiar su plataforma se volverán más fáciles. Por años, Trump y otros líderes conservadores acusaron a la compañía de tener sesgos anticonservadores cada vez que tomaba medidas para limitar la desinformación.No obstante, incluso con el gobierno de Biden entrante, Facebook deberá equilibrar el deseo de los empleados de tener responsabilidad social con sus objetivos comerciales.“La pregunta es esta: ¿qué han aprendido de estas elecciones para dar forma a sus políticas en el futuro?”, opinó Vanita Gupta, directora ejecutiva del grupo de derechos civiles Leadership Conference on Civil and Human Rights. “Mi preocupación es que reviertan todos estos cambios a pesar de que las condiciones que los impulsaron se sigan presentando”.En una reunión virtual de empleados celebrada la semana pasada, los ejecutivos describieron lo que vieron como éxitos electorales de Facebook, dijeron dos personas que asistieron. Mientras que el sitio seguía lleno de publicaciones que afirmaban falsamente que la elección estaba amañada, Chris Cox, jefe de producto de Facebook, dijo que estaba orgulloso de cómo la compañía había aplicado etiquetas a la información errónea relacionada con la elección, e indicado a los usuarios la información autorizada sobre los resultados, dijeron las personas.Luego la transmisión se cortó para mostrar un video que era una suerte de refuerzo moral por el Día de Acción de Gracias y que presentaba un desfile de empleados que hablaban sobre lo que estaban agradecidos este año.Kevin Roose es columnista de tecnología para el Times. Su columna The Shift, analiza la intersección de la tecnología, los negocios y la cultura. Puedes encontrarlo en Twitter, LinkedIn, Facebook, o Instagram. • FacebookMike Isaac es reportero de tecnología y autor de Super Pumped: The Battle for Uber, que ha estado en la lista de los más vendidos del NYT sobre el dramático ascenso y caída de la compañía de transporte de pasajeros. Cubre regularmente Facebook y Silicon Valley, y tiene sede en el buró de San Francisco del Times. @MikeIsaacSheera Frenkel cubre temas de ciberseguridad desde San Francisco. Pasó más de una década en el Medio Oriente como corresponsal en el extranjero para BuzzFeed, NPR, The Times of London y los diarios McClatchy. @sheeraf More