More stories

  • in

    It's only fake-believe: how to deal with a conspiracy theorist

    Unless you’ve been on a silent retreat for the past year, you will have almost certainly heard the rumours – that the pandemic is an elaborate hoax, or that the virus was created as a Chinese weapon, or that dangerous elites are trying to kill off the elderly and to establish a new world order, or that the symptoms are caused by 5G.It is troubling enough to see these ideas on social media. But when you are hearing them from your family, your friends, or a casual acquaintance, it is even harder to know how to respond. You are going to struggle to convince the most committed believers, of course, but what about people who are only flirting with the ideas?These difficult conversations are only set to increase now that a new vaccine is on the horizon. Certain niches of internet are already rife with the “plandemic” theory, which alleges that the spread of the virus has been designed to create big bucks for pharmaceutical companies and the philanthropist Bill Gates (whose charity is funding many of the efforts). The idea has been debunked numerous times, whereas there is good evidence that conspiracy theorists such as David Icke are themselves reaping huge profits from spreading misinformation. The danger, of course, is that their ideas will discourage people from taking the vaccine, leaving them vulnerable to the actual disease. More

  • in

    Facebook se debate entre combatir la desinformación y no afectar su crecimiento

    SAN FRANCISCO — En los tensos días posteriores a la elección presidencial, un equipo de empleados de Facebook presentó al director ejecutivo, Mark Zuckerberg, un hallazgo alarmante: la desinformación relacionada con las elecciones se estaba volviendo viral en la plataforma.El presidente Donald Trump decía que la elección había sido amañada, y las historias de los medios de comunicación de derecha con afirmaciones falsas y engañosas sobre los votos desechados, los votos mal contados y los conteos sesgados estaban entre las noticias más populares de la plataforma.En respuesta, los empleados propusieron un cambio de emergencia en el algoritmo de noticias del sitio, que ayuda a determinar lo que más de 2000 millones de personas ven todos los días. Se trataba de hacer énfasis en la importancia de lo que Facebook denomina puntuaciones de “calidad del ecosistema de noticias”, o NEQ (por su sigla en inglés), una clasificación interna secreta que asigna a los medios noticiosos en función de las señales sobre la calidad de su periodismo.Por lo general, los puntajes NEQ desempeñan un papel menor en la determinación de lo que aparece en los muros de los usuarios. Sin embargo, varios días después de la elección, Zuckerberg acordó aumentar el peso que el algoritmo de Facebook le dio a los puntajes NEQ para asegurarse de que las noticias autorizadas aparecieran de manera más prominente, según dijeron tres personas que tienen información sobre la decisión y que no están autorizadas a divulgar las discusiones internas.El cambio forma parte de los planes de “remodelación” que Facebook desarrolló durante meses para lidiar con las secuelas de una elección disputada. Dio como resultado un aumento de visibilidad para grandes medios como CNN, The New York Times y NPR, mientras que los mensajes de páginas hiperpartidistas muy comprometidas, como Breitbart y Occupy Democrats, se volvieron menos visibles, señalaron los empleados.Era una visión de lo que podría ser un Facebook más tranquilo y menos polarizador. Algunos empleados argumentaron que el cambio debía ser permanente, aunque no estaba claro cómo podría afectar la cantidad de tiempo que la gente pasaba en Facebook. En una reunión de empleados celebrada la semana posterior a la elección, los trabajadores preguntaron si el “canal de noticias mejorado” podía mantenerse, dijeron dos personas que asistieron a la junta.Guy Rosen, un ejecutivo de Facebook que supervisa la división de integridad encargada de la limpieza de la plataforma, dijo durante una llamada con reporteros la semana pasada que los cambios siempre fueron temporales. “Nunca ha habido un plan para volverlos permanentes”, afirmó. John Hegeman, quien supervisa el canal de noticias, dijo en una entrevista que, aunque Facebook podría dar marcha atrás a estos experimentos, los analizaría y aprendería de ellos.El debate sobre las noticias ilustra una tensión central que algunos miembros de Facebook están sintiendo en la actualidad: que las aspiraciones de la compañía de mejorar el mundo a menudo están en conflicto con su deseo de dominio.En los últimos meses, a medida que Facebook ha sido objeto de un mayor escrutinio en cuanto a su papel en la amplificación de información falsa y divisiva, sus empleados se han enfrentado por el futuro de la empresa. Por un lado están los idealistas, incluyendo a muchos trabajadores de base y algunos ejecutivos, que quieren hacer más para limitar la desinformación y la polarización del contenido. Por otro lado están los pragmáticos, quienes temen que esas medidas puedan perjudicar el crecimiento de Facebook o provocar una reacción política que ocasione una regulación dolorosa.“Hay tensiones en casi todas las decisiones de productos que tomamos, y en toda la compañía hemos desarrollado una política llamada ‘Mejores decisiones’ para asegurarnos de que las tomamos con precisión, y que nuestros objetivos están directamente conectados con el hecho de ofrecer las mejores experiencias posibles para las personas”, dijo Joe Osborne, portavoz de Facebook.Estas batallas han afectado la moral. En una encuesta a los empleados aplicada este mes, los trabajadores de Facebook reportaron sentirse menos orgullosos de la compañía en comparación con años anteriores. Solo cerca de la mitad sentía que Facebook tenía un impacto positivo en el mundo, por debajo de las tres cuartas partes que opinaron eso a principios de este año, según una copia de la encuesta, conocida como Pulse, que fue analizada por The New York Times. La “intención de quedarse” de los empleados también disminuyó, así como la confianza en el liderazgo.BuzzFeed News informó previamente sobre los resultados del sondeo.Aunque el día de las elecciones y sus secuelas han pasado con pocos incidentes, algunos empleados desilusionados renunciaron; alegaron que ya no podían trabajar para una compañía cuyos productos creen que son perjudiciales. Otros se han quedado, bajo el razonamiento de que pueden cambiar las cosas desde el interior. Otros han hecho el cálculo moral de que, a final de cuentas, incluso con sus defectos, Facebook hace más bien que mal.“Los salarios de Facebook están entre los más altos del sector tecnológico en este momento, y cuando te vas a casa con un cheque gigante cada dos semanas, tienes que convencerte de que es por una buena causa”, comentó Gregor Hochmuth, exingeniero de Instagram, propiedad de Facebook, quien dejó la compañía en 2014. “De lo contrario, tu trabajo no es muy diferente del de otras industrias que destrozan el planeta y pagan a sus empleados de manera exorbitante para ayudarles a que se olviden de eso”.Con la mayoría de los empleados trabajando a distancia durante la pandemia, gran parte del examen de conciencia ha tenido lugar en Workplace, la red interna de Facebook.En mayo, al calor de las protestas de Black Lives Matter, Zuckerberg enfureció a muchos empleados cuando se negó a remover una publicación del presidente Trump que decía “cuando empieza el saqueo, empieza el tiroteo”. Los legisladores y los grupos de derechos civiles dijeron que la publicación impulsaba la violencia contra los manifestantes y pidieron que fuera retirada. Pero Zuckerberg dijo que la publicación no violaba las reglas de Facebook.Para señalar su insatisfacción, varios empleados formaron un nuevo grupo en Workplace, llamado “Take Action”. La gente en el grupo, que se incrementó hasta alcanzar más de 1500 miembros, cambiaron sus fotos de perfil a una imagen de un puño levantado de Black Lives Matter.El grupo se convirtió en un hogar para la disidencia interna y el humor negro sobre las debilidades de Facebook. En varias ocasiones, los empleados reaccionaron a las noticias negativas sobre la compañía publicando un meme de una escena de una comedia británica en la que dos nazis tienen una epifanía moral y se preguntan: “¿Somos los malos?”.En junio, los trabajadores organizaron un paro virtual para protestar por las decisiones de Zuckerberg sobre las publicaciones de Trump.En septiembre, Facebook actualizó sus políticas para los empleados con el fin de desalentar a los trabajadores de mantener debates políticos contenciosos en foros abiertos de Workplace, al decir que deberían limitar las conversaciones a espacios específicamente designados. También exigió a los empleados que usaran sus rostros reales o la primera inicial de sus nombres como la foto de su perfil, un cambio interpretado por algunos trabajadores como una medida represiva.Varios empleados dijeron que se sentían frustrados porque, para abordar temas delicados como la desinformación, a menudo tenían que demostrar que las soluciones propuestas no enojarían a los poderosos partidarios ni se harían a expensas del crecimiento de Facebook.Las ventajas y desventajas se evidenciaron este mes, cuando los ingenieros y científicos de datos de Facebook publicaron los resultados de una serie de experimentos llamados “P (Malo para el Mundo)”.La compañía había encuestado a los usuarios acerca de si ciertas publicaciones que habían visto eran “buenas para el mundo” o “malas para el mundo”. Encontraron que las publicaciones de alto alcance —vistas por muchos usuarios— tenían más probabilidades de ser consideradas “malas para el mundo”, un hallazgo que algunos empleados dijeron que les alarmaba.Así que el equipo entrenó un algoritmo de aprendizaje automático para predecir los mensajes que los usuarios considerarían como “malos para el mundo” y rebajarlos en los canales de noticias. En las primeras pruebas, el nuevo algoritmo redujo con éxito la visibilidad de los contenidos censurables. Pero también redujo el número de veces que los usuarios abrieron Facebook, una métrica interna conocida como “sesiones” que los ejecutivos monitorean de cerca.“Los resultados fueron buenos, excepto que llevó a una disminución de las sesiones, lo que nos motivó a probar un enfoque diferente”, según un resumen de los resultados, que fue publicado en la red interna de Facebook y revisado por el Times.Luego, el equipo realizó un segundo experimento en el que ajustaron el algoritmo para que un conjunto más grande de contenido “malo para el mundo” fuera rebajado con menos fuerza. Aunque eso dejaba publicaciones controversiales en los canales de noticias de los usuarios, no reducía sus sesiones o el tiempo empleado.Ese cambio fue aprobado en última instancia. Pero otras características que los empleados desarrollaron antes de la elección nunca lo fueron.Una, llamada “corregir el registro”, habría notificado retroactivamente a los usuarios que habían interactuado con noticias falsas y los habría dirigido a una verificación independiente de los hechos. Los empleados de Facebook propusieron ampliar el producto, que actualmente se utiliza para notificar a las personas que han compartido información falsa sobre la COVID-19, para que se aplique a otros tipos de información falsa.Pero eso fue vetado por los ejecutivos de políticas que temían que mostrara desproporcionadamente las notificaciones a las personas que compartían noticias falsas de sitios web de derecha, según dos personas familiarizadas con las conversaciones.Otro producto, un algoritmo para clasificar y degradar el “cebo de odio” —publicaciones que no violan estrictamente las reglas de discurso de odio de Facebook, pero que provocan una avalancha de comentarios de odio— se limitó a ser utilizado solo en grupos, en lugar de páginas, después de que el equipo de políticas determinó que afectaría principalmente a los editores de derecha si se aplicaba más ampliamente, dijeron dos personas familiarizadas con esa estrategia.Rosen, el ejecutivo de integridad de Facebook, impugnó esas caracterizaciones en una entrevista, que se celebró con la condición de que no se le citara directamente.Dijo que la herramienta “corregir el registro” no era tan eficaz como se esperaba, y que la empresa había decidido centrarse en otras maneras de poner freno a la información errónea. También dijo que la aplicación del detector de “cebo de odio” a las páginas de Facebook podría castigar injustamente a los editores por los comentarios de odio dejados por sus seguidores, o hacer posible que los malos actores dañen el alcance de una página al enviar spam con comentarios tóxicos. Ninguno de los dos proyectos fue archivado por preocupaciones políticas o porque redujo el uso de Facebook, dijo.“Ningún cambio en el canal de noticias se realiza únicamente por su impacto en el tiempo empleado”, dijo Osborne, el portavoz de Facebook. Añadió que las personas que hablaron con el Times no tenían autoridad para tomar decisiones.De alguna manera, al final del gobierno de Trump, los cambios de Facebook para limpiar su plataforma se volverán más fáciles. Por años, Trump y otros líderes conservadores acusaron a la compañía de tener sesgos anticonservadores cada vez que tomaba medidas para limitar la desinformación.No obstante, incluso con el gobierno de Biden entrante, Facebook deberá equilibrar el deseo de los empleados de tener responsabilidad social con sus objetivos comerciales.“La pregunta es esta: ¿qué han aprendido de estas elecciones para dar forma a sus políticas en el futuro?”, opinó Vanita Gupta, directora ejecutiva del grupo de derechos civiles Leadership Conference on Civil and Human Rights. “Mi preocupación es que reviertan todos estos cambios a pesar de que las condiciones que los impulsaron se sigan presentando”.En una reunión virtual de empleados celebrada la semana pasada, los ejecutivos describieron lo que vieron como éxitos electorales de Facebook, dijeron dos personas que asistieron. Mientras que el sitio seguía lleno de publicaciones que afirmaban falsamente que la elección estaba amañada, Chris Cox, jefe de producto de Facebook, dijo que estaba orgulloso de cómo la compañía había aplicado etiquetas a la información errónea relacionada con la elección, e indicado a los usuarios la información autorizada sobre los resultados, dijeron las personas.Luego la transmisión se cortó para mostrar un video que era una suerte de refuerzo moral por el Día de Acción de Gracias y que presentaba un desfile de empleados que hablaban sobre lo que estaban agradecidos este año.Kevin Roose es columnista de tecnología para el Times. Su columna The Shift, analiza la intersección de la tecnología, los negocios y la cultura. Puedes encontrarlo en Twitter, LinkedIn, Facebook, o Instagram. • FacebookMike Isaac es reportero de tecnología y autor de Super Pumped: The Battle for Uber, que ha estado en la lista de los más vendidos del NYT sobre el dramático ascenso y caída de la compañía de transporte de pasajeros. Cubre regularmente Facebook y Silicon Valley, y tiene sede en el buró de San Francisco del Times. @MikeIsaacSheera Frenkel cubre temas de ciberseguridad desde San Francisco. Pasó más de una década en el Medio Oriente como corresponsal en el extranjero para BuzzFeed, NPR, The Times of London y los diarios McClatchy. @sheeraf More

  • in

    If you think Biden's administration would rein in big tech, think again | John Naughton

    Before the US presidential election I wondered aloud if Mark Zuckerberg had concluded that the re-election of Trump might be better for Facebook than a Biden victory. There were several reasons for thinking this. One was the strange way Zuckerberg appeared to be sucking up to Trump: at least one private dinner in the White House; the way he jumped on to Fox News when Twitter first placed a warning on a Trump tweet to say that Facebook would not be doing stuff like that; and the majority report of the House subcommittee on tech monopolies, in which it was clear that the Democrats had it in for the companies.But the most significant piece of evidence for the belief that a Biden administration would finally tackle the tech giants, and Facebook in particular, came in the long interview Biden gave last January to the New York Times, in which he was highly critical of the company.“I’ve never been a big Zuckerberg fan,” Biden said. “I think he’s a real problem … I’ve been in the view that not only should we be worrying about the concentration of power, we should be worried about the lack of privacy and them being exempt, which you’re not exempt. [The New York Times] can’t write something you know to be false and be exempt from being sued. But he can. The idea that it’s a tech company is that Section 230 should be revoked, immediately should be revoked, number one. For Zuckerberg and other platforms.” As readers of this column know only too well, section 230 of the 1996 US Telecommunications Act is the clause that exempts tech platforms from legal liability for anything that users post on their platforms. It’s the nearest thing social media has to a kill switch. Pull it and their business models evaporate. Trump had been threatening to pull it before the election, but he lacked the attention span to be able to do anything about it. Biden, on the other hand, had already talked about it in January and would have people around him who knew what they were doing. So maybe we were going to get some real progress in getting tech giants under control.And then he gets elected and what do we find? Biden’s transition eam is packed with tech industry insiders. Tom Sullivan, from Amazon, is earmarked for the Department of State. Mark Schwartz, also from Amazon, is heading for the Office of Management and Budget, as are Divya Kumaraiah from Airbnb and Brandon Belford from Lyft, the ride-hailing company. The US Treasury gets Nicole Isaac from LinkedIn, Microsoft’s department of spam, and Will Fields, who was Sidewalk Labs’ senior development associate. (Sidewalk Labs was the organiser of Google’s attempt – eventually cancelled – to turn Toronto’s waterfront into a data-geyser for surveillance capitalism.) The Environmental Protection Agency, a body that Trump looted and sidelined, gets Ann Dunkin, who is Dell’s chief technology officer. And so on.Well, I thought, perusing this sordid list, at least there’s nobody from Facebook on it. How innocent can you be? Politico reveals that the joint chair of Biden’s transition team, Jeff Zients, is a former Facebook board member. Another former board member is an adviser. And two others, one who was a Facebook director and another who was a company lobbyist, have, according to Politico “taken leadership roles”. And then, to cap it all, it turns out that Biden himself has a friendly relationship with a guy called Nick Clegg, who was once a serious politician and now doubles as Mark Zuckerberg’s bagman and representative on Earth.Truly, you couldn’t make this up. And just to add a touch of satire to it, the woman who is now a heartbeat away from the presidency, Kamala Harris, has a career-long record of cosying up to Silicon Valley. She participated, for example, in the marketing campaign for Lean In, Sheryl Sandberg’s anthem of capitalist feminism, even though at the time Harris was California’s law enforcement official most responsible for overseeing Facebook. As the state’s attorney general, she took a semi-comatose view of the way the big tech companies were allowed to gobble up potential rivals and bulldoze their way into new industries. Facebook’s controversial acquisitions of WhatsApp and Instagram, perhaps the most obvious anti-competitive mergers in the short history of the tech industry, happened on her watch and triggered no regulatory reflex. If Silicon Valley could be said to have a darling, then Ms Harris is it. And all those campaign donations from tech companies and moguls may turn out to have been a shrewd investment after all.Given these sobering circumstances, how should we calculate the odds of a Biden administration taking on the power of the tech giants? The answer: slightly better than those of a snowball staying cool in hell. But only slightly.What I’ve been readingIs 2020 just a taster?Graeme Wood has written a riveting essay, titled The Next Decade Could Be Even Worse, on the work of Peter Turchin, a quantitative historian who believes he has discovered iron laws that predict the rise and fall of societies.Birth of an iNationWhat if we viewed tech giants as countries? A thoughtful essay in Tortoise Media considers Apple as a one-party state as secretive as China. But more liberal. Phew!Is less Moore?I enjoyed a lovely post by Venkatesh Rao on the Ribbonfarm blog, about the mindset induced by living in a world governed by Moore’s Law. More

  • in

    Facebook and Twitter CEOs face Senate hearing over handling of 2020 US election – video

    The chief executive officers of Twitter and Facebook appear before a US Senate hearing to testify about allegations of anti-conservative bias and their handling of the 2020 election. Jack Dorsey and Mark Zuckerberg face questioning for the second time in as many months, with Republican lawmakers alleging – without evidence – censorship of conservative views
    Twitter and Facebook CEOs testify on alleged anti-conservative bias More

  • in

    The misinformation media machine amplifying Trump's election lies

    The networks have made their calls, world leaders have begun paying their respects, and even Fox News and Rupert Murdoch’s other media outlets appear to have given up on a second term for Donald Trump. But in a video posted on Facebook on 7 November and viewed more than 16.5m times since, NewsMax host and former Trump administration official Carl Higbie spends three minutes spewing a laundry list of false and debunked claims casting doubt on the outcome of the presidential election.
    “I believe it’s time to hold the line,” said Higbie, who resigned from his government post over an extensive track record of racist, homophobic and bigoted remarks, to the Trump faithful. “I’m highly skeptical and you should be too.”
    [embedded content]
    The video, which has been shared more than 350,000 times on Facebook, is just one star in a constellation of pro-Trump misinformation that is leading millions of Americans to doubt or reject the results of the presidential election. Fully 70% of Republicans believe that the election was not “free and fair”, according to a Politico/Morning Consult poll conducted since election day. Among those doubters, large majorities believe two of Trump’s most brazen lies: that mail-in voting leads to fraud and that ballots were tampered with.
    Trump himself is the largest source of election misinformation; the president has barely addressed the public since Tuesday except to share lies and misinformation about the election. But his message attacking the electoral process is being amplified by a host of rightwing media outlets and pundits who appear to be jockeying to replace Fox News as the outlet of choice for Trumpists – and metastasizing on platforms such as Facebook and YouTube.
    Since election day, 16 of the top 20 public Facebook posts that include the word “election” feature false or misleading information casting doubt on the election in favor of Trump, according to a Guardian analysis of posts with the most interactions using CrowdTangle, a Facebook-owned analytics tool. Of those, 13 are posts by the president’s own page, one is a direct quote from Trump published by Fox News, one is by the rightwing evangelical Christian Franklin Graham, and the last is the Newsmax Higbie video.
    The four posts that do not include misinformation are congratulatory messages by Barack Obama and Michelle Obama for Biden and Kamala Harris and two posts by Graham, including a request for prayers for Trump and a remembrance by Graham of his father, the televangelist Billy Graham.
    On YouTube, hosts such as Steven Crowder, a conservative YouTuber with more than 5 million followers, have also been pushing out content questioning the election results. A video from Crowder called Live Updates: Democrats Try to Steal the Election was viewed 5m times, and a nearly two-hour video headlined Fox News is NOT your friend has already racked up more than a million views. More

  • in

    Despair or denial – are these the only options in the run-up to election night? | Emma Brockes

    Four days out from the US election, and everyone is feeling tired and emotional. It is hard to focus, easy to agonise, and soothing – if the volume of pain on social media is anything to go by – to share with the group one’s inability to function. This is not limited to people living in the US, but – as with the recent death of Ruth Bader Ginsburg and ascent of Amy Coney Barrett to the supreme court – is felt by plenty of observers abroad as acute and very personal pain. People are, by their own admission, weeping, paralyzed, grief-stricken, terrified, frozen, nauseous and bingeing. You can’t turn it off. There is no escape.
    At least this is the impression one gets after spending too long online. How we live psychologically in relation to the news is something we are assumed not to have much control over. You can be an ostrich and happy or that guy trapped in a feedback loop of conspiracy theories on Facebook – but nobody wants to be him. Or you can be informed and miserable, on which count not feeling completely dismantled at the moment is a dereliction of civic duty. Who runs the US affects the rest of the world, and it is not outlandish for Brits – or, say, affluent New Yorkers, insulated from the worst effects of a Trump re-election – to be emotionally disturbed ahead of the election. What remains curious is whether the sheer levels of reported distress are to any degree optional, or entirely related to the trauma at hand.
    If I put down my immediate worries, I can, within about three mental leaps, get from Trump’s re-election to the ship sailing on climate breakdown, to the end of human civilisation, taking my descendants with it. The same goes for the domino run of panic around Coney Barrett’s confirmation on the supreme court, bringing with it the threat of reversals on abortion and marriage equality. These planes, always idling at the end of the runway, require a small amount of energy to get airborne, however, and with a bit of effort – staying off social media; narrowing my range of vision to the next 45 minutes – I can usually stop the thing taking off.
    The question is whether I should want to. Distress as a form of empathy is imagined to be a precursor to action, the necessary spur to political activity. Denial, meanwhile, is imagined only ever to foster apathy. I’m sure this is true in lots of contexts, and yet when we are powerless to do anything, as we are at this stage of the election, anxiety itself feels like a proxy for Doing Something, and a useless one at that. Fretting on Twitter might offer solace, but it risks exacerbating the very thing it seeks to remedy.
    And it’s an unreliable measure of anything much beyond one’s own temperature. The two sharpest responses I’ve had to an election were in 1997, when Tony Blair became prime minister, ending a Tory run that had lasted all but three years of my life, coinciding with the elation of graduating and the dawn of adult life, and seven years later, when George W Bush won a second term by defeating John Kerry. I was in Britain in 2004: the US election had nothing to do with me – or rather, it was less my concern than it would be in 2016, when Donald Trump became president of the country I lived in. But while Trump’s election was a terrible shock, I felt the disappointment of the Bush re-election more keenly. I was less politically jaded then, more inclined to believe things would turn out OK, and still recovering from the death of my mother. As in 97, my response to the election was more life than politics.
    There are broader injuries that perhaps can’t be dodged. For Americans, Trump has delivered a psychological blow in the form of besmirching the very idea of their country, an injury over-arching all others. And while, for reasons of self-preservation, it might make sense to skirt Twitter for a few days, you can’t entirely avoid these things. I used to sleepwalk – or sleep-bolt – something I haven’t done for 10 years. I am calm during the day, but one night this week, I woke up at 2.30am in my living room, eyes on the clock, heart racing, trying to figure out how I got there and why.
    • Emma Brockes is a Guardian columnist More

  • in

    'Who the hell elected you?' Big tech CEOs grilled in US Senate hearing – video

    Republican and Democrat lawmakers grill the CEOs of tech giants Twitter, Facebook and Google in a hearing about a federal law protecting internet companies from legal liability for content generated by its users. While Republicans focused on disinformation and the ‘censoring’ of Donald Trump, Democrats accused their rivals of politicising the hearing, while also questioning the mechanics of the platforms that promoted content they deemed divisive
    Republicans use congressional hearing to berate tech CEOs and claim Trump is ‘censored’ More