More stories

  • in

    Hey, Siri! Let’s Talk About How Apple Is Giving You an A.I. Makeover.

    Apple, a latecomer to artificial intelligence, has struck a deal with OpenAI and developed tools to improve its Siri voice assistant, which it is set to showcase on Monday.Each June, Apple unveils its newest software features for the iPhone at its futuristic Silicon Valley campus. But at its annual developer conference on Monday, the company will shine a spotlight on a feature that isn’t new: Siri, its talking assistant, which has been around for more than a decade.What will be different this time is the technology powering Siri: generative artificial intelligence.In recent months, Adrian Perica, Apple’s vice president of corporate development, has helped spearhead an effort to bring generative A.I. to the masses, said two people with knowledge of the work, who asked for anonymity because of the sensitivity of the effort.Mr. Perica and his colleagues have talked with leading A.I. companies, including Google and OpenAI, seeking a partner to help Apple deliver generative A.I. across its business. Apple recently struck a deal with OpenAI, which makes the ChatGPT chatbot, to fold its technology into the iPhone, two people familiar with the agreement said. It was still in talks with Google as of last week, two people familiar with the conversations said.That has helped lead to a more conversational and versatile version of Siri, which will be shown on Monday, three people familiar with the company said. Siri will be powered by a generative A.I. system developed by Apple, which will allow the talking assistant to chat rather than just respond to one question at a time. Apple will market its new A.I. capabilities as Apple Intelligence, a person familiar with the marketing plan said.Apple, OpenAI and Google declined to comment. Apple’s agreement with OpenAI was previously reported by The Information and Bloomberg, which also reported the name for Apple’s A.I. system.We are having trouble retrieving the article content.Please enable JavaScript in your browser settings.Thank you for your patience while we verify access. If you are in Reader mode please exit and log into your Times account, or subscribe for all of The Times.Thank you for your patience while we verify access.Already a subscriber? Log in.Want all of The Times? Subscribe. More

  • in

    Google Unveils A.I. for Predicting Behavior of Human Molecules

    The system, AlphaFold3, could accelerate efforts to understand the human body and fight disease.Artificial intelligence is giving machines the power to generate videos, write computer code and even carry on a conversation.It is also accelerating efforts to understand the human body and fight disease.On Wednesday, Google DeepMind, the tech giant’s central artificial intelligence lab, and Isomorphic Labs, a sister company, unveiled a more powerful version of AlphaFold, an artificial intelligence technology that helps scientists understand the behavior of the microscopic mechanisms that drive the cells in the human body.An early version of AlphaFold, released in 2020, solved a puzzle that had bedeviled scientists for more than 50 years. It was called “the protein folding problem.”Proteins are the microscopic molecules that drive the behavior of all living things. These molecules begin as strings of chemical compounds before twisting and folding into three-dimensional shapes that define how they interact with other microscopic mechanisms in the body.Biologists spent years or even decades trying to pinpoint the shape of individual proteins. Then AlphaFold came along. When a scientist fed this technology a string of amino acids that make up a protein, it could predict the three-dimensional shape within minutes.When DeepMind publicly released AlphaFold a year later, biologists began using it to accelerate drug discovery. Researchers at the University of California, San Francisco, used the technology as they worked to understand the coronavirus and prepare for similar pandemics. Others used it as they struggled to find remedies for malaria and Parkinson’s disease.The hope is that this kind of technology will significantly streamline the creation of new drugs and vaccines.A segment of a video from Google DeepMind demonstrating the new AlphaFold3 technology.Video by Google Deepmind“It tells us a lot more about how the machines of the cell interact,” said John Jumper, a Google DeepMind researcher. “It tells us how this should work and what happens when we get sick.”The new version of AlphaFold — AlphaFold3 — extends the technology beyond protein folding. In addition to predicting the shapes of proteins, it can predict the behavior of other microscopic biological mechanisms, including DNA, where the body stores genetic information, and RNA, which transfers information from DNA to proteins.“Biology is a dynamic system. You need to understand the interactions between different molecules and structures,” said Demis Hassabis, Google DeepMind’s chief executive and the founder of Isomorphic Labs, which Google also owns. “This is a step in that direction.”Demis Hassabis, Google DeepMind’s chief executive and the founder of Isomorphic Labs.Taylor Hill/Getty ImagesThe company is offering a website where scientists can use AlphaFold3. Other labs, most notably one at the University of Washington, offer similar technology. In a paper released on Tuesday in the scientific journal Nature, Dr. Jumper and his fellow researchers show that it achieves a level of accuracy well beyond the state of the art.The technology could “save months of experimental work and enable research that was previously impossible,” said Deniz Kavi, a co-founder and the chief executive of Tamarind Bio, a start-up that builds technology for accelerating drug discovery. “This represents tremendous promise.” More

  • in

    Maryland Passes 2 Major Privacy Bills, Despite Tech Industry Pushback

    One bill would require apps like Instagram and TikTok to prioritize young people’s safety and the other would restrict the collection of consumer data.The Maryland Legislature this weekend passed two sweeping privacy bills that aim to restrict how powerful tech platforms can harvest and use the personal data of consumers and young people — despite strong objections from industry trade groups representing giants like Amazon, Google and Meta.One bill, the Maryland Online Data Privacy Act, would impose wide-ranging restrictions on how companies may collect and use the personal data of consumers in the state. The other, the Maryland Kids Code, would prohibit certain social media, video game and other online platforms from tracking people under 18 and from using manipulative techniques — like auto-playing videos or bombarding children with notifications — to keep young people glued online.“We are making a statement to the tech industry, and to Marylanders, that we need to rein in some of this data gathering,” said Delegate Sara Love, a Democratic member of the Maryland House of Delegates. Ms. Love, who sponsored the consumer bill and cosponsored the children’s bill, described the passage of the two measures as a “huge” privacy milestone, adding: “We need to put up some guardrails to protect our consumers.”The new rules require approval by Gov. Wes Moore of Maryland, a Democrat, who has not taken a public stance on the measures.With the passage of the bills, Maryland joins a small number of states including California, Connecticut, Texas and Utah that have enacted both comprehensive privacy legislation and children’s online privacy or social media safeguards. But the tech industry has challenged some of the new laws.Over the last year, NetChoice, a tech industry trade group representing Amazon, Google and Meta, has successfully sued to halt children’s online privacy or social media restrictions in several states, arguing that the laws violated its members’ constitutional rights to freely distribute information.We are having trouble retrieving the article content.Please enable JavaScript in your browser settings.Thank you for your patience while we verify access. If you are in Reader mode please exit and log into your Times account, or subscribe for all of The Times.Thank you for your patience while we verify access.Already a subscriber? Log in.Want all of The Times? Subscribe. More

  • in

    Chinese National Accused of Stealing AI Secrets From Google

    Linwei Ding, a Chinese national, was arrested in California and accused of uploading hundreds of files to the cloud.A Chinese citizen who recently quit his job as a software engineer for Google in California has been charged with trying to transfer artificial intelligence technology to a Beijing-based company that paid him secretly, according to a federal indictment unsealed on Wednesday.Prosecutors accused Linwei Ding, who was part of the team that designs and maintains Google’s vast A.I. supercomputer data system, of stealing information about the “architecture and functionality” of the system, and of pilfering software used to “orchestrate” supercomputers “at the cutting edge of machine learning and A.I. technology.”From May 2022 to May 2023, Mr. Ding, also known as Leon, uploaded 500 files, many containing trade secrets, from his Google-issued laptop to the cloud by using a multistep scheme that allowed him to “evade immediate detection,” according to the U.S. attorney’s office for the Northern District of California.Mr. Ding was arrested on Wednesday morning at his home in Newark, Calif., not far from Google’s sprawling main campus in Mountain View, officials said.Starting in June 2022, Mr. Ding was paid $14,800 per month — plus a bonus and company stock — by a China-based technology company, without telling his supervisors at Google, according to the indictment. He is also accused of working with another company in China.Mr. Ding openly sought funding for a new A.I. start-up company he had incorporated at an investor conference in Beijing in November, boasting that “we have experience with Google’s 10,000-card computational power platform; we just need to replicate and upgrade it,” prosecutors said in the indictment, which was unsealed in San Francisco federal court.We are having trouble retrieving the article content.Please enable JavaScript in your browser settings.Thank you for your patience while we verify access. If you are in Reader mode please exit and log into your Times account, or subscribe for all of The Times.Thank you for your patience while we verify access.Already a subscriber? Log in.Want all of The Times? Subscribe. More

  • in

    Google Joins Effort to Help Spot Content Made With A.I.

    The tech company’s plan is similar to one announced two days earlier by Meta, another Silicon Valley giant.Google, whose work in artificial intelligence helped make A.I.-generated content far easier to create and spread, now wants to ensure that such content is traceable as well.The tech giant said on Thursday that it was joining an effort to develop credentials for digital content, a sort of “nutrition label” that identifies when and how a photograph, a video, an audio clip or another file was produced or altered — including with A.I. The company will collaborate with companies like Adobe, the BBC, Microsoft and Sony to fine-tune the technical standards.The announcement follows a similar promise announced on Tuesday by Meta, which like Google has enabled the easy creation and distribution of artificially generated content. Meta said it would promote standardized labels that identified such material.Google, which spent years pouring money into its artificial intelligence initiatives, said it would explore how to incorporate the digital certification into its own products and services, though it did not specify its timing or scope. Its Bard chatbot is connected to some of the company’s most popular consumer services, such as Gmail and Docs. On YouTube, which Google owns and which will be included in the digital credential effort, users can quickly find videos featuring realistic digital avatars pontificating on current events in voices powered by text-to-speech services.Recognizing where online content originates and how it changes is a high priority for lawmakers and tech watchdogs in 2024, when billions of people will vote in major elections around the world. After years of disinformation and polarization, realistic images and audio produced by artificial intelligence and unreliable A.I. detection tools caused people to further doubt the authenticity of things they saw and heard on the internet.Configuring digital files to include a verified record of their history could make the digital ecosystem more trustworthy, according to those who back a universal certification standard. Google is joining the steering committee for one such group, the Coalition for Content Provenance and Authenticity, or C2PA. The C2PA standards have been supported by news organizations such as The New York Times as well as by camera manufacturers, banks and advertising agencies.We are having trouble retrieving the article content.Please enable JavaScript in your browser settings.Thank you for your patience while we verify access. If you are in Reader mode please exit and log into your Times account, or subscribe for all of The Times.Thank you for your patience while we verify access.Already a subscriber? Log in.Want all of The Times? Subscribe. More

  • in

    Technology Companies Are Cutting Jobs and Wall Street Likes It

    The sector is laying off workers after a hiring boom during the pandemic and their share prices are soaring. Tech giants like Microsoft have continued to cut jobs, even after carrying out a wave of layoffs last year.Caroline Brehman/EPA, via ShutterstockTech giants are set to report quarterly earnings, starting on Tuesday with Alphabet and Microsoft. Wall Street is expecting good news, including more progress on artificial intelligence.But the industry has also relied on another strategy to improve financials: layoffs. The cuts aren’t as widespread as last year, when hundreds of thousands of jobs were eliminated. But they’re a reminder that the tech sector is still trying to find its footing after a boom in hiring during the coronavirus pandemic and finding ways to preserve dizzying stock gains.About 100 companies have cut 25,000 positions this year, according to Layoffs.fyi. By comparison, more than 1,000 companies eliminated about 260,000 last year.So far this month: Microsoft announced 1,900 cuts in its video game division, including at its recently acquired Activision Blizzard; Google laid off hundreds of employees, including in its engineering ranks and its hardware division; and Amazon said it was laying off hundreds, including 35 percent of the work force at its Twitch unit.Not all layoffs are the same, The Times notes:For big tech companies, job cuts have been a way to reduce spending on noncore operations and extract the kind of cost savings that Wall Street loves. Now, those cuts are more targeted: In the case of Meta, that means reducing the number of middle managers at Instagram.For smaller tech businesses, it’s more a matter of survival. Start-ups have been finding it harder to raise capital as risk-averse venture capitalists keep their wallets closed. In the words of Nabeel Hyatt, a general partner at Spark Capital, these fledgling companies “are just trying to gain runway to survive.”The cuts will probably continue so long as investors love them. Wall Street has rewarded tech companies that laid off thousands with higher stock prices. Meta’s shares have soared since it embarked on a self-described “year of efficiency” last year that has made it a third slimmer employee-wise. Those cost savings, coupled with a redoubled bet on A.I., has helped push the tech giant’s market value to over $1 trillion.And venture capitalists have told DealBook that they’re ready to invest in start-ups — but that it helps if those companies have made themselves leaner. That, the investors say, will enable them to operate better in potentially difficult times.In other layoff news: Some tech workers are filming their layoffs and posting them on social media, in the name of catharsis and transparency.HERE’S WHAT’S HAPPENING Boeing withdraws efforts to expedite safety approval for a version of its 737 Max jet. The aircraft manufacturer revoked an application it made last year seeking an exemption from a safety standard for a version of its 737 Max 7. Separately, Boeing received some good news amid its latest crisis: The European airline Ryanair, one of its biggest customers, said it would buy more planes if U.S. carriers dropped their orders.We are having trouble retrieving the article content.Please enable JavaScript in your browser settings.Thank you for your patience while we verify access. If you are in Reader mode please exit and log into your Times account, or subscribe for all of The Times.Thank you for your patience while we verify access.Already a subscriber?  More

  • in

    A Crisis at Gaza’s Hospitals, and More

    The New York Times Audio app is home to journalism and storytelling, and provides news, depth and serendipity. If you haven’t already, download it here — available to Times news subscribers on iOS — and sign up for our weekly newsletter.The Headlines brings you the biggest stories of the day from the Times journalists who are covering them, all in about 10 minutes.The Indonesian Hospital in Gaza earlier this month. The enclave has 36 hospitals.Anas al-Shareef/ReutersOn Today’s Episode:Critical Trauma Care Is Not Possible at Any of Gaza’s Hospitals, the W.H.O. Says, by Farnaz FassihiFederal Court Moves to Drastically Weaken Voting Rights Act, by Nick Corasaniti‘Lost Time for No Reason’: How Driverless Taxis Are Stressing Cities, by Yiwen LuEmily Lang More

  • in

    Trump me atacó. Después, Musk lo hizo. No fue casualidad

    Timo LenzenCuando trabajaba en Twitter, ahora conocida como X, dirigí al equipo que puso por primera vez una etiqueta de verificación de hechos en uno de los tuits de Donald Trump. Tras la violencia del 6 de enero, ayudé a tomar la decisión de suspender su cuenta en Twitter. Nada me preparó para lo que ocurriría después.Respaldado por sus seguidores en las redes sociales, Trump me atacó públicamente. Dos años después, tras su adquisición de Twitter y después de que yo dimití de mi puesto como responsable de confianza y seguridad de la empresa, Elon Musk echó más leña al fuego. He vivido con guardias armados en la puerta de mi casa y he tenido que trastocar la vida de mi familia, así como esconderme durante meses y mudarme una y otra vez.No es una historia que me guste recordar. Pero he aprendido que lo que me ocurrió no fue casualidad. No fue solo una venganza personal o la “cultura de la cancelación”. Se trató de una estrategia que no solo afecta a personas específicas, como en mi caso, sino a todos nosotros, ya que está cambiando a gran velocidad lo que vemos en internet.Los individuos —desde investigadores académicos hasta trabajadores de empresas de tecnología— son cada vez más objeto de demandas, comparecencias ante el Congreso y despiadados ataques en línea. Estos ataques, organizados en gran medida por la derecha, están teniendo el efecto deseado: las universidades están reduciendo sus esfuerzos para cuantificar la información abusiva y engañosa que se difunde en internet. Las empresas de redes sociales están evitando tomar el tipo de decisiones difíciles que mi equipo tomó cuando intervinimos ante las mentiras de Trump sobre las elecciones de 2020. Las plataformas no empezaron a tomarse en serio estos riesgos sino hasta después de las elecciones de 2016. Ahora, ante la posibilidad de ataques desproporcionados contra sus empleados, las empresas parecen cada vez más reacias a tomar decisiones controvertidas, lo cual permite que la desinformación y el abuso se enconen para evitar provocar represalias públicas.Estos ataques a la seguridad en internet se producen en un momento en el que la democracia no podría estar más en riesgo. En 2024, está prevista la celebración de más de 40 elecciones importantes, entre ellas las de Estados Unidos, la Unión Europea, la India, Ghana y México. Lo más probable es que estas democracias se enfrenten a los mismos riesgos de campañas de desinformación respaldadas por los gobiernos y de incitación a la violencia en línea que han plagado las redes sociales durante años. Deberíamos preocuparnos por lo que ocurra.Mi historia comienza con esa verificación de datos. En la primavera de 2020, tras años de debate interno, mi equipo decidió que Twitter debía aplicar una etiqueta a un tuit del entonces presidente Trump que afirmaba que el voto por correo era propenso al fraude y que las próximas elecciones estarían “amañadas”. “Conoce los hechos sobre la votación por correo”, decía la etiqueta.El 27 de mayo, la mañana siguiente a la colocación de la etiqueta, la asesora principal de la Casa Blanca, Kellyanne Conway, me identificó de manera pública como el director del equipo de integridad de Twitter. Al día siguiente, The New York Post publicó en su portada varios tuits en los que me burlaba de Trump y otros republicanos. Los había publicado años antes, cuando era estudiante y tenía pocos seguidores, sobre todo amigos y familiares, en las redes sociales. Ahora, eran noticia de primera plana. Ese mismo día, Trump tuiteó que yo era un “odiador”.Legiones de usuarios de Twitter, la mayoría de quienes días antes no tenían ni idea de quién era yo ni en qué consistía mi trabajo, comenzaron una campaña de acoso en línea que duró meses, en la que exigían que me despidieran, me encarcelaran o me mataran. La cantidad de notificaciones de Twitter arrunió mi teléfono. Amigos de los que no tenía noticias desde hacía años expresaron su preocupación. En Instagram, fotos antiguas de mis vacaciones y de mi perro se inundaron de comentarios amenazantes e insultos (algunos comentaristas, que malinterpretaron el momento de manera atroz, aprovecharon para intentar coquetear conmigo).Me sentí avergonzado y asustado. Hasta ese momento, nadie fuera de unos pocos círculos bastante especializados tenía idea de quién era yo. Los académicos que estudian las redes sociales llaman a esto “colapso de contexto”: las cosas que publicamos en las redes sociales con un público en mente pueden acabar circulando entre un público muy diferente, con resultados inesperados y destructivos. En la práctica, se siente como si todo tu mundo se derrumba.El momento en que se desató la campaña en contra de mi persona y mi supuesta parcialidad sugería que los ataques formaban parte de una estrategia bien planificada. Los estudios académicos han rebatido en más de una ocasión las afirmaciones de que las plataformas de Silicon Valley son tendenciosas contra los conservadores. Pero el éxito de una estrategia encaminada a obligar a las empresas de redes sociales a reconsiderar sus decisiones quizá no requiera la demostración de una verdadera mala conducta. Como describió en una ocasión Rich Bond, expresidente del Partido Republicano, tal vez solo sea necesario “ganarse a los árbitros”: presionar sin cesar a las empresas para que se lo piensen dos veces antes de emprender acciones que podrían provocar una reacción negativa. Lo que me ocurrió fue parte de un esfuerzo calculado para que Twitter se mostrara reacio a moderar a Trump en el futuro y para disuadir a otras empresas de tomar medidas similares.Y funcionó. Mientras se desataba la violencia en el Capitolio el 6 de enero, Jack Dorsey, entonces director general de Twitter, anuló la recomendación del departamento de confianza y seguridad de que se bloqueara la cuenta de Trump debido a varios tuits, incluido uno que atacaba al vicepresidente Mike Pence. En cambio, se le impuso una suspensión temporal de 12 horas (antes de que su cuenta se se suspendiera indefinidamente el 8 de enero). Dentro de los límites de las normas, se animó a los miembros del personal a encontrar soluciones para ayudar a la empresa a evitar el tipo de reacción que da lugar a ciclos de noticias furiosas, audiencias y acoso a empleados. En la práctica, lo que sucedió fue que Twitter dio mayor libertad a los infractores: a la representante Marjorie Taylor Greene se le permitió violar las normas de Twitter al menos cinco veces antes de que una de sus cuentas fuera suspendida de manera definitiva en 2022. Otras figuras prominentes de derecha, como la cuenta de guerra cultural Libs of TikTok, gozaron de una deferencia similar.En todo el mundo, se están desplegando tácticas similares para influir en los esfuerzos de confianza y seguridad de las plataformas. En India, la policía visitó dos de nuestras oficinas en 2021 cuando comprobamos los hechos de las publicaciones de un político del partido gobernante y la policía se presentó en la casa de un empleado después de que el gobierno nos solicitó bloquear cuentas implicadas en una serie de protestas. El acoso volvió a rendir frutos: los ejecutivos de Twitter decidieron que cualquier acción que pudiera ser delicada en la India requeriría la aprobación de los más altos mandos, un nivel único de escalada de decisiones que, de otro modo, serían rutinarias.Y cuando quisimos revelar una campaña de propaganda llevada a cabo por una rama del ejército indio, nuestro equipo jurídico nos advirtió que nuestros empleados en la India podrían ser acusados de sedición y condenados a muerte. Así que Twitter no reveló la campaña sino hasta más de un año después, sin señalar al gobierno indio como autor.En 2021, antes de las elecciones legislativas de Rusia, los funcionarios de un servicio de seguridad estatal fueron a la casa de una alta ejecutiva de Google en Moscú para exigir la retirada de una aplicación que se usaba para protestar en contra de Vladimir Putin. Los agentes la amenazaron con encarcelarla si la empresa no cumplía en 24 horas. Tanto Apple como Google retiraron la aplicación de sus respectivas tiendas y la restablecieron una vez concluidas las elecciones.En cada uno de estos casos, los empleados en cuestión carecían de la capacidad para hacer lo que les pedían los funcionarios de turno, ya que las decisiones subyacentes se tomaban a miles de kilómetros de distancia, en California. Pero como los empleados locales tenían la desgracia de residir dentro de la jurisdicción de las autoridades, fueron objeto de campañas coercitivas, que enfrentaban el sentido del deber de las empresas hacia sus empleados contra los valores, principios o políticas que pudieran hacerles resistirse a las demandas locales. Inspirados por la idea, India y otros países comenzaron a promulgar leyes de “toma de rehenes” para garantizar que las empresas de redes sociales contrataran personal local.En Estados Unidos, hemos visto que estas formas de coerción no las han llevado a cabo jueces y policías, sino organizaciones de base, turbas en las redes sociales, comentaristas de noticias por cable y, en el caso de Twitter, el nuevo propietario de la empresa.Una de las fuerzas más recientes en esta campaña son los “archivos de Twitter”, una gran selección de documentos de la empresa —muchos de los cuales yo mismo envié o recibí durante mis casi ocho años en Twitter— entregados por orden de Musk a un puñado de escritores selectos. Los archivos fueron promocionados por Musk como una forma innovadora de transparencia, que supuestamente exponían por primera vez la forma en que el sesgo liberal de las costas de Estados Unidos de Twitter reprime el contenido conservador.El resultado fue algo muy distinto. Como dijo el periodista de tecnología Mike Masnick, después de toda la fanfarria que rodeó la publicación inicial de los archivos de Twitter, al final “no había absolutamente nada de interés” en los documentos y lo poco que había tenía errores factuales importantes. Hasta Musk acabó por impacientarse con la estrategia. Pero, en el proceso, el esfuerzo marcó una nueva e inquietante escalada en el acoso a los empleados de las empresas tecnológicas.A diferencia de los documentos que por lo general saldrían de las grandes empresas, las primeras versiones de los archivos de Twitter no suprimieron los nombres de los empleados, ni siquiera de los de menor nivel. Un empleado de Twitter que residía en Filipinas fue víctima de doxeo (la revelación de información personal) y de acoso grave. Otros se han convertido en objeto de conspiraciones. Las decisiones tomadas por equipos de decenas de personas de acuerdo con las políticas escritas de Twitter se presentaron como si hubieran sido tomadas por los deseos caprichosos de individuos, cada uno identificado por su nombre y su fotografía. Yo fui, por mucho, el objetivo más frecuente.La primera entrega de los archivos de Twitter se dio tras un mes de mi salida de la empresa y unos cuantos días después de que publiqué un ensayo invitado en The New York Times y hablé sobre mi experiencia como empleado de Musk. No pude evitar sentir que las acciones de la empresa eran, hasta cierto punto, represalias. A la semana siguiente, Musk fue incluso más allá y sacó de contexto un párrafo de mi tesis doctoral para afirmar sin fundamentos que yo aprobaba la pedofilia, un tropo conspirativo que suelen utilizar los extremistas de ultraderecha y los seguidores de QAnon para desprestigiar a personas de la comunidad LGBTQ.La respuesta fue todavía más extrema que la que experimenté tras el tuit que Trump publicó sobre mí. “Deberías colgarte de un viejo roble por la traición que has cometido. Vive con miedo cada uno de tus días”, decía uno de los miles de tuits y correos electrónicos amenazantes. Ese mensaje y cientos de otros similares eran violaciones de las mismas políticas que yo había trabajado para desarrollar y hacer cumplir. Bajo la nueva administración, Twitter se hizo de la vista gorda y los mensajes permanecen en el sitio hasta el día de hoy.El 6 de diciembre, cuatro días después de la primera divulgación de los archivos de Twitter, se me pidió comparecer en una audiencia del Congreso centrada en los archivos y la presunta censura de Twitter. En esa audiencia, algunos miembros del Congreso mostraron carteles de gran tamaño con mis tuits de hace años y me preguntaron bajo juramento si seguía manteniendo esas opiniones (en la medida en que las bromas tuiteadas con descuido pudieran tomarse como mis opiniones reales, no las sostengo). Greene dijo en Fox News que yo tenía “unas posturas muy perturbadoras sobre los menores y la pornografía infantil” y que yo permití “la proliferación de la pornografía infantil en Twitter”, lo que desvirtuó aún más las mentiras de Musk (y además, aumentó su alcance). Llenos de amenazas y sin opciones reales para responder o protegernos, mi marido y yo tuvimos que vender nuestra casa y mudarnos.El ámbito académico se ha convertido en el objetivo más reciente de estas campañas para socavar las medidas de seguridad en línea. Los investigadores que trabajan para entender y resolver la propagación de desinformación en línea reciben ahora más ataques partidistas; las universidades a las que están afiliados han estado envueltas en demandas, onerosas solicitudes de registros públicos y procedimientos ante el Congreso. Ante la posibilidad de facturas de abogados de siete dígitos, hasta los laboratorios de las universidades más grandes y mejor financiadas han dicho que tal vez tengan que abandonar el barco. Otros han optado por cambiar el enfoque de sus investigaciones en función de la magnitud del acoso.Poco a poco, audiencia tras audiencia, estas campañas están erosionando de manera sistemática las mejoras a la seguridad y la integridad de las plataformas en línea que tanto ha costado conseguir y las personas que realizan este trabajo son las que pagan el precio más directo.Las plataformas de tecnología están replegando sus iniciativas para proteger la seguridad de las elecciones y frenar la propagación de la desinformación en línea. En medio de un clima de austeridad más generalizado, las empresas han disminuido muy en especial sus iniciativas relacionadas con la confianza y la seguridad. Ante la creciente presión de un Congreso hostil, estas decisiones son tan racionales como peligrosas.Podemos analizar lo que ha sucedido en otros países para vislumbrar cómo podría terminar esta historia. Donde antes las empresas hacían al menos un esfuerzo por resistir la presión externa; ahora, ceden en gran medida por defecto. A principios de 2023, el gobierno de India le pidió a Twitter que restringiera las publicaciones que criticaran al primer ministro del país, Narendra Modi. En años anteriores, la empresa se había opuesto a tales peticiones; en esta ocasión, Twitter accedió. Cuando un periodista señaló que tal cooperación solo incentiva la proliferación de medidas draconianas, Musk se encogió de hombros: “Si nos dan a elegir entre que nuestra gente vaya a prisión o cumplir con las leyes, cumpliremos con las leyes”.Resulta difícil culpar a Musk por su decisión de no poner en peligro a los empleados de Twitter en India. Pero no deberíamos olvidar de dónde provienen estas tácticas ni cómo se han extendido tanto. Las acciones de Musk (que van desde presionar para abrir los archivos de Twitter hasta tuitear sobre conspiraciones infundadas relacionadas con exempleados) normalizan y popularizan que justicieros exijan la rendición de cuentas y convierten a los empleados de su empresa en objetivos aún mayores. Su reciente ataque a la Liga Antidifamación demuestra que considera que toda crítica contra él o sus intereses empresariales debe tener como consecuencia una represalia personal. Y, en la práctica, ahora que el discurso de odio va en aumento y disminuyen los ingresos de los anunciantes, las estrategias de Musk parecen haber hecho poco para mejorar los resultados de Twitter.¿Qué puede hacerse para revertir esta tendencia?Dejar claras las influencias coercitivas en la toma de decisiones de las plataformas es un primer paso fundamental. También podría ayudar que haya reglamentos que les exijan a las empresas transparentar las decisiones que tomen en estos casos y por qué las toman.En su ausencia, las empresas deben oponerse a los intentos de que se quiera controlar su trabajo. Algunas de estas decisiones son cuestiones fundamentales de estrategia empresarial a largo plazo, como dónde abrir (o no abrir) oficinas corporativas. Pero las empresas también tienen un deber para con su personal: los empleados no deberían tener que buscar la manera de protegerse cuando sus vidas ya se han visto alteradas por estas campañas. Ofrecer acceso a servicios que promuevan la privacidad puede ayudar. Muchas instituciones harían bien en aprender la lección de que pocas esferas de la vida pública son inmunes a la influencia mediante la intimidación.Si las empresas de redes sociales no pueden operar con seguridad en un país sin exponer a sus trabajadores a riesgos personales y a las decisiones de la empresa a influencias indebidas, tal vez no deberían operar allí para empezar. Como a otros, me preocupa que esas retiradas empeoren las opciones que les quedan a las personas que más necesitan expresarse en línea de forma libre y abierta. Pero permanecer en internet teniendo que hacer concesiones podría impedir el necesario ajuste de cuentas con las políticas gubernamentales de censura. Negarse a cumplir exigencias moralmente injustificables y enfrentarse a bloqueos por ello puede provocar a largo plazo la necesaria indignación pública que ayude a impulsar la reforma.El mayor desafío —y quizá el más ineludible— en este caso es el carácter esencialmente humano de las iniciativas de confianza y seguridad en línea. No son modelos de aprendizaje automático ni algoritmos sin rostro los que están detrás de las decisiones clave de moderación de contenidos: son personas. Y las personas pueden ser presionadas, intimidadas, amenazadas y extorsionadas. Enfrentarse a la injusticia, al autoritarismo y a los perjuicios en línea requiere empleados dispuestos a hacer ese trabajo.Pocas personas podrían aceptar un trabajo así, si lo que les cuesta es la vida o la libertad. Todos debemos reconocer esta nueva realidad y planear en consecuencia.Yoel Roth es académico visitante de la Universidad de Pensilvania y la Fundación Carnegie para la Paz Internacional, y fue responsable de confianza y seguridad en Twitter. More