En medio de una de las jornadas electorales más polarizadas en Estados Unidos, la desinformación con I.A. ha tomado un papel central. Desde imágenes manipuladas hasta audios deepfake de figuras públicas, la inteligencia artificial ha sido utilizada para sembrar confusión y manipular percepciones. Esta tecnología ha facilitado una propagación sin precedentes de información falsa, afectando a millones de votantes. La plataforma X (anteriormente Twitter) se ha convertido en uno de los canales clave, con figuras influyentes y algoritmos que amplifican el alcance de mensajes engañosos, especialmente en estados decisivos como Pensilvania y Georgia.
Uno de los ejemplos más significativos proviene del CEO de Tesla y propietario de X, Elon Musk. A través de sus publicaciones, Musk ha generado más de 2 mil millones de vistas en contenidos relacionados con las elecciones, varios de los cuales han sido clasificados como falsos o engañosos, según el Center for Countering Digital Hate (CCDH). Musk, quien cuenta con más de 203 millones de seguidores, se ha convertido en una figura clave en la diseminación de desinformación con I.A., usando su influencia para expandir su impacto. Estas publicaciones han tenido ecos en plataformas como Reddit y Telegram, creando un efecto en cadena de desinformación que refuerza percepciones erróneas.
El uso de la I.A. para generar contenido manipulado no se limita a simples imágenes; también se han utilizado deepfakes de figuras políticas. Un caso notable se registró en New Hampshire el 3 de noviembre de 2024, donde se usó una voz clonada del presidente Joe Biden en llamadas automatizadas, instando a votantes a no participar en las primarias demócratas. Este tipo de prácticas fueron denunciadas por el Fiscal General de New Hampshire, John Formella, quien ordenó el cese de actividades de las empresas implicadas, Lingo Telecom y Life Corporation. Este es solo un ejemplo de cómo la inteligencia artificial está transformando el escenario político en una trampa para los votantes.
El Rol de X en la Desinformación con I.A.
X se ha convertido en el epicentro de la desinformación con I.A., facilitando la difusión de contenido cuestionable sin una moderación efectiva. Desde que Musk asumió el control de la plataforma, los recortes en el equipo de moderación y la eliminación de reglas estrictas han permitido que circulen noticias falsas con mayor facilidad. Aunque X implementó una función llamada Community Notes para que los usuarios agreguen contexto, la efectividad de esta herramienta es limitada, especialmente cuando el contenido se viraliza rápidamente en periodos electorales críticos.
Una red de cuentas en X ha empezado a monetizar publicaciones que mezclan información real con datos falsos o alterados. Algunos usuarios ganan “miles de dólares” publicando contenido engañoso, que incluye teorías de conspiración e imágenes generadas por I.A. La BBC reveló en octubre de 2024 cómo grupos de cuentas en X coordinan sus publicaciones para maximizar el alcance, creando redes de apoyo mutuo. La falta de políticas específicas sobre desinformación en X plantea dudas sobre si la plataforma está incentivando la difusión de estos contenidos en un momento clave para la democracia estadounidense.
Impacto de la Desinformación con I.A. en los Votantes
La desinformación con I.A. no solo afecta la percepción de los votantes, sino que también reduce la confianza en el sistema electoral. En Pensilvania, varios usuarios de X difundieron un video falso donde supuestamente se destruían boletas de Trump. La firma Cyabra, especializada en detección de desinformación, identificó esta actividad como parte de una campaña coordinada utilizando cuentas de gran alcance. Esta situación genera una atmósfera de desconfianza donde cada evento es puesto en duda, afectando así la participación y la credibilidad en el sistema democrático.
Este fenómeno de desinformación con I.A. también ha sido utilizado para atacar personalmente a los candidatos. Un usuario de X, conocido como “Freedom Uncut”, compartió múltiples imágenes generadas con I.A. donde representaba a Joe Biden y Donald Trump en situaciones absurdas o comprometedores, pero con un realismo que engaña fácilmente al público. Según el propio usuario, sus publicaciones logran millones de vistas, generando ingresos significativos. Aunque asegura que “no intenta engañar”, la falta de claridad sobre la autenticidad del contenido compartido agrava el problema de la desinformación en plataformas digitales.
La magnitud de la desinformación generada por I.A. en estas elecciones subraya la necesidad de regular las plataformas digitales. Kathleen Carley, profesora de Carnegie Mellon y experta en desinformación, afirmó que X se ha convertido en un “conducto” de desinformación que fluye hacia otras redes sociales. Tanto organizaciones como Common Cause han destacado la urgencia de regular estas campañas de manipulación digital, ya que el impacto en la democracia es claro y profundo.
Para aprender a usar la inteligencia artificial de forma ética y responsable, te recomiendo mi libro “¡Esto No Es Juego! 10 Consejos Para Crear Prompts Increíbles y Hackear tu Productividad”, disponible aquí. Este libro ofrece herramientas prácticas para dominar la I.A. en tu día a día. Además, próximamente ofreceré un taller sobre creación de contenidos con I.A., donde aprenderás a escribir prompts efectivos para mejorar tu productividad. Toda la información está en mi página web. ¡No dejes que alguien más ocupe tu lugar!
Ejemplos de desinformación en procesos electorales:
- Durante las elecciones en Pensilvania, usuarios en X difundieron videos falsos sobre la supuesta destrucción de boletas, generando dudas en el proceso electoral.
- En 2024, en New Hampshire, robocalls con una voz deepfake de Joe Biden intentaron disuadir a votantes demócratas de participar en las primarias.
- Imágenes manipuladas de figuras políticas, como Donald Trump en situaciones ficticias o Kamala Harris en uniformes falsos, fueron ampliamente compartidas en X, afectando las percepciones de los votantes sobre sus candidatos.