Porque sí, alguien puede robar tu cara, copiar tu voz, ponerla en un video falso…
Y luego extorsionarte.
Eso no es ciencia ficción.
Es México.
Y por primera vez, el Congreso quiere hacer algo al respecto.
¿Por qué esta iniciativa no es cualquier ocurrencia de curul?
La diputada Dolores Padierna (sí, esa misma) presentó una propuesta integral para criminalizar la clonación de voces y la suplantación digital usando inteligencia artificial.
Y antes de que sueltes un “ya quieren controlar internet”, ojo: la propuesta tiene partes sensatas y necesarias.
Para empezar, reconoce legalmente la identidad digital como parte de la personalidad jurídica.
Es decir, tu voz, tu rostro y tus gestos —aunque estén en TikTok— son parte de ti. Y deben protegerse como tales.
Además, modifica cinco leyes clave, entre ellas el Código Penal, el Civil y las de protección de datos personales.
En El Universal lo explican mejor que varios asesores parlamentarios: link.
La joya de la corona: suplantar digitalmente a alguien con IA podría costarte hasta 7 años de cárcel.
Y si el fin es político, sexual o fraudulento, la pena sube.
Sí, suena justo.
Pero también suena peligroso.

¿Estamos hablando de censura camuflada?
Aquí viene el ácido.
Aunque la intención es proteger, el diablo está en los adjetivos.
Frases como “manipular atributos personales con fines políticos” suenan bien…
Hasta que alguien decide que una parodia o un deepfake de sátira entra en esa categoría.
La Comisión Nacional de Derechos Humanos ya advirtió sobre leyes redactadas con ambigüedad que terminan aplicándose para silenciar críticas.
Como pasó con la ley contra “ciberasedio” en Puebla.
En Verificado lo explican con pelos y señales: link.
Y no es teoría conspiranoica.
En México, la censura judicial existe.
Y muchas veces entra por la puerta de atrás: vía código penal.
¿Hay países que lo están haciendo mejor?
Sí. Y también peor.
En la Unión Europea, por ejemplo, ya aprobaron un Reglamento de Inteligencia Artificial que divide los sistemas según su nivel de riesgo: bajo, medio, alto y prohibido.
Lo puedes leer aquí sin llorar: link.
¿Qué hace diferente el modelo europeo?
- No prohíbe por prohibir. Obliga a evaluar riesgos y mostrar transparencia.
- Castiga el uso de IA para manipulación emocional, vigilancia masiva o discriminación.
- Exige etiquetar los contenidos generados por IA, incluyendo deepfakes.
Ahora, ¿es perfecto?
No.
Pero sí ofrece un marco más sólido y menos punitivo que el mexicano.
En contraste, en Estados Unidos han optado por leyes estatales específicas.
California, Georgia y Texas ya penalizan los deepfakes pornográficos no consensuados.
Y en Reino Unido tienen el Online Safety Act, que también castiga la distribución de deepfakes maliciosos.
México, en cambio, intenta hacer todo de golpe, con un paquete de cinco reformas que parece más una manta corta que una estrategia a largo plazo.
¿La tecnología está lista para detectar deepfakes?
No.
Y ese es uno de los principales problemas de la regulación de inteligencia artificial en México.
Los algoritmos de detección actuales son frágiles.
En condiciones reales, los márgenes de error siguen siendo enormes.
Según datos de ISMSForum, los detectores actuales fallan hasta en un 90% de los casos cuando se trata de deepfakes bien hechos.
Puedes leer el análisis técnico completo aquí.
Además, los generadores siempre llevan ventaja.
Es más fácil crear un deepfake nuevo que entrenar un sistema para detectarlo.
En pocas palabras: podrías ir a la cárcel por algo que ni los expertos pueden probar con certeza absoluta.
Y eso, en términos legales, se llama inseguridad jurídica.
>Y en términos prácticos, miedo.
¿Y si mejor educamos antes de encarcelar?
Otra cosa que la propuesta de Morena ni menciona: alfabetización digital.
Porque está bien castigar al que comete un crimen con IA.
Pero ¿y las miles de personas que no saben que están siendo víctimas?
En el texto que escribí sobre sextorsión con IA aquí, lo expliqué con datos:
- 52% de las personas han sido presionadas para mandar dinero a alguien que conocieron en línea.
- 46% no puede distinguir una foto real de una generada con IA.
Y mientras tanto, seguimos sin campañas masivas de prevención, sin guías claras para denunciar, sin canales accesibles para víctimas.
Si lo único que haces es aumentar penas, te llenas de leyes… pero no evitas el delito.
¿Qué riesgos hay si se aprueba tal como está?
- Criminalización de contenido legítimo.
- Chilling effect. Es decir: autocensura preventiva.
- Costos operativos desproporcionados.
- Imposibilidad de perseguir a responsables.
- Falsas acusaciones.
Lo dice Manuel Alejandro Guerrero, profesor en la Ibero, en Reporte Índigo: si no se incluye un marco claro de excepciones y salvaguardas, “terminamos sobrerregulando con buenas intenciones y malos resultados”. link
¿Y entonces, qué sí deberíamos hacer?
Hay alternativas más inteligentes.
Por ejemplo:
- Etiquetado automático de contenido con IA, como propone la C2PA Coalition (Google, OpenAI, Adobe): link
- Campañas de educación digital, dirigidas a personas usuarias, no a ingenieros.
- Redes de cooperación pública-privada, como las de la UE.
- Protocolos para víctimas, no solo castigos para los ofensores.
Y sobre todo: una discusión pública, abierta y técnica, no una decisión de fast track en comisiones legislativas.
¿Esta regulación de inteligencia artificial en México realmente protege?
Depende de a quién preguntes.
Si eres víctima de sextorsión con deepfakes, probablemente te parezca justo.
Si eres creador de contenido satírico, podrías verlo como una amenaza.
Y si trabajas con IA, sabes que tipificar algo que no se puede detectar bien es una receta para el desastre.
La regulación de inteligencia artificial en México no debe ser un escudo para políticos ni una trampa para ciudadanos.
Debe ser un marco moderno, proporcional y tecnológicamente viable.
Porque si no, vamos a tener leyes que no se aplican…
O peor: que se aplican mal.
¿Y qué podemos hacer tú y yo?
Primero, no tragar entero.
No todo lo que parece “proteger” protege de verdad.
Segundo, entender que esto nos afecta a todas y todos.
Porque cualquiera puede ser víctima. Pero también, sin querer, perpetrador.
Tercero: hablar de esto sin miedo ni moralinas.
La tecnología no es buena ni mala.
Pero sí puede ser peligrosa en manos torpes… o con poder.
Y si quieres seguir esta conversación sin filtros, ni frases vacías, ni boletines oficiales disfrazados de análisis…
Mando un mail diario a las 3.30PM, lo leen en dos minutos.
Hablo de productividad, inteligencia artificial y todos los días trato de vender algo.



Un comentario
¿La cárcel realmente frenará a quienes usan IA para manipular o solo nos dejará con más leyes imposibles de aplicar?