Hay una línea invisible que separa la creatividad del delito, y en los próximos meses esa frontera será mas visible y permanente para México. Mientras el mundo se deslumbra con lo que la inteligencia artificial (IA) puede crear, nuestra legislatura local está afinando los detalles de una reforma que podría mandar a alguien tras las rejas hasta por 12 años. No hablo de ciencia ficción, sino de los cambios que se esperan para marzo de 2026 en el Código Penal, donde la famosa Ley Olimpia busca integra la IA Generativa en sus lineamientos para alcanzar lo que antes era imposible, el daño a través de lo sintético de la IA, y proteger la integridad de las personas (especialmente de los menores) frene al desarrollo creativo que apenas empieza a despegar en el país y se va desarrollando cada día.

El Nuevo Código Penal de la CDMX ante la IA Generativa
Durante años, lo que pasaba en internet se quedaba en internet, como si lo digital tuviera su propio universo donde las consecuencias no eran tan tangibles como en la calle. Sin embargo, los legisladores del Congreso de la Ciudad de México están cerrando esa brecha con las reformas que se esperan para marzo de 2026.
La idea central es simple pero contundente, el daño psicológico y reputacional causado por una imagen falsa duele igual, o quizás más, que una agresión física. Ya no se trata solo de multas administrativas o de bajar contenido de una plataforma; se trata de meter el derecho penal en la cabina de mando de la tecnología. Lo virtual ahora tiene peso de ley, y eso cambia las reglas del juego para cualquier usuario, creador o empresa.
Tipificación del delito para la IA Generativa
Lo que está sobre la mesa es una actualización necesaria pero compleja. La reforma busca tipificar como delito la creación y difusión de contenido sintético que dañe la integridad de las personas. Aquí es donde la cosa se pone técnica: no es solo compartir una imagen real, sino generar uno que nunca existió.
La ley Olimpia pretende alcanzar el uso de IA para suplantar identidad con fines sexuales, de extorsión o difamación. El enfoque es particularmente estricto cuando hay vulnerabilidad de por medio. Se está definiendo un nuevo tipo de violencia digital donde la herramienta es el algoritmo, pero la intención es el dolo. Básicamente, si usas una herramienta de IA para construir una mentira que destruya la vida de alguien, el sistema judicial quiere tener las llaves para encerrarte.
La cifra que alerta
Hay un número en esta propuesta que ha hecho ruido en los pasillos legales y en los foros de tecnología: hasta 12 años de prisión. Esta pena no es para cualquier uso indebido, está reservada para los casos más graves, específicamente cuando se involucra a menores de edad con IA de naturaleza sexual. Doce años es una condena pesada, comparable a delitos violentos tradicionales. La intención del legislador es enviar un mensaje de protección de la infancia es claro y no negociable, incluso si el abuso es digital. Para el creador promedio puede sonar exagerado, pero para las familias que han visto cómo la vida de sus hijos puede ser arruinada por un montaje viral, esta cifra se siente como un mínimo necesario para hacer justicia.
Para entender la magnitud, vale la pena ponerlo en perspectiva. En el Código Penal actual, muchos delitos digitales tienen penas mucho más bajas, a menudo con libertad bajo caución o sanciones económicas. Equiparar la creación de pornografía infantil sintética con la posesión o distribución de material real es un salto jurídico importante. Algunos críticos argumentan que se está equiparando la “mentira” con el “abuso físico”, pero la postura legal emergente es que el trauma para la víctima es idéntico. Al final, esta reforma coloca a la CDMX en una posición vanguardista, aunque arriesgada. Estamos diciendo que la integridad de la imagen personal es tan sagrada como la integridad del cuerpo, y violarla tiene un costo que puede costarte la mejor parte de tu vida.

La Evolución de la Ley Olimpia para la IA Generativa
La Ley Olimpia nació del dolor concreto de una mujer, Olimpia Coral Melo, y de la indignación colectiva ante un vacío legal que permitía la difusión de contenido íntimo sin consecuencias graves. Su propósito original fue blindar la privacidad sexual y castigar a quienes usaban la tecnología como arma de venganza o control.
Durante años, esta legislación fue un escudo necesario contra la grabación y difusión no consentida de actos reales. Sin embargo, la tecnología no se quedó quieta. Lo que antes requería una cámara y una oportunidad, ahora requiere solo un prompt y una conexión a internet. El espíritu de la ley sigue vivo —proteger la dignidad— pero la herramienta del agresor ha mutado, y el marco jurídico se ve obligado a hacer lo mismo.
La extensión normativa que se discute no solo busca penalizar la difusión, sino la creación misma de contenido sintético con fines lesivos. La diferencia es sustancial: la ley Olimpia original protegía tu imagen real capturada sin permiso; la nueva versión busca proteger tu identidad digital incluso cuando esa imagen nunca existió en la realidad. Se trata de cerrar la puerta a la defensa clásica del acusado que alegaba “esto no es real, es un montaje”. Bajo esta nueva perspectiva, la falsedad de la imagen no exime del delito, porque el daño a la honra y la salud mental de la víctima es tangible, independientemente de los píxeles que conformen la escena. Es un reconocimiento de que, en la era digital, la verdad fáctica importa menos que el impacto social de la mentira.
Esto cambia la dinámica legal en México, obligando a los creadores de contenido a verificar no solo la fuente del material, sino los derechos sobre la identidad de las personas representadas, sean reales o virtuales.
Ley Olimpia vs IA Generativa en la republica mexicana
Coahuila: el primer estado en nombrar al IA en sus leyes
En diciembre de 2025, Coahuila se adelantó al resto del país al reformar su Código Penal para mencionar expresamente la manipulación de imágenes mediante tecnología. La modificación al artículo 236 establece sanciones de 3 a 6 años de prisión para quien altere, edite o modifique material visual o auditivo de una persona con fines sexuales o de descrédito, sin importar si el contenido es real o sintético. Este precedente es fundamental porque rompe con la lógica tradicional: ya no se castiga solo la difusión de lo que “sí pasó”, sino también la creación de lo que “nunca existió”.
Iniciativas federales: el intento por unificar criterios
Mientras los estados avanzan a distintas velocidades, en el ámbito federal también hay movimiento. En mayo de 2025, la diputada Irma Juan Carlos presentó una iniciativa para reformar el Artículo 199 Septies del Código Penal Federal, con el objetivo de sancionar con hasta 8 años de prisión la manipulación de imágenes mediante IA para involucrar a personas en actos sexuales sin su consentimiento. Aunque esta propuesta aún no se aprueba, refleja una tendencia clara: el Congreso de la Unión reconoce que la violencia digital ya no puede entenderse sin la variable tecnológica. Si esta iniciativa prosperara, sentaría un piso mínimo de protección para todo el país, reduciendo la fragmentación actual.

La Tecnología como Juez ante la IA
Gigantes como Google, Adobe y Microsoft ya están implementando estándares como el C2PA, que buscan etiquetar el contenido desde su origen. La idea es que, al bajar una imagen o escuchar un audio, puedas saber si fue creado por una máquina. Suena perfecto en teoría, como un notario digital que certifica la autenticidad de lo que consumimos. Pero en la práctica, confiar ciegamente en estas marcas es riesgoso. No todos los generadores de IA las usan, y muchas herramientas de código abierto simplemente las ignoran. Es como ponerle candado a la puerta principal mientras las ventanas quedan abiertas.
Estas herramientas no son infalibles; a veces gritan “fake” donde hay realidad, y otras veces dejan pasar lo sintético como genuino. Imagina el escenario: una persona acusada de crear un imagen de IA que nunca hizo, basada en un dictamen técnico erróneo. La tecnología avanza rápido, pero la justicia necesita certezas, y por ahora, los detectores ofrecen más probabilidades que verdades absolutas.
La realidad es que estamos metidos en una competencia eterna entre quien crea la protección y quien busca brincársela. Apenas se lanza una nueva marca de agua o un detector más preciso, surge una comunidad dispuesta a limpiar el archivo. Existen métodos para eliminar las marcas de agua, comprimir el archivo hasta que la señal se pierda o volver a grabar la pantalla para perder los metadatos originales. Esto pone en un aprieto a la propuesta legal de 2026. ¿Cómo vas a penalizar la falta de una marca de agua si existen herramientas públicas para borrarla en segundos? La ley asume un orden técnico que el mercado negro digital no respeta. Es una carrera armamentista donde el legislador corre detrás de un hacker que siempre va tres pasos adelante.
Se debate si plataformas como Facebook, TikTok o X deberían ser obligadas a filtrar contenido sintético antes de que se vuelva viral, o si deben responder solidariamente por los daños. En México, la Ley Federal de Protección al Usuario de Servicios Financieros tiene sus propios criterios, pero en materia de contenidos, el terreno es pantanoso. Exigirle a una plataforma que revise todo lo que se sube es casi imposible técnicamente, pero dejarla libre de responsabilidad convierte a las redes en tierra de nadie. El equilibrio está en encontrar un punto donde la plataforma colabore con la justicia sin convertirse en el censor absoluto de internet.

El Equilibrio Ético: Innovación con IA vs. Seguridad con Ley Olimpia
El problema de fondo no es la inteligencia artificial, sino la intención detrás del clic. Hay que saber distinguir entre un artista digital que usa IA para una película de ciencia ficción con consentimiento de los actores, y un delincuente que usa la misma herramienta para extorsionar a una familia. La ley debe ser lo suficientemente inteligente para hacer esa distinción.
Castigar la herramienta por el mal uso que le da una minoría es como prohibir los autos porque existen los choques. Si logramos separar el uso creativo y comercial legítimo del uso malicioso, podemos tener seguridad sin sacrificar el progreso. De lo contrario, estaremos criminalizando el pincel porque alguien lo usó para pintar una amenaza.
No importa si el daño se hizo con Photoshop, con una IA o con un montaje manual; lo que importa es el perjuicio a la víctima. Mantenerse neutral permite que la justicia se adapte a los cambios técnicos sin necesidad de reformar el código penal cada seis meses. Es la única forma de que la ley tenga vigencia real a largo plazo sin volverse un obstáculo técnico.
Al final del día, ninguna ley va a funcionar si la sociedad no entiende lo que está viendo. Podemos tener las penas más duras del mundo y los detectores más caros, pero si la gente no tiene criterio para cuestionar lo que consume en redes, el daño ya está hecho. La educación digital no es solo saber usar una computadora, es desarrollar un escepticismo saludable. Enseñar a los jóvenes —y a los no tan jóvenes— a preguntar “¿de dónde viene esto?” antes de compartir. La regulación es el parche, pero la alfabetización mediática es la cura. La verdadera seguridad no está solo en el código penal, está en la cabeza de los usuarios.
Conclusión: Tu Responsabilidad como Creador de IA
Lo que se perfila para 2026 en la CDMX no es solo un ajuste administrativo, es un aviso de que la era de la impunidad digital se está acabando. Podemos debatir si las penas son excesivas o si la tecnología está lista, pero el mensaje central es innegable: la libertad creativa tiene un límite claro cuando colisiona con la dignidad humana. No se trata de demonizar la herramienta, sino de entender que el contexto legal ha cambiado para siempre y que la ignorancia de la ley ya no será una defensa válida frente a un juez.
Como creadores, la responsabilidad ahora es más nuestra que del gobierno. Etiquetar contenido, verificar fuentes y pensar dos veces antes de manipular identidades ajenas son pasos mínimos para navegar este nuevo terreno. Al final del día, la verdadera innovación no se mide solo por lo impresionante que es lo que podemos crear, sino por nuestra capacidad de hacerlo sin destruir a otros en el proceso

Fuentes consultadas:
- Congreso de la CDMX. (2026). Van por 12 años de prisión a creadores de “deepfakes” con imágenes de menores
- Excélsior. (2025, diciembre 23). Deepfakes sexuales ya son delito en Coahuila; Congreso aprueba reforma al Código Penal
- Cámara de Diputados. (2025). Boletín No. 1095: Manipulación de imágenes con IA.
Nota importante
“La información legal presentada corresponde a iniciativas y reformas en proceso de aprobación al momento de la redacción. Las leyes están sujetas a cambios durante el trámite parlamentario. Se recomienda consultar los diarios oficiales para verificar el estatus vigente.”




0 Comments