Los contenidos creados con IA pueden dañar la dignidad de las personas, suplantar su identidad y provocar pérdidas millonarias a través del fraude; sin embargo, aún no están regulados.
por José Luis Ramos| | Indigo Staff |Reporte Indigo|25 de Julio de 2025 00:20 hs. La controversia por el uso indebido de la voz de un actor de doblaje fallecido para un video del Instituto Nacional Electoral (INE) puso en el centro del debate un tema complejo y que escapa de la regulación en México: los deepfakes, entendidos como archivos de vídeo, audio o imagen alterados mediante un software de inteligencia artificial (IA) con el fin engañar o manipular a una audiencia.
Como parte de la campaña institucional “No te hagas pato”, el INE publicó en su cuenta de TikTok un video de agradecimiento a quienes participaron en los comicios de la Elección Judicial del pasado 2 de junio en el que se escucha la voz del actor de doblaje José “Pepe” Lavat, quien falleció en 2018.
“Lo que sucedió con el caso de la voz de ‘Pepe’ Lavat, que no solo es grave en sí por suplantar a la persona y usar su voz, sino que están haciendo un uso comercial y plantándolo en una red social como un producto publicitario, bueno, en este caso fue de promoción del INE. Eso es lo grave”, explicó a Reporte Indigo Dessiré Hernández, locutora, actriz de doblaje e integrante de la Asociación Mexicana de Locutores Comerciales (Ameloc)
Esto provocó la reacción de la viuda de Lavat, Gisela Casillas, quien respaldada por el gremio de actores de doblaje y locutores exigieron explicaciones a la instancia electoral por la utilización de la voz de “Pepe” Lavat, y se manifestaron pacíficamente el 13 de julio en el Monumento a la Revolución.
“Lo que sí les puedo decir es que el INE no utilizó una voz predeterminada, así como ‘Pepe’ Lavat, no buscó un nombre al cual asemejarse, una voz a la cual asemejarse; es el uso gratuito y libre de esta red como está ocurriendo en todos los ámbitos del mundo con relación a la inteligencia artificial”, sostuvo entonces la presidenta del INE.
Días más tarde, el INE retiró el video argumentando que el Grupo de Gobierno de Tecnología de la Información y la Comunicación trabajaba en los lineamientos para el uso responsable de sus contenidos elaborados con IA.
No obstante, el caso de Lavat solo es una arista de los peligros que supone el uso de deepfakes que, desde su aparición, han sido utilizados para difundir información falsa o propaganda, así como para una serie de prácticas lícitas e ilícitas que, en muchos casos, suponen pornografía no consensuada, fraude y robo de identidad.
Deepfakes son una amenaza latente en México
En nuestro país el uso de lainteligencia artificialgenerativa se ha vuelto muy popular y en los últimos años se han presentado múltiples casos de deepfakesen los que se ha involucrado, incluso, a la imagen del expresidente Andrés Manuel López Obrador, y la de la actual titular del Ejecutivo federal, Claudia Sheinbaum Pardo, para solicitar inversiones fraudulentas en la industria petrolera, tanto en Petróleos Mexicanos, como en la plataformas Oil Profit.
Otro caso mediático fue el de Diego “N”, otrora estudiante del Instituto Politécnico Nacional (IPN), que fue sentenciado en mayo de 2025 a cinco años de prisión por el delito de trata de personas en su modalidad de pornografía infantil, luego de que en 2023 se le acusó de violencia digital hacia varias de sus compañeras en el IPN, cuando se le halló una tablet con más de 166 mil imágenes y 20 mil videos, originales y alterados con IA que estaban destinadas a la explotación del contenido de índole sexual.
En mayo de 2025 la influencer Alana Floresfue víctima de imágenes alteradas de índole sexual no consensuadas, lo cual desató la polémica en redes y puso nuevamente el foco en los deepfakes, las consecuencias del uso indebido de la IA y el aumento en los delitos y fraudes cibernéticos perpetrados de esta forma.
“Hay una imagen falsa de mí que está siendo difundida en redes sociales, que ha sido alterada sea por inteligencia artificial o sea por una persona. El caso es que es una imagen que no soy yo, es una imagen en la que utilizaron mi cara y está siendo alterada“, denunció Flores a través de su cuenta de X, antes Twitter.
Actualmente en México no hay un marco legal que penalice los deepfakes; sin embargo, otras normativas como la Ley Olimpia han servido para castigar e iniciar investigaciones como en los casos de Diego “N” y del que fue víctima Flores.
Especialistas como Manuel Alejandro Guerrero, director del Departamento de Comunicación de la Universidad Iberoamericana (Ibero), experto en Ciencia Política, democracia e inteligencia artificial, sostienen que los vacíos legales de los que hoy gozan los deepfakes tienen repercusiones que afectan a la sociedad en su conjunto.
“Para la sociedad y las corporaciones los deepfakes tienen efectos nocivos. Las consecuencias más visibles tienen que ver con la desinformación, la suplantación de identidad, los fraudes. Atenta contra la credibilidad y la confianza entre personas e instituciones, y erosionan la convivencia social y cívica”, explicó Guerrero a este diario.
Datos del estudio “A Year in Fraud 2024”, de la empresa Unico México, señalan que los fraudes digitales se incrementaron 84 por ciento en el último año, y que las entidades con mayor incidencia son el Estado de México (Edomex), con 13.3 por ciento; la Ciudad de México (CDMX), con el 11.9 por ciento; Jalisco, con el 9.2 por ciento; Veracruz, con 6.2 por ciento; y Guanajuato, con el 5.8 por ciento.
Sin embargo, no solo el sector privado ha advertido el aumento de este tipo de irregularidades. Entre 2018 y 2023 la Comisión Nacional para la Protección y Defensa de los Usuarios de Servicios Financieros (Condusef) reportó un aumento del 20.1 por ciento en las quejas por fraudes cibernéticos, ilícitos que superan los 20 millones de pesos en pérdidas y que, en muchos casos están relacionados con el uso de la IA y los deepfakes.
Uso no regulado de la IA amenaza a artistas
Plataformas como FakeYou, Dall-E, ChatGPT, Midjourney y Stable Diffusion han sido utilizadas para crear archivos de video, audio e imagen que han suplantado identidades, pero que también han sido usados para difamar y defraudar a las personas; no obstante, ahora también aprovechan los vacios legales para violar derechos de autor.
El caso reciente que involucra la voz de ‘Pepe’ Lavat generada con inteligencia artificial para una campaña del Instituto Nacional Electoral (INE), pone en evidencia una realidad que amenaza los derechos de autor de distintos gremios artísticos que dependen de su imagen y su voz para generar ingresos.
“Creemos que por estar en Internet las cosas son de todos y no le pertenecen a nadie. Ha sido una lucha constante de los creadores, de las industrias creativas, de los poseedores de derechos porque la gente lo toma de ahí y cree que no tiene derechos, y eso hemos visto que ha pasado con música, con video, con imagen”, detalló Dessiré Hernández, integrante de la Asociación Mexicana de Locutores Comerciales (Ameloc).
“Dess”, como la conocen en el gremio de locutores y actores de doblaje, explicó que en el contexto actual ya existen tecnologías que protegen los derechos de autor y banean publicaciones en redes sociales; no obstante, esto aún no alcanza el terreno de la voz.
En el caso de la voz humana ha sido sumamente complejo porque no hay una forma real de detección que se pueda usar para saber que esa voz no es tuya, y le pertenece a alguien más. Ahí es donde empieza digamos la tormenta perfecta para nosotros los artistas”, agregó Hernández.
Actualmente en México la violación de derechos de autor constituye un delito que se castiga con penas de prisión y multas. De acuerdo con el Código Penal Federal las sanciones por violar este tipo de derechos van de los tres a los diez años de cárcel, y las multas pueden alcanzar los veinte mil días.
Sin embargo, los casos de deepfakes como el de ‘Pepe’ Lavat aún no están contemplados en las regulaciones actuales. En este caso en particular la presidenta, Claudia Sheinbaum, externó su apoyo a los locutores y actores de doblaje, por lo que desde el pasado 16 de julio ha habido acercamientos y reuniones de dichos gremios con la Secretaría de Cultura, la Consejería Jurídica Federal y el Instituto Nacional del Derecho de Autor.
“Se está revisando la viabilidad de varias propuestas para ver cuál puede ser aplicada con celeridad, de forma más aterrizada a los tiempos que estamos viviendo y sin afectar a ninguna parte del sector, porque claro, el registro de una obra creada con ayuda de la inteligencia artificial nos ayuda a todos, pero una diferencia es usarla como una herramienta y otra como un sustituto”, puntualizó.
Hernández recordó que desde hace por lo menos tres años la Ameloc ha participado en el desarrollo de iniciativas de ley para regular la IA, como la iniciativa de la Ley Federal para el Desarrollo Ético, Soberano e Inclusivo de la Inteligencia Artificial en México, sin que, hasta el momento, estas hayan avanzado en el Poder Legislativo.
“Nuestra propuesta es que la voz sea reconocida como un biométrico, porque la usan los bancos, la usan incluso en algunos sistemas como un biométrico, pero no está registrada como tal en nuestra legislación”, concluyó.
Iniciativas para regular la IA permanecen en la congeladora del Legislativo
En abril pasado, las bancadas de Morena y del Partido Verde Ecologista de México presentaron la iniciativa para la creación de la Ley Federal para el Desarrollo Ético, Soberano e Inclusivo de la Inteligencia Artificial en México, misma que se suma a las cerca de 58 iniciativas para regular la IA que están pendientes desde 2020 en el Poder Legislativo.
Dicha propuesta contempla la prohibición del uso de la IA para vigilancia masiva sin orden judicial, la manipulación psicológica extrema y la explotación de niñas, niños o personas en situación de vulnerabilidad; además de proteger la libertad de expresión de los creadores de contenido y los derechos de autor, por lo que organizaciones como la Ameloc esperan que se pueda discutir en el periodo legislativo que arranca en septiembre.
No obstante, en esta propuesta no se profundiza en el tema de los deepfakes, que abordan otras iniciativas a nivel estatal para castigar su uso cuando es para producir pornografía no consensuada, como en Sinaloa; o como daño patrimonial cuando atenta contra la dignidad de las personas como en la Ciudad de México.
Al respecto, Manuel Alejandro Guerrero sostiene que nuestro país se está rezagando en este tipo de legislaciones, y que debe mirar la experiencia internacional, donde el uso de la IA generativa comienza a regularse.
“En Estados Unidos hay estados como California, Georgia, Texas, que han promulgado leyes contra los deepfakes pornográficas sin consentimiento y algunos también penalizan su distribución. En el caso de Inglaterra, por ejemplo, que ya no pertenece a la Unión Europea, tienen su propia su propia ley que se llama Online Safety Act, donde penalizan el compartir y distribuir deepfakes con contenido pornográfico, pero no penaliza la creación”, explicó el académico de la Universidad Iberoamericana.
Guerrero Martínez subrayó que México sí necesita una legislación para la inteligencia artificial y sus usos nocivos como el contenido sexual no consensuado, la suplantación de identidad y los fraudes, pero aclaró que deben existir precauciones en el terreno de la censura.
“Necesitamos mejores regulaciones en términos de las deepfakes de contenidos sexual y fraudes, por supuesto que sí, pero hay que ser muy cuidadosos en no sobrerregular el espacio de la libertad de expresión”, agregó el especialista.