La Unión Europea está sacando la artillería pesada ante la indignación generalizada por el uso de la Inteligencia Artificial (IA) que viola la privacidad y la dignidad de las personas.
Bruselas estudia la posibilidad de clasificar la creación de «deepfakes» sexuales como una práctica prohibida por la Ley de Inteligencia Artificial tras el escándalo de las imágenes sexualizadas creadas por Grok AI, el chatbot integrado en la plataforma X de Elon Musk .
Indignación por Grok
La empresa xAI de Musk, tras prolongadas críticas internacionales, introdujo nuevas restricciones a mediados de enero sobre las imágenes sexualmente sugerentes generadas por IA en Grok. La medida surge tras las críticas de que Grok permitía a los usuarios reemplazar digitalmente la ropa de las mujeres con bikinis y, en algunos casos, crear representaciones sexualizadas de menores
Las primeras imágenes de personas desnudadas sin consentimiento («nudificación») comenzaron a circular en los días posteriores al lanzamiento de la función, pero su difusión aumentó especialmente en la víspera de Año Nuevo. Según CNN, solo entre el 5 y el 6 de enero, Grok se utilizó para generar al menos 6.700 imágenes sexuales. Estas a menudo involucraban a mujeres o menores de edad.
«Grok ahora ofrece un ‘modo picante’ que muestra contenido sexual explícito con imágenes infantiles. Esto no es picante. Es ilegal. Es atroz», declaró entonces a la prensa el portavoz de asuntos digitales de la UE , Thomas Regnier .
La Comisión Europea, organismo de control digital del bloque, afirmó que tomaría nota de las nuevas medidas adoptadas por X y las revisaría. Los funcionarios advirtieron de que, si las medidas resultan insuficientes, la UE considerará aplicar plenamente su Ley de Servicios Digitales (DSA).
La vicepresidenta de la Comisión Europea, Henna Virkkunen, ha declarado que la Comisión está considerando prohibir explícitamente este tipo de imágenes sexuales generadas por IA en virtud de la Ley de IA, clasificándolas como riesgos inaceptables.
La prohibición de prácticas nocivas en el ámbito de la IA podría ser relevante para abordar el problema de las falsificaciones sexuales no consentidas y la pornografía infantil, afirmó Virkkunen, también comisaria responsable de Soberanía Tecnológica, Seguridad y Democracia, en la sesión plenaria del Parlamento Europeo celebrada esta semana en Estrasburgo. Añadió que la DSA mitiga el riesgo de difusión de material sexual en línea sin consentimiento.
También recordó que la Comisión había enviado una solicitud de información a X sobre Grok como parte de su investigación sobre la plataforma en virtud de la DSA.
Se solicitó a la plataforma que conservara todos los documentos y datos internos relacionados con ella hasta finales de año. «Estamos examinando hasta qué punto X podría estar incumpliendo la DSA y no dudaremos en tomar medidas adicionales si las pruebas así lo sugieren», declaró.
La Comisión ya había intensificado la presión sobre X, que recibió una multa de 120 millones de euros a principios de diciembre por violaciones de transparencia. La UE ha insistido en que aplicará sus normas a pesar de la reacción negativa de la administración estadounidense.
“La DSA es muy clara en Europa. Todas las plataformas deben poner orden en sus asuntos, porque lo que generan aquí es inaceptable, y el cumplimiento de la legislación de la UE no es una opción. Es una obligación”, declaró Regnier en el punto álgido del escándalo a principios de enero.
La semana pasada, un grupo de unos 50 eurodiputados pidió a la Comisión que prohibiera en el mercado de la UE las aplicaciones de inteligencia artificial utilizadas para crear imágenes de desnudos.

No puedo vivir sin X
A pesar de las críticas a X, casi todos los altos funcionarios de la UE siguen publicando allí en lugar de en alternativas europeas, según una investigación de dpa.
La presidenta de la Comisión Europea, Ursula von der Leyen, y otros altos funcionarios aún no tienen cuentas oficiales en Mastodon, una alternativa con sede en Alemania. Virkkunen abrió una cuenta oficial en Mastodon en enero. Altos políticos de la UE también participan activamente en Bluesky, otra plataforma estadounidense que está ganando terreno.
La Comisión justifica el uso continuado de X debido a su alcance: Mastodon tiene aproximadamente 750.000 usuarios mensuales, en comparación con los 100 millones de X, según las empresas.
El largo camino legal hacia una mayor seguridad en línea
El camino hacia la protección de los menores en la UE es largo, ya que las preocupaciones sobre privacidad, negocios y protección se contraponen. Diversas regulaciones se entrecruzan:
- Control de chat
En 2022, la Comisión propuso un reglamento para exigir a las plataformas que detecten y denuncien imágenes y vídeos de abuso (material de abuso sexual infantil o CSAM), así como los intentos de depredadores de contactar a menores.
El plan, apodado “Chat Control”, con el apoyo de varios grupos de protección infantil, desató intensos debates sobre la privacidad dentro del bloque de 27 países y condujo a acusaciones de vigilancia masiva.
Se espera que la legislación final se negocie a principios de 2026, con el objetivo de cerrar la brecha entre el enfoque centrado en la privacidad del Parlamento y el deseo del Consejo de la UE de contar con amplios poderes de escaneo voluntario.
Si bien se han ampliado las medidas temporales de escaneo voluntario hasta abril de 2026 para evitar un vacío legal, los eurodiputados han expresado la urgencia de encontrar una solución permanente.

- DSA
La Unión Europea utiliza la Ley de Servicios Digitales para sancionar a las plataformas en línea mediante la imposición de multas masivas, la exigencia de cambios operativos inmediatos y, como último recurso, la suspensión temporal de sus servicios. Puede aplicar multas si las plataformas violan las obligaciones de la DSA, no cumplen con las medidas provisionales o incumplen sus compromisos
Se trata de un reglamento de la UE para un mundo en línea más seguro, que exige a las plataformas abordar el contenido ilegal, proteger a los usuarios y aumentar la transparencia.
- Ley de IA
La Ley de IA se adoptó en 2024 y es el primer y único marco legal integral del mundo en el contexto de la inteligencia artificial. Establece un sistema basado en el riesgo para regular las tecnologías de IA dentro de la UE, con el objetivo de garantizar que sean seguras, fiables y respeten los derechos fundamentales, a la vez que fomentan la innovación
Prohíbe ciertas prácticas inaceptables de IA, como la puntuación social, y establece normas para áreas de alto riesgo para el uso de IA, como infraestructuras críticas o el ámbito laboral. También establece restricciones sobre usos manipuladores de IA, como los deepfakes dirigidos a menores, entre otros.
- Prohibiciones de redes sociales
Francia, que está considerando prohibir las redes sociales para menores de 15 años, ha estado probando una aplicación de verificación de edad desarrollada por la Comisión Europea desde este verano. Esta herramienta es uno de los varios métodos utilizados para verificar la edad de los usuarios de internet, lo que supone un dolor de cabeza tanto para los gigantes tecnológicos como para las autoridades
Esfuerzos individuales
La ministra española de Juventud e Infancia, Sira Rego, solicitó a principios de enero a la Fiscalía General del Estado que investigara si Grok podría estar cometiendo delitos relacionados con la difusión de material de abuso sexual infantil
Actualmente, España está desarrollando su propia ley para la protección de los menores en entornos digitales. Esta ley refuerza el marco para la protección de la integridad personal y la privacidad frente a nuevas formas de vulneración vinculadas al uso de tecnologías como la inteligencia artificial, reafirmando que el interés superior del menor debe prevalecer siempre sobre cualquier modelo de negocio digital.
Bulgaria ha intensificado sus esfuerzos para combatir el abuso sexual infantil en línea mediante la cooperación internacional con las fuerzas del orden, campañas nacionales de prevención y debates sobre políticas en consonancia con la legislación de la UE. En 2025, las autoridades búlgaras participaron en una importante operación internacional que clausuró Kidflix, una de las mayores plataformas mundiales de explotación sexual infantil, utilizada entre 2022 y 2025 por casi dos millones de usuarios.
Rumania cuenta con mecanismos legislativos para combatir el material de abuso sexual infantil a través de su código penal, y las autoridades están tratando de ampliar y modernizar esas normas.
Desde 2025, un importante proyecto de ley sobre la protección de la infancia en línea (denominado Ley de Mayoría de Edad en Internet) se encuentra en debate parlamentario, y Rumanía también participa e implementa gradualmente las normas de la UE para la prevención y la lucha contra el abuso sexual en línea. Esta ley introduce la verificación obligatoria de la edad y el consentimiento parental para que los menores de 16 años accedan a servicios en línea como redes sociales, juegos y plataformas de streaming.
Bosnia y Herzegovina, país candidato a la UE, aún no cuenta con una ley específica que regule este ámbito. En Bosnia y Herzegovina, la responsabilidad penal por la producción, distribución y posesión de dicho material se basa en leyes penales que abarcan la explotación sexual infantil, pero no contienen disposiciones explícitas sobre el contenido generado o simulado mediante inteligencia artificial.
La UE ha puesto en marcha un conjunto de herramientas y medidas complementarias para proteger a sus ciudadanos –jóvenes y mayores– de prácticas nocivas en línea, pero entre los puntos débiles se incluyen los desafíos en la aplicación, la amplificación algorítmica del daño, una implementación nacional inconsistente y debates sobre el equilibrio entre la seguridad y la privacidad.
Este artículo es una noticia clave de ENR. Su contenido se basa en información publicada por las agencias participantes de ENR.
