Ciencia y Tecnología

La UE avanza contra imágenes sexuales hechas sin permiso por IA

Los países de la Unión Europea quieren prohibir los sistemas de IA que generan deepfakes de carácter sexual, tras la indignación provocada por las imágenes de este tipo producidas por Grok, el chatbot propiedad de Elon Musk.

| Por La Tribuna
Elon Musk llega al tribunal federal el 4 de marzo del 2026 en San Francisco, California. Musk enfrenta un juicio civil por presuntamente manipular el precio de las acciones de Twitter antes de su compra de la compañía en el 2022. (JOSH EDELSON/Getty Images via AFP)

AFP. Los representantes de los 27 países del bloque en Bruselas aprobaron una enmienda a un proyecto de ley sobre inteligencia artificial, cuyo objetivo es prohibir estos servicios en toda la UE.

La disposición aprobada “prohíbe los servicios de IA para la generación de imágenes sexuales e íntimas no consentidas, o pornografía infantil”, según un comunicado del Consejo Europeo, el órgano de la UE que reúne a los Estados miembro.

El Parlamento Europeo trabaja en una enmienda similar, que podría ser aprobada en comisión la próxima semana.

El objetivo es prohibir los servicios de IA y otras aplicaciones que permiten a los usuarios “desnudar” a adultos o menores, o crear imágenes sexualmente explícitas de ellos sin su consentimiento, utilizando fotos o vídeos reales.

Hace unos meses Grok introdujo una función que permite a los usuarios crear imágenes de personas simulando desnudez a partir de fotos reales, lo que provocó indignación en muchos países y dio lugar a una investigación de la UE.

X, la plataforma donde está disponible Grok, declaró en enero su política de “tolerancia cero” ante los deepfakes sexualizados de niños y mujeres y afirmó haber tomado medidas para detener la creación de estas imágenes.

“No se trata de tomar medidas contra escándalos individuales como el de Grok, sino de limitar el poder que otorgamos a la IA”, subrayó el eurodiputado alemán Sergey Lagodinsky, miembro de Los Verdes y una de las figuras clave de esta iniciativa.

También te puede interesar

Últimas noticias