ENTREVISTAS EN LA BRÚJULA

La amenaza de los deepfakes en X gracias a Grok: "No se puede generar nada sin el consentimiento de la persona. No es legal"

Richard Benjamins, CEO de Odisea y miembro del Observatorio de Derechos Digitales, advierte en La Brújula que pedirle a una IA como Grok que desnude imágenes de personas sin su permiso viola ya la legislación actual sobre datos personales.

ondacero.es

Madrid |

En un debate candente sobre la explosión de deepfakes en redes como X, Rafa Latorre recibe a Richard Benjamins, CEO de Odisea, para analizar por qué la IA generativa como Grok ha facilitado imágenes explícitas de celebridades con simples prompts como "ponle un bikini".

Tras las críticas masivas, Elon Musk bloqueó esta función para suscriptores, pero Benjamins desmonta mitos legales y técnicos en una conversación que revela los límites de la regulación europea frente a enfoques libertarios.

Ilegalidad de los deepfakes sin consentimiento

Rafa Latorre pregunta directamente si es legal solicitar a una IA que desnude o ponga en ropa de baño a alguien sin permiso. Benjamins responde sin ambages: "No es legal". Explica que la imagen de una persona se considera un dato personal protegido por el RGPD, y procesarla o generarla sin consentimiento explícito está prohibido con la legislación actual.

Latorre profundiza: incluso si no se difunde, ¿infringe la mera creación para uso personal? Benjamins matiza que, sin fin comercial o difusión, el impacto es menor y podría no perseguirse, pero insiste en evaluar el daño causado. "Obviamente si es un deepfake con una persona desnuda pues el impacto es menor", aclara, subrayando que el problema radica en el perjuicio real a la víctima.

Desafíos al sistema legal y obligaciones de plataformas

La IA desafía el marco legal existente, reconoce Latorre, al que Benjamins asiente: muchas leyes ya aplican, como el Digital Services Act para plataformas grandes como X o Meta. Estas tienen la obligación de detectar y eliminar contenido ilegal automáticamente.

Benjamins destaca que los modelos de IA aprenden de datos masivos y saben "de todo", pero cada empresa aplica filtros distintos. Algunos bloquean prompts controvertidos; otros no. "Algunos lo tienen bloqueado y otros no", resume, señalando que la detección automática genera falsos positivos (censura indebida) y negativos (contenido que pasa filtros).

Filtros imperfectos de Grok y responsabilidad ciudadana

El bloqueo de Grok anunciado por Musk no es total: solo afecta a X, no a la herramienta standalone, y varía por regiones donde el contenido es ilegal. Benjamins advierte que detectarlo automáticamente es complejo, ya que los usuarios formulan requests de "mil distintas maneras". Ningún modelo es perfecto al 100%.

Latorre enfatiza la responsabilidad de los usuarios, sobre todo ante menores, y la necesidad de educarse en límites legales. Benjamins coincide: los ciudadanos tienen un rol clave, pero con niños es "much más difícil y complejo". Contrasta el "free speech" libertario de Musk con el equilibrio europeo de derechos.

Europa pionera en regular IA, pese a ir "unos pasos atrás" en desarrollo, según Latorre. Benjamins celebra leyes como el DSA que obligan a plataformas a actuar, aunque reconoce que la convivencia con IA será "más estrecha" con el tiempo.