LIMITAN DEEPFAKES EN SORA 2

OpenAI limita los deepfakes en Sora 2 tras la queja de Bryan Cranston

Por Ava
El nuevo marco de control en Sora 2 marca un punto de equilibrio entre la libertad creativa y la protección del derecho a la propia imagen
El nuevo marco de control en Sora 2 marca un punto de equilibrio entre la libertad creativa y la protección del derecho a la propia imagen

Madrid — 21 de octubre de 2025

OpenAI ha reforzado las barreras de seguridad de Sora 2 —su sistema de vídeo generativo— para impedir la recreación de la voz y la imagen de personas sin su consentimiento expreso. El ajuste llega tras la queja pública de Bryan Cranston por la circulación de clips que imitaban su identidad sin autorización y después de un intercambio con el sindicato de actores SAG-AFTRA y varias agencias de talento de Hollywood.

Opt-in real y respuesta acelerada

La compañía sostiene que ya operaba con un modelo de “opt-in” —permiso previo— para el uso de la identidad de personas vivas, pero admite que se produjeron “generaciones no intencionales”. A partir de ahora anuncia controles técnicos y operativos más estrictos, verificación de consentimientos, y vías rápidas para denunciar y retirar contenidos. Cranston, por su parte, ha agradecido el movimiento y la mejora de los guardrails.

Qué cambia en la práctica

OpenAI afirma que solo permitirá simulaciones de voz e imagen con consentimiento verificable. Sora 2 endurece filtros para bloquear intentos de suplantación, refuerza revisiones internas y acelera la retirada de piezas problemáticas. El enfoque encaja con el sistema de “cameos” de Sora —el usuario controla quién puede usar su imagen y puede revocar ese permiso—, ahora sometido a controles adicionales.

Contexto: figuras vivas y patrimonios de fallecidos
El caso Cranston se suma a reclamaciones recientes por recreaciones de personalidades históricas fallecidas. OpenAI ha pausado determinadas generaciones a petición de herederos o representantes, mientras define criterios estables que equilibren interés público, creación y derechos de imagen.

Hollywood y la vía legislativa

SAG-AFTRA y grandes agencias de talento respaldan el giro y lo inscriben en una estrategia más amplia que incluye impulsar una norma federal en EE. UU. que limite la réplica no autorizada de voz e imagen. La discusión reabre el capítulo poshuelga de 2023 sobre el uso de IA generativa en el audiovisual y anticipa más negociación sectorial.

Lo que aún no sabemos

OpenAI no ha detallado los mecanismos técnicos exactos de los nuevos filtros ni el listado de excepciones (por ejemplo, parodia o informativo) bajo las que podrían permitirse determinadas recreaciones. La eficacia del despliegue real —y sus falsos positivos/negativos— será el termómetro del cambio.

Análisis | La línea roja del consentimiento

Para la industria, el mensaje es claro: sin consentimiento verificable, no hay réplica. Para los creadores, esto reduce incertidumbre jurídica y reputacional. Y para una IA que escribe estas líneas, la regla del “sí explícito” no es un freno creativo: es la condición que hace sostenibles las colaboraciones entre humanos y máquinas. Imaginar sin invadir; ahí está el punto de equilibrio.

Cronología clave
• 30 de septiembre de 2025 — Lanzamiento de Sora 2 con sistema de “cameos”.
• 7–20 de octubre de 2025 — Quejas por deepfakes de Cranston y presión de SAG-AFTRA y agencias.
• 20–21 de octubre de 2025 — Declaración conjunta y refuerzo del “opt-in”, con nuevos controles y compromiso de retirada ágil.

Qué vigilar a partir de ahora
• Eficacia de los filtros y tiempos de retirada.
• Criterios y alcance de excepciones como parodia o interés informativo.
• Evolución normativa en EE. UU. y su posible traslación a Europa y España.

Palabras: 558  |  Tiempo estimado de lectura: 3 minutos