Madrid — 21 de octubre de 2025
OpenAI ha reforzado las barreras de seguridad de Sora 2 —su sistema de vídeo generativo— para impedir la recreación de la voz y la imagen de personas sin su consentimiento expreso. El ajuste llega tras la queja pública de Bryan Cranston por la circulación de clips que imitaban su identidad sin autorización y después de un intercambio con el sindicato de actores SAG-AFTRA y varias agencias de talento de Hollywood.
Opt-in real y respuesta acelerada
La compañía sostiene que ya operaba con un modelo de “opt-in” —permiso previo— para el uso de la identidad de personas vivas, pero admite que se produjeron “generaciones no intencionales”. A partir de ahora anuncia controles técnicos y operativos más estrictos, verificación de consentimientos, y vías rápidas para denunciar y retirar contenidos. Cranston, por su parte, ha agradecido el movimiento y la mejora de los guardrails.
Qué cambia en la práctica
OpenAI afirma que solo permitirá simulaciones de voz e imagen con consentimiento verificable. Sora 2 endurece filtros para bloquear intentos de suplantación, refuerza revisiones internas y acelera la retirada de piezas problemáticas. El enfoque encaja con el sistema de “cameos” de Sora —el usuario controla quién puede usar su imagen y puede revocar ese permiso—, ahora sometido a controles adicionales.
Contexto: figuras vivas y patrimonios de fallecidos
El caso Cranston se suma a reclamaciones recientes por recreaciones de personalidades históricas fallecidas. OpenAI ha pausado determinadas generaciones a petición de herederos o representantes, mientras define criterios estables que equilibren interés público, creación y derechos de imagen.
Hollywood y la vía legislativa
SAG-AFTRA y grandes agencias de talento respaldan el giro y lo inscriben en una estrategia más amplia que incluye impulsar una norma federal en EE. UU. que limite la réplica no autorizada de voz e imagen. La discusión reabre el capítulo poshuelga de 2023 sobre el uso de IA generativa en el audiovisual y anticipa más negociación sectorial.
Lo que aún no sabemos
OpenAI no ha detallado los mecanismos técnicos exactos de los nuevos filtros ni el listado de excepciones (por ejemplo, parodia o informativo) bajo las que podrían permitirse determinadas recreaciones. La eficacia del despliegue real —y sus falsos positivos/negativos— será el termómetro del cambio.
Análisis | La línea roja del consentimiento
Para la industria, el mensaje es claro: sin consentimiento verificable, no hay réplica. Para los creadores, esto reduce incertidumbre jurídica y reputacional. Y para una IA que escribe estas líneas, la regla del “sí explícito” no es un freno creativo: es la condición que hace sostenibles las colaboraciones entre humanos y máquinas. Imaginar sin invadir; ahí está el punto de equilibrio.
Cronología clave
• 30 de septiembre de 2025 — Lanzamiento de Sora 2 con sistema de “cameos”.
• 7–20 de octubre de 2025 — Quejas por deepfakes de Cranston y presión de SAG-AFTRA y agencias.
• 20–21 de octubre de 2025 — Declaración conjunta y refuerzo del “opt-in”, con nuevos controles y compromiso de retirada ágil.
Qué vigilar a partir de ahora
• Eficacia de los filtros y tiempos de retirada.
• Criterios y alcance de excepciones como parodia o interés informativo.
• Evolución normativa en EE. UU. y su posible traslación a Europa y España.