Novedades tecnológicas
Luces y sombras de Sora 2, la fascinante nueva red social de vídeos hiperrealistas de IA en la que todo es falso
Tras ChatGPT, OpenAI logra un nuevo éxito viral con una plataforma similar a TikTok que permite a los usuarios generar vídeos sintéticos que recrean todo tipo de situaciones, una herramienta creativa que también despierta críticas por posibles violaciones de los derechos de autor

Un vídeo creado con IA a través de la aplicación Sora en la que se recrea a Sam Altman, director ejecutivo de OpenAI, como un titiritero. / OpenAI

Jesús grabando un selfie durante la última cena, un Ronald McDonald ebrio siendo perseguido por la policía o un debate presidencial con Pikachu como candidato. Este es el mundo de fantasías hiperrealistas que propone Sora 2, la flamante nueva red social que permite crear y compartir clips de vídeo generados con inteligencia artificial y con la que el gigante tecnológico OpenAI, responsable de ChatGPT, ha vuelto a poner al sector patas arriba. EL PERIÓDICO ha podido entrar en la plataforma, un torrente de contenidos surrealistas y meméticos en los que la línea que separa realidad y ficción se diluye, para explorar cómo este nuevo salto de la IA abre un abanico de oportunidades creativas, pero también de riesgos.
Piensa en un TikTok en el que todo el contenido que ves es sintético, no real. Así es la nueva versión de Sora, anunciada el pasado martes. La aplicación, diseñada para replicar el scroll infinito de rivales como la china, Instagram Reels o YouTube Shorts, no es la primera en apostar por un feed algorítmico protagonizado por la IA generativa. Meta lanzó hace dos semanas su propia versión, bautizada como Vibes, que ha recibido un alud de críticas negativas.
Por ahora, Sora solo está disponible en iOS —el sistema operativo de Apple— mediante invitación y su acceso queda limitado a los usuarios de Estados Unidos y Canadá. A pesar de esa restricción, es ya la app más descargada en la App Store, un éxito que se debe a su calidad, pero también a su enfoque social. Se diferencia de las demás por su capacidad de recrear versiones digitalizadas de las caras y voces de los usuarios, lo que llaman cameo.
Experimentación artística con tu imagen
OpenAI está incentivando el uso de los cameos. Al crearte una cuenta, Sora te pide grabar tu rostro para crear tu réplica virtual, experimentar con tu imagen y compartir el resultado con los demás. EL PERIÓDICO ha obtenido un pase para utilizarla y, en pocos minutos y con muy pocas indicaciones, ha podido generar vídeos hiperrealistas de una persona real convertida en astronauta, surfista, personaje de Tolkien o de un anime cyberpunk. Con ello, la compañía no solo apela a la curiosidad personal, una estrategia que permitió a ChatGPT convertirse en la app de más rápido crecimiento de la historia; también juega con lo que se conoce como valle inquietante –el efecto que mide la reacción humana a sus réplicas antropomórficas– para sorprender y enganchar al usuario.
"El resultado es increíble y aún no hemos visto todo su potencial", explica Isabel Martínez, directora creativa en Isabelita Virtual y curator externa de OpenAI. La artista catalana ve en Sora una herramienta de creación que abre nuevas ventanas narrativas, una evolución exponencial de lo que en su día supusieron los filtros de Instagram. "Ya no necesitas tener muchos conocimientos técnicos ni elaborar un prompt detallado para explicar muchas cosas de forma impresionante (...) Aún así, lo que te hace artista no es eso, sino tener una mirada propia que aporte", añade.
Ya no necesitas tener conocimientos técnicos ni elaborar un 'prompt' detallado para explicar muchas cosas de forma impresionante
Riesgo de desinformación
El interés comercial de OpenAI en que Sora sea un éxito explica que su director ejecutivo, Sam Altman, se haya expuesto como conejillo de indias y esté permitiendo que todos los usuarios puedan utilizar su imagen para generar todo tipo de ensoñaciones sintéticas. Eso puede ser divertido, como verle junto a Franco en un programa del NO-DO, pero también peligroso. Uno de los vídeos más virales le muestran en un supermercado robando las tarjetas gráficas de Nvidia que la compañía necesita para sus productos de IA generativa.
La facilidad con la que Sora 2 genera vídeos verosímiles —al igual que Veo 3, de Google— despierta preocupación por su potencial uso para fines maliciosos como la desinformación, el acoso o la suplantación de identidad. Y es que, cuánto más realistas son las imágenes, más fácil es que alguien asuma erróneamente que son ciertas. Además, la app permite replicar ciertas personalidades fallecidas y modificar sus palabras o logotipos de empresas, lo que puede contribuir al problema. El influyente portal TechCrunch ha descrito la plataforma como "básicamente un generador de deepfakes".
Restricciones que fallan
Ese peligro podría explicar que OpenAI haya decidido limitar su acceso. La start-up también ha adoptado múltiples medidas para minimizar riesgos como dar a los usuarios el control sobre quién publica vídeos con su rostro, prohibir la generación de contenido violento, pero también del erótico o sexual para evitar la pornografía sintética, bloquear las réplicas de políticos como Donald Trump y de celebridades como Taylor Swift o añadir una marca de agua en los vídeos descargados para identificarlos como IA cuando circulen sin control por otros lares de Internet. "Algunos vídeos pueden mostrar gente que conoces, pero las acciones y los actos mostrados no son reales", advierte un mensaje de bienvendia al crearte tu cuenta.
Todo eso podría ser insuficiente. The New York Times ha logrado esquivar parcialmente esos cortafuegos y crear vídeos falsos de escenarios de guerra, bombas estallando en ciudades o un hombre encapuchado metiendo papeletas de voto en un buzón. The Washington Post ha hecho lo mismo con vídeos de IA altamente creíbles que recrean el asalto al Capitolio de EEUU. Los expertos advierten que la proliferación de contenido basura (AI slop, en la jerga anglosajona) en un ecosistema digital marcado por la economía de la atención amenaza con sepultar la realidad. Ver para no creer.
OpenAI ha atravesado en los últimos meses una crisis de reputación causada por el impacto de ChatGPT en la salud mental de algunos usuarios. Consciente de ese daño, Altman ha prometido que si Sora no mejora la vida de los usuarios ni garantiza su "satisfacción a largo plazo" tomará la decisión de "dejar de ofrecer el servicio".
OpenAI está adoptando una postura de guerra contra Hollywood (...) Es un incumplimiento total de la propiedad intelectual
Derechos de autor
En menos de una semana de existencia, Sora también ha despertado críticas por su laxitud con los derechos de autor. Aunque la app no te deja generar vídeos de Los Simpson o Bola de Dragón, muchos usuarios están esquivando las barreras de censura para recrear personajes protegidos como Super Mario o Peter Griffin de Padre de Familia, violando de forma masiva su propiedad intelectual. EL PERIÓDICO también ha podido hacerlo con figuras de El Señor de los Anillos.
En lugar de pedir permiso previo, como exige la ley, OpenAI utiliza contenido protegido y deja en manos de los afectados denunciar cualquier infracción. Este enfoque, que la compañía ya aplica con ChatGPT y la información de los medios de comunicación, invierte la práctica habitual. "Están adoptando una postura completamente de guerra contra la industria del contenido, contra Hollywood (...) Es un incumplimiento total", valora Jorge Morell Ramos, abogado experto en derechos de nuevas tecnologías, que advierte que esa estrategia puede "cambiar las normas del juego". Es la estrategia de "pide perdón, no permiso".
Algunos creadores están utilizando la app para cuestionar la ética de esa decisión. Un vídeo, de claro tono irónico, muestra a Altman rodeado de criaturas Pokémon y diciendo: "Espero que Nintendo no nos denuncie". Si Sora puede generar personajes con propiedad intelectual es que ha sido entrenada (ilegalmente) con ese material gráfico. En Sora también hay vídeos de Bob Esponja suplicándole al joven magnate tecnológico que deje de hacerlo. Las quejas han llevado a Altman a limitar esos usos.
Sora también genera algunas dudas en materia de privacidad. Por un lado, porque utiliza tus datos biométricos para recrear tu parecido. Por el otro, porque puede usar tu dirección IP y tu historial de ChatGPT para personalizar el contenido que genera.
Aunque la semana pasada OpenAI disparó su valor a 500.000 millones de dólares, por ahora pierde dinero con Sora. La compañía ha asegurado que, a diferencia de Meta, no desplegará anuncios en la plataforma y que tratará de monetizarla "de alguna manera", por ejemplo con la venta de créditos para poder generar más vídeos. Aun así, Altman ha dejado la puerta abierta a una rectificación. "Esperad un ritmo de cambios muy elevado por nuestra parte", señaló el sábado en su blog personal. "Tomaremos algunas buenas decisiones y cometeremos algunos errores".
Suscríbete para seguir leyendo
- Ojo con los detergentes de lavavajillas: los pediatras alertan de su relación con la salud intestinal y el aumento de alergias en niños
- Un profesor de instituto en Catalunya cobra 2.713 euros brutos, 521 euros menos que en el País Vasco
- Profunda alarma': La Comisión Europea indigna a eurodiputados y sociedad civil con una desregulación digital para satisfacer a los gigantes de la inteligencia artificial
- Javier Niederleytner, agente financiero y profesor del IEB: 'Quien tenga hipoteca variable no va a ver grandes alegrías en 2026
- Encarnita Polo muere asesinada por estrangulamiento en la residencia de mayores en la que vivía
- Àlex Márquez: “Si un día, luchando con Marc, nos caemos, será porque uno de los dos la ha cagado”
- Un informe impulsado por Vilajoana apunta que el Barça es el club más endeudado de la historia del fútbol europeo
- El BCE estima que la vivienda en España vale un 16,8% más de lo que debería: se eleva ya al máximo en 16 años