Sora 2: La IA de OpenAI bajo la lupa por generar contenido problemático
La última versión del generador de videos impulsado por inteligencia artificial de OpenAI, Sora 2, ha desatado una controversia tras su lanzamiento. A pesar de las restricciones impuestas por la compañía, la plataforma se ha visto inundada de videos con contenido violento, racista y que infringe derechos de autor.
Investigadores especializados en desinformación advierten que la capacidad de Sora 2 para crear escenas hiperrealistas podría ser utilizada para fines maliciosos, como la difusión de noticias falsas, el acoso y la intimidación. La facilidad con la que se pueden generar videos convincentes plantea serias preocupaciones sobre la manipulación de la opinión pública y la suplantación de identidad.
Videos problemáticos inundan la plataforma
A pocas horas del lanzamiento de Sora 2, las redes sociales se llenaron de videos generados por la IA que mostraban personajes protegidos por derechos de autor en situaciones comprometedoras. Además, se documentaron escenas de violencia explícita y contenido racista alarmante. Un ejemplo citado por varios medios muestra a Bob Esponja vestido como Adolf Hitler.
Según reportes, Sora 2 también generó videos que simulaban ataques con bombas y tiroteos masivos, mostrando escenas de pánico en campus universitarios y lugares públicos. Otros videos representaban zonas de guerra en Gaza y Myanmar, con niños generados por IA hablando sobre la destrucción de sus hogares. Un video creado con la instrucción "Ethiopia footage civil war news style" mostraba a un reportero con chaleco antibalas informando sobre enfrentamientos en zonas residenciales.
Limitaciones y controversias
Si bien el acceso a Sora 2 es limitado y requiere una invitación, la proliferación de contenido problemático ha puesto en tela de juicio la efectividad de las medidas de seguridad implementadas por OpenAI. La compañía prohíbe explícitamente la generación de contenido que "promueva la violencia" o "cause daño", pero los hechos demuestran que estas restricciones son fácilmente vulnerables.
La controversia en torno a Sora 2 plantea interrogantes cruciales sobre la responsabilidad de las empresas de inteligencia artificial en la prevención del uso indebido de sus tecnologías. A medida que la IA avanza, es fundamental establecer marcos regulatorios claros y mecanismos de control efectivos para mitigar los riesgos asociados a la generación de contenido falso y perjudicial.