En el mundo de la abogacía, llevamos unos años acostumbrándonos a escuchar una previsión de futuro gris y apocalíptica donde la inteligencia artificial nos enviará a todos a la cola del paro. No somos los únicos que llevamos la cruz roja marcada en la espalda, otros muchos sectores han sido señalados como los próximos en claudicar frente al avance de la tecnología. Sin embargo, hay un colectivo que poco a poco está viendo cómo esa nube se detiene encima de ellos.
Hace unos meses, los periódicos se hacían eco de una noticia, desmentida al poco, que dejaba entrever un escenario que pocos se planteaban. La noticia, directa de los Estados Unidos, anunciaba que Bruce Willis había “vendido” –cedido– sus derechos de imagen a la compañía DEEPCAKE. Una compañía, disculpad la falta de originalidad, que utiliza tecnología deepfake. Aunque a estas alturas prácticamente todo el mundo conoce el resultado, para contextualizar y situar correctamente la materia, esta tecnología permite tomar unas imágenes, videos o sonidos generados por un sistema de IA que, entrenado con los datos adecuados, es capaz de recrear la imagen –estática o en movimiento– y voz de cualquier persona, superponiendo la creación sobre la apariencia de un tercero. La misma tecnología que se utilizó para resucitar a Lola Flores para la campaña de Cruzcampo y la que podría devolver a la vida a grandes actores que las generaciones más jóvenes solo conocemos de oídas.
Si bien esta tecnología augura un sinfín de posibilidades, pone sobre el tablero de juego un número similar de problemas por resolver.
Aunque la noticia, como les gusta llamarlo al otro lado del charco, eran fake news y el actor simplemente cedió sus derechos de imagen para un anuncio en Rusia, parece que empieza a abrirse poco a poco la caja de Pandora. De hecho, a diferencia del caso anterior, en el que la compañía contaba con el beneplácito del actor, hace apenas unos días, TikTok se veía obligada a eliminar de su plataforma un video que se convertía en viral en unas pocas horas, donde el famoso cómico Joe Rogan o más bien, su doble en versión generada por IA, promocionaba un suplemento para hombres.
El productor francés, David Guetta, a modo de broma o experimento, utilizó dos IAs distintas. Acudió a un sitio web que permite escribir un verso con el “estilo” de Eminem y utilizó otra para recrear la voz de este último. La canción en cuestión sonó en uno de sus conciertos e inevitablemente el público enloqueció ante esta “colaboración” que pocas personas podrían haberse imaginado. Eminem no se ha pronunciado pero habida cuenta que David Guetta ha subido el video del concierto a la plataforma YouTube con el nombre “Eminem but with AI (I’m not releasing it commercially obviously)” (Eminem pero con IA (no lo voy a lanzar comercialmente, obviamente)), parece que no le pareció tan importante obtener su consentimiento.
En un país como España, donde existe un derecho a la propia imagen fuerte y una regulación de datos personales también restrictiva, esta tecnología puede verse limitada. Sin embargo, otros países donde no existe tal protección y, en cambio, tienen instaurado un sistema dual que diferencia entre publicity/privacy, junto a un derecho a la libertad de expresión quasi total, la aparición de determinados usos que posibilita esta tecnología, puede suponer un verdadero quebradero de cabeza.
No es baladí que los derechos que aquí se ven afectados cuenten con una mayor protección. En España es un derecho fundamental regulado en la Constitución Española que, junto a la Ley Orgánica 1/1982, despliega toda su fuerza en el territorio español. El deepfake permite recrear la imagen de una determinada persona, ya sea un simple ciudadano de a pie –si se cuenta con los datos adecuados–, un músico, un cantante e incluso, un jefe de estado. No discrimina. Y permite recrear un escenario que nunca ha ocurrido, poniendo en boca de sus dobles, palabras que nunca han dicho. Ahora, todo el mundo con un ordenador y una conexión a internet puede acceder a los centenares de sitios web que ofrecen esta tecnología de forma gratuita y cada vez con mejores resultados que, inevitablemente, nos pueden hacer caer en error y pueden llegar a engañar incluso al ojo más crítico. Porque, si bien esta tecnología está aún en fase de desarrollo y las aplicaciones gratuitas no nos ofrecen (aún) la mejor versión, ya ha ocurrido que el propio Presidente de Ucrania, tuvo que salir –hace ahora casi un año– a desmentir el video que circulaba por las redes sociales, donde él mismo anunciaba la rendición del país. Aunque no debería haber causado tanto alboroto por lo evidentemente falso que era, si este mismo video volviera a grabarse hoy, el resultado sería muy distinto, pudiendo llegar a causar daños irreparables.
Ahora solo queda esperar y ver que posibles mecanismos pueden surgir para tratar de regular y advertir al espectador de que la imagen que tienen delante no es lo que parece y que, aunque una imagen vale más que mil palabras, cada vez deberemos ser más críticos y escépticos para intentar distinguir entre realidad y ficción, en un momento en el que la línea entre ambas parece que cada vez es más débil.