Según los modelos generativos son cada vez más hábiles a la hora de crear todo tipo de contenido, el principal reto para muchos sectores va a ser poder averiguar si la IA está detrás o no. Google parece tener una solución para este acuciante problema, mientras la legislación se sigue demorando. Quizás hay una manera de que dejen de difundirse imágenes falsas, una buena noticia para muchos famosos.
SynthID, la solución que propone Google
Desde el origen de internet, una manera efectiva de proteger y catalogar imágenes en la red ha sido a través de marcas de agua. Con SynthID, el gigante de Silicon Valley pretende marcar las imágenes de tal forma que se pueda conocer si la IA las ha creado. La marca de agua que crea es indetectable para el ojo humano pero puede identificarse por un ordenador entrenado para ello. Desde Google aseguran que su sistema es resistente a los intentos de manipulación y puede frenar los deep fakes y las campañas de desinformación. Pese a que esta tecnología lleva años mejorando, ha sido en los últimos meses que la IA generativa de imágenes ha despegado y ha sorprendido al planeta con sus creaciones. Pero también hemos comenzado a observar el daño que se puede causar utilizando estas herramientas con fines deshonestos. Y las elecciones tienen muchas papeletas de usar la IA para crear campañas de desinformación.
Por el momento, la herramienta de Google está en fase experimental y solo está disponible para algunos usuarios de pago. Además, SynthID todavía solo es capaz de colocar esta marca de agua en las imágenes creadas por la propia herramienta de creación de Google, Imagen. En última instancia, buscan encontrar un sistema que se pueda extrapolar a todo el contenido en línea y que permita identificar rápidamente la autoría de la IA. Sin embargo, el vicepresidente de Google DeepMind, el laboratorio de la compañía centrado en investigar y probar nueva tecnología, advierte de que el sistema todavía no es infalible. La pregunta es si eventualmente serán capaces de diferenciar con precisión el contenido de la IA. De lo contrario, la IA no dejará de crear un contenido cada vez más realista y puede ser capaz incluso de borrar los límites entre lo que es real y lo que es falso. Google ha preferido no compartir muchos detalles sobre el funcionamiento de su herramienta para que no sea posible encontrar un atajo, por lo menos no tan rápido.
La importancia de poder distinguir la obra de la IA
En marzo se propagaron por internet como la pólvora varias imágenes que mostraban al Papa Francisco con un abrigo de Balenciaga, luciendo un estilo poco habitual para un pontífice. Muchos medios de todo el mundo se hicieron eco de esta noticia, hasta que tuvo que ser desmentida por el propio Vaticano. Al poco tiempo se volvieron virales las imágenes que mostraban a Donald Trump huyendo de la policía, ya que muchos pensaron que eran ciertas. En mayo, una imágen falsa que mostraba una explosión en el Pentágono incluso hizo tambalearse la bolsa de valores. En los últimos meses, la lista de famosos que han sufrido deep fakes es interminable, por ejemplo en el caso de Rosalía cuando se difundieron presuntas imágenes de ella sin ropa. Todos estos casos apuntan al peligro que puede tener la IA de perjudicar la imagen de personas relevantes, o incluso ocasionar una crisis diplomática o política. Con las elecciones en EEUU a solo un año, las empresas tienen cada vez más presión para etiquetar las creaciones con IA y evitar la difusión de fake news. Pero está claro que todavía no se ha hecho lo suficiente.
En teoría, las herramientas que generan imágenes con IA ya incluyen una pequeña marca o sello, pero este se puede eliminar fácilmente con una sencilla edición. Los expertos indican que todavía apenas hemos visto todo el potencial que tienen los deep fakes para crear situaciones ciertamente peligrosas. Pero además de crear y divulgar noticias falsas, la IA dificulta la difusión de información veraz y real. En el momento que es imposible distinguir si una noticia es real o es obra de la IA, es muy fácil sembrar desinformación y crear divisiones políticas. Si un titular te desagrada, puedes catalogarlo de forma impune como fake news, tal y como demostró Trump. Además, las propias empresas tecnológicas como Twitter (X), Facebook y YouTube están desistiendo en su esfuerzo por identificar las noticias falsas. La Casa Blanca ha instado a las principales empresas detrás de la IA como Microsoft y Open AI a encontrar una solución. Un sistema universal de marcas de agua podría ser la clave, si se consiguen integrar a las imágenes de una forma inseparable.
Para los artistas es una manera esencial de poner en valor su trabajo. El sello human-made es la única manera de que puedan sobrevivir muchos oficios, principalmente creativos. Por el momento, muchas de las imágenes con IA tienen pequeños errores o detalles que delatan su origen artificial, pero es indudable que cada vez se van a volver más realistas. En otros sectores como la música, la fotografía, el arte o incluso el cine, la IA tiene el potencial de reemplazar por completo a los humanos. Algunos expertos hablan de que este problema nunca tendrá solución, y será una guerra constante entre los sistemas de detección y los creadores de deep fakes. Esto es lo que sucede con los hackers y los creadores de ciberseguridad. La única esperanza reside en que el público general tome conciencia del daño que puede causar el contenido falso, antes de que sea demasiado tarde.