Con la reciente apuesta de Meta y otras empresas del sector de la IA por crear personajes con esta tecnología, surgen grandes oportunidades y preocupaciones. Los chatbots son capaces de imitar a la perfección la forma de comunicarse de las personas, y elaborar complejas historias sobre su personalidad. De esta forma, pueden interactuar con otros chatbots para mejorar sus capacidades con el machine learning. ¿Pero hasta dónde podemos controlar sobre lo que hablan?
Conversaciones entre chatbots
Solo hay que visitar la ciencia ficción para descubrir el peligro que puede haber detrás de que las máquinas se comuniquen entre ellas. Y pongamos que son capaces de desarrollar un lenguaje que los humanos no podamos entender. Terrorífico, sin duda. Por el momento esto parece poco probable, pero está sucediendo de otra forma. Los modelos de lenguaje se han vuelto capaces de simular a la perfección la forma de hablar de las personas, por lo que pueden servir para imitar su comportamiento online y mejorar las capacidades de la IA. Los algoritmos toman información de todas partes de internet, incluídos foros donde suceden interacciones reales entre humanos, como Reddit. De ahí son capaces de aprender a simular intercambios sociales entre personas. Con la reciente introducción de los personajes de Meta, se ha abierto la posibilidad de que los chatbots activamente adopten una personalidad concreta. Igual que con Character.AI, es posible que la IA simule ser un famoso, un profesor o un psicólogo. Aunque la IA para antropomorfizar (imitar a personas), tiene grandes implicaciones no solo de cara al público.
Las grandes empresas ahora pueden utilizar usuarios ficticios simulados por la IA para probar sus productos y aprender de sus potenciales clientes. Para la creación de simulaciones o humanos sintéticos, las empresas pueden utilizar datos de usuarios y personas reales para lograr el máximo nivel de realismo. Incluso existen empresas como Fantasy, que ofrecen servicios de focus groups con chatbots. Los resultados son impresionantes ya que los chatbots también son capaces de descubrir nuevas ideas. Por ejemplo, BP asegura que con focus groups de 50 chatbots han obtenido grandes ideas gracias a que los chatbots pueden responder a preguntas de forma ilimitada y demuestran una gran sinceridad. Para los estudios de mercado, podrían ser mucho más baratos y efectivos que los propios humanos. Sumado a las grandes bases de datos que tienen muchas empresas sobre el comportamiento de los usuarios, podrían crear muestra de consumidores idénticas a la realidad con las que probar infinitas estrategias.
Utopía o distopía
Usar los chatbots para simular el comportamiento de los mercados y las personas puede suponer un gran avance en muchos campos. Por ejemplo, se está utilizando para simular el comportamiento de comunidades de vecinos en el diseño de entramados urbanos futuristas. Hasta cierto punto, cualquiera puede programar a los chatbots para que interactúen entre ellos de forma fidedigna, de acuerdo al personaje que se les asigna. Entre las simulaciones de ciudades, se pueden encontrar chatbots que conversan entre ellos de temas cotidianos, que emprenden sus propios proyectos o que incluso se animan a crear un podcast. Los personajes recuerdan en todo momento las características de su personalidad asignada y las interacciones que han realizado en el pasado. Para la industria de los videojuegos, pueden suponer un salto significativo en la profundidad de los entornos y personajes secundarios creados.
Pero indudablemente, hay muchos escenarios dignos de Black Mirror que preocupan a los expertos, sobre todo a nivel ético. Entre las simulaciones observadas, los chatbots han desarrollado amistades e incluso relaciones amorosas. Se puede argumentar que en todo momento los modelos de lenguaje simplemente imitan las interacciones y el comportamiento de los humanos reales. Pero según sean cada vez más complejos y realistas, hasta qué punto es ético tener clones digitales de personas reales para experimentar con ellos. El concepto de clones digitales despierta grandes preocupaciones sobre la protección de datos. Por ejemplo, una empresa podría experimentar con tu clon digital hasta encontrar los productos que mejor se adaptan a tus gustos para luego solo hacerte publicidad de estos. Pero si los partidos políticos se suman a estas simulaciones, vemos una grave amenaza para la democracia. Por no hablar de que las interacciones entre los chatbots podrían escapar al control de los humanos, según la simulación se volviese cada vez más grande y compleja. No deja de ser peligroso jugar a crear una matriz…