Tal y como analizamos a principios de este 2024, las próximas elecciones en multitud de países (incluido EEUU) van a tener mucho en juego. Y la IA juega por primera vez un papel clave en su desenlace. Sin embargo, contra todo pronóstico, Open AI ha compartido en su blog las acciones que van a llevar a cabo para prevenir la desinformación y que Chat GPT tenga un impacto negativo sobre las elecciones. ¿Será suficiente?
Las medidas de Open AI para proteger las elecciones
En 2024, la próxima elección presidencial se acerca y surge un nuevo desafío: la inteligencia artificial generativa. Tanto las imágenes como el texto generados por IA pueden parecer tan realistas que es difícil distinguir lo real de lo falso, lo que puede ser especialmente perjudicial durante las elecciones al influir en la opinión pública. Ya hemos visto en acción el potencial de los deep fakes. Para abordar estas preocupaciones, OpenAI compartió esta semana su plan para abordar las elecciones globales, incluyendo cambios en sus políticas de uso para ChatGPT y APIs. Esto incluye la prohibición de aplicaciones para campañas políticas o lobbying, así como la creación de chatbots que simulan ser personas reales. De la misma forma, no es posible generar contenido para disuadir a los ciudadanos de acudir a las urnas o desincentivar el voto.
También están trabajando en autenticación y detección de imágenes falsificadas, así como en proporcionar acceso a noticias en tiempo real para combatir la desinformación. Sin embargo, muchas de estas medidas aún no se han implementado, por lo que se recomienda precaución al consumir noticias electorales y verificar siempre las fuentes de la información en la web. En otros casos, las medidas que plantea Chat GPT dependen de que los propios usuarios denuncien cuando el chatbot ofrezca respuestas inapropiadas. Mediante el botón de “reportar” cualquiera puede notificar a Open AI de una respuesta que viole las normativas de Chat GPT.
¿Será suficiente?
Por un lado, resulta prometedor que la empresa detrás del chatbot más popular del momento, Chat GPT, sea consciente del peligro que puede suponer su tecnología de cara a las próximas elecciones. Como explican en su blog, son conscientes de que la IA se puede utilizar para fines deshonestos, y quieren luchar contra esto. La iniciativa de Open AI demuestra buena voluntad por su parte, pero la realidad es que la tecnología detrás de su chatbot y sobre todo de sus APIs es difícilmente regulable. Mientras exista una mala voluntad, la IA se puede utilizar para causar todo tipo de manipulaciones o desequilibrios de las elecciones. Lo que sería interesante, sería que redes como X (Twitter) incorporasen un detector más efectivo de contenido generado con IA o desinformación. Pero dada la actitud reciente de Elon Musk, podemos considerar improbable que esto suceda pronto. Por no hablar de que existen muchos otros chatbots y herramientas para generar contenido con IA. Hasta cierto punto, la caja de pandora ya está abierta y difícilmente vamos a poder volver atrás. Es por esto que ahora más que nunca es importante consumir medios confiables y contrastar la información online. Esperemos que los políticos también se tomen la molestia de verificar lo que cuenten…