El miércoles 14 de junio el Parlamento Europeo ha votado con una gran mayoría para aprobar el AI Act, la primera Ley de Inteligencia Artificial que podría transformar el marco legislativo a nivel mundial. Los reguladores europeos se proponen determinar unos límites al uso que podrán las empresas realizar de la inteligencia artificial, con el fin de proteger a los ciudadanos de la Unión Europea de los grandes riesgos que contempla la implementación masiva de esta. Sin embargo, los gigantes tecnológicos desde Silicon Valley podrían no estar para nada de acuerdo con algunos de los detalles de esta ley, ya que están invirtiendo millones en esta tecnología que pretende cambiarlo todo.
Frenar el uso inadecuado de la Inteligencia Artificial
En una primera instancia, el Parlamento Europeo pretende frenar los usos más radicales de la inteligencia artificial, que suscitan los mayores temores distópicos entre la población. Determinan por lo tanto limitar los usos que presentan un nivel de riesgo inaceptable para la democracia, como sistemas de vigilancia y puntuación social (ya establecido en China), donde se clasifican a las personas en base a su comportamiento y situación socioeconómica. Otro ejemplo sería restringir el uso de inteligencia artificial para desarrollar sistemas de investigación policial predictiva, donde los algoritmos podrían incurrir en prácticas de discrminación sistemática. En general, cualquier uso que pretenda interferir con las libertades de los ciudadanos, alterar su voto o poner su vida en peligro está siendo contemplado en Bruselas.
Además de evitar los escenarios vaticinados por la ficción y las predicciones más apocalípticas, la nueva Ley también afectará potencialmente a los usos de la inteligencia artificial más habituales. Dependiendo del riesgo potencial de las distintas aplicaciones de la IA, hay distintas medidas contempladas. Uno de los puntos clave es que esta legislación afrontará los retos de la inteligencia artificial generativa, estableciendo requisitos para identificar el contenido creado por ejemplo mediante Chat GPT. Tanto las imágenes como el texto creados por inteligencia artificial deberán incluir una etiqueta que lo indique, para evitar la propagación de información falsa.
Otro punto de gran relevancia es que las empresas tendrán que publicar resúmenes sobre la información con copyright que utilizan para entrenar su tecnología. Esto tendrá un impacto mayúsculo en el desarrollo de sistemas que buscan emular la manera de hablar de los humanos, o chatbots. Hasta ahora, estos sistemas funcionan recabando datos de internet, muchas veces sin considerar el hecho de que las fuentes tengan copyright. La presión hacia las compañías por asegurarse de que sus modelos de lenguaje no creen contenido ilegal ha despertado reacciones poco halagüeñas por parte de sus desarrolladores.
El debate del siglo
Para poner en perspectiva la dimensión del impacto que puede suponer la Ley de Inteligencia Artificial Europea, Sam Altman CEO de Open AI (el creador de Chat GPT) ha asegurado que se verá obligado a retirar sus servicios del mercado Europeo dependiendo de lo que incluya finalmente. El hecho de que el Parlamento Europeo haya aprobado esta ley es un paso importante, pero todavía deberá contar con el apoyo del Congreso Europeo, donde los jefes de estado de los 27 miembros de la UE tendrán un papel fundamental. Hasta finales de año no habrá una resolución definitiva, pero en cualquier caso, Europa ha tomado la delantera en la regulación de la IA a nivel mundial. Es notorio el caso del congreso estadounidense, donde todavía se está debatiendo sin un rumbo definido, pese a los avisos preocupantes de algunos de los nombres más importantes detrás del desarrollo tecnológico.
Desde los últimos años, la Unión Europea ha demostrado su intención de frenar el poder e influencia de las multinacionales norteamericanas. El mecanismo legislador sobre el que se basa la Ley de Inteligencia Artificial, tiene el poder de sentar un poderoso precedente que podría ser adoptado por incontables países alrededor del mundo. Detrás de la nueva Ley de Inteligencia Artificial podemos apreciar el trabajo realizado remontándose a cuando la Comisión Europea la propuso por primera vez en abril de 2021. Con el debate sobre la IA adquiriendo una importancia mucho más trascendental en los últimos meses, la necesidad de la regulación ha adquirido una importancia mayor.
Las numerosas medidas para restringir las acciones, en determinados casos abusivas, de Google representan un ejemplo del poder que tiene este marco legislativo. Desde sanciones multimillonarias a obligaciones para fomentar la competitividad, el gigante de Silicon Valley ha experimentado de primera mano las consecuencias de su política de datos o su tecnología publicitaria. Cerca de lanzar su propio chatbot llamado Bard, Google ha tenido que afrontar estas posturas agresivas por lo pronto solo anunciándolo en EEUU. Con el gobierno de Biden frente al de Obama, parece haber una política más dura para mantener a raya a las big tech. Esto podría fomentar una colaboración internacional sobre la Inteligencia Artificial también.
El difícil equilibrio de la regulación en la Inteligencia Artifical
Con respecto a la postura más reciente de Open AI, es una señal de su cambio de parecer respecto a la regulación de la inteligencia artificial. Antes de que la legislación se terminase de cristalizar en el Parlamento Europeo, las empresas de IA parecían ser completamente partidarias de colaborar para asegurar una implementación segura de sus servicios en la sociedad. Sin embargo, la propuesta europea ha despertado su temor hacia una “excesiva” regulación. Igual que Open AI, Google ha advertido de los sacrificios implícitos detrás de la regulación que propone la UE de esta nueva tecnología. Argumentan que los requisitos de transparencia pueden poner en peligro secretos profesionales y los códigos detrás de la programación que son “información delicada”. Incluso especulan con la posibilidad de que esta información sea aprovechada por criminales o países extranjeros con intereses perversos.
Las medidas para frenar el control social por ejemplo, podrían inhibir el uso de los sistemas biométricos a distancia y en tiempo real. Con el estado actual de la legislación, las empresas tecnológicas temen que esta aplicación pueda afectar a los sistemas de reconocimiento facial o de reconocimiento de voz. Una implementación de estas medidas provisionales a gran escala afectaría a los numerosos productos y servicios que se basan en esta tecnología. Todas las repercusiones que puede tener cada cláusula de la nueva ley deben ser contempladas cuidadosamente por los legisladores para no afectar de manera desmesurada a determinados sectores. Estos detalles son los que se van a limar en los sucesivos procesos por los que la ley debe todavía transitar. Aun así, es necesario clarificar que la Ley permite a la IA funcionar con normalidad tan solo cumpliendo los requisitos como etiquetar adecuadamente el contenido que creen y no violar los derechos de propiedad intelectual.
El debate al que se enfrentan los legisladores y políticos en Estados Unidos comprende priorizar la regulación y seguridad ciudadana o asegurar el éxito y posición hegemónica de sus empresas tecnológicas. Pese a los esfuerzos de la administración de Biden, se puede argumentar que ambas son posiciones irreconciliables. La división en este debate explica su retraso en ofrecer propuestas legislativas a la altura de la nueva Ley de Inteligencia Artificial de Bruselas.
Pese a lo prometedora que parece la legislación europea, es probable que la dimensión del reto que supone acotar los usos de la inteligencia artificial sea un largo proceso de adaptación. Resulta esperanzador contemplar cómo se están llevando a cabo los pasos adecuados, frente a la reticencia de las empresas detrás de la IA. Dada la posición aparentemente estoica por parte de Google y Open AI, no podemos descartar que los servicios de inteligencia artificial contemplen importantes diferencias entre los distintos continentes.