Recientemente, desde la empresa de Bill Gates publicaron un artículo turístico sobre Ottawa, Canadá, en su página de viajes. Los usuarios descubrieron que Microsoft Travel utilizaba la IA cuando este artículo contenía información de lo más extraña y preocupante. Está claro que se les olvidó poner a un ojo humano a revisarlo…
El artículo sobre Ottawa
Si visitas la preciosa capital canadiense, no puedes olvidar visitar su Banco de Alimentos. Esto es lo que decía el artículo que evidentemente, fue generada por la IA y debería haber sido revisado. “Si vas con el estómago vacío mejor!”. Claramente se trata de un error, pero evidencia una falta de cuidado y profesionalidad importantes. Además, recomendar una organización benéfica para ayudar a las personas necesitadas de alimentos en una guía de turismo es algo tan inverosímil que sólo puede estar la IA detrás. Después de que el artículo fuese detectado por un lector que compartió su descubrimiento en Twitter (X), este fue eliminado de inmediato. Pero existe una versión del artículo que han rescatado aquí. El artículo demuestra que la IA generativa puede cometer errores importantes, y estos pueden tener consecuencias directas en la reputación y prestigio de una compañía. En este caso, el interés que Microsoft ha demostrado públicamente por la IA les ha jugado una mala pasada.
Microsoft y la IA
El gigante tecnológico lleva invirtiendo y apostando de forma significativa por la IA, en concreto respaldando a Open AI, el desarrollador de Chat GPT, el popular chatbot. Desde su llegada en Noviembre, saltaron las alarmas en todo el mundo por su capacidad para responder preguntas e interactuar de la misma forma que un humano. Pero como ha puesto de manifiesto este caso, todavía se equivoca y tiene problemas con la veracidad de su información. Pero Microsoft está decidido por implementar esta tecnología en sus buscadores como Bing y Edge. El principal problema que existe con el artículo de Ottawa, no es solo que la IA pueda cometer un error de estas proporciones que pueda pasar desapercibido, si no que en ningún momento el artículo especificaba que la IA era el autor. Esto supone una potencial crisis de reputación considerable para una empresa así, sobre todo al estar volcada en apostar por la IA frente a los trabajadores humanos. No cabe duda de que es necesario contar con una persona que revise lo que lleva a cabo la IA, para que esto no pueda volver a suceder.
Recientemente, otro caso similar atrajo mucha atención cuando un abogado en Nueva York usó Chat GPT para buscar ejemplos legales sobre los que basar su caso. Al parecer, el chatbot se había inventado todos. No solo perdió el caso si no que se enfrenta a una multa sustancial. La moraleja es que la tecnología detrás de los modelos de lenguaje es sorprendente, pero también puede ser sorprendentemente torpe. Hay que tener mucho cuidado a la hora de considerar cierto todo lo que nos cuenta Chat GPT. Al fin y al cabo, está en juego la credibilidad y confianza de todos los stakeholders.