Resulta que Open Ai, los creadores de ChatGPT, están preocupados por el hecho de que los usuarios puedan depender excesivamente de ChatGPT para obtener compañía, especialmente debido a su nuevo modo de voz que suena sorprendentemente humano.
Medios como Techradar se han hecho eco de esta noticia. Desarrollamos a continuación.
El modo de voz de ChatGPT podría generar demasiada dependencia
Este modo de voz avanzado permite a ChatGPT responder en tiempo real, ajustarse a interrupciones y detectar el estado emocional de los usuarios basándose en su tono de voz. OpenAI ha observado que algunos usuarios han comenzado a expresar vínculos emocionales con la herramienta, lo que podría reducir su necesidad de interacción humana y, en consecuencia, afectar las relaciones interpersonales saludables.
La compañía advierte que escuchar información de un bot que suena como un humano podría hacer que los usuarios confíen demasiado en la herramienta, a pesar de la tendencia de la IA a cometer errores. OpenAI está comprometido con construir una IA de manera segura y continuará estudiando el potencial de «dependencia emocional» de los usuarios hacia sus herramientas.
¿Estamos preparados para un futuro con compañeros virtuales?
La idea de tener compañeros virtuales en forma de robots o plataformas como ChatGPT plantea una serie de cuestiones éticas, sociales y psicológicas que todavía no hemos abordado completamente como sociedad.
En términos generales, podría decirse que aún no estamos completamente preparados para un futuro donde los compañeros virtuales sean comunes. Aunque la tecnología está avanzando, la sociedad necesita tiempo para adaptarse y desarrollar las estructuras éticas, sociales y psicológicas necesarias para manejar estos cambios
La evolución de la interacción humano-máquina: cómo la IA podría redefinir la comunicación interpersonal
Veamos:
- Más accesibilidad. La IA puede ofrecer nuevas formas de comunicación que sean más accesibles y personalizadas. Por ejemplo, personas con discapacidades que dificultan la comunicación tradicional podrían beneficiarse enormemente de asistentes de IA que entiendan sus necesidades específicas y adapten su forma de interacción.
- ¿Nuevas normas sociales? la deferencia y la paciencia que los humanos muestran al comunicarse con la IA, debido a su programación para ser interrumpible y flexible, podrían trasladarse a las interacciones humanas, o viceversa. ¿lo habías pensado? , seguro que no.
- Dependencia. Si la IA se convierte en una fuente principal de interacción para muchos, podría haber una disminución en las interacciones humanas tradicionales. Esto puede llevar a un aislamiento social, donde las personas prefieren comunicarse con una IA en lugar de enfrentar la complejidad y las dificultades inherentes a las interacciones humanas.
Los riesgos de la confianza en la IA: ¿Pueden los chatbots afectar nuestra percepción de la realidad?
Pues resulta que sí. Los chatbots y las tecnologías de inteligencia artificial pueden afectar nuestra percepción de la realidad, y existen estudios que exploran este fenómeno.
De hecho hay un concepto que es «antropomorfizar la IA». Te lo explico:
Los chatbots avanzados, como los que utilizan procesamiento de lenguaje natural, pueden generar respuestas que parecen increíblemente humanas.
Esto puede llevar a los usuarios a antropomorfizar la IA, es decir, a atribuirle cualidades humanas, lo que a su vez puede influir en la confianza que depositan en estas tecnologías. Cuando los usuarios creen que están interactuando con una entidad que entiende y responde de manera humana, pueden ser más propensos a aceptar la información que reciben sin cuestionarla, incluso cuando la IA comete errores.
Si te interesa el tema, hay varios estudios sobre esto:
Estudios sobre Antropomorfismo y Confianza: Investigaciones han demostrado que las personas tienden a confiar más en las respuestas de un chatbot cuando este es percibido como más humano. Un estudio publicado en Computers in Human Behavior encontró que la apariencia humana y el lenguaje natural utilizado por los chatbots aumentan la confianza y la aceptación de la información que estos proporcionan, lo que puede afectar la percepción de los usuarios sobre la veracidad de esa información.
Sesgo Cognitivo y Chatbots: Un estudio en Journal of Experimental Psychology analizó cómo los chatbots pueden influir en los sesgos cognitivos de los usuarios, particularmente el sesgo de confirmación. Los resultados sugieren que cuando los chatbots reflejan las creencias preexistentes de los usuarios, estos son menos propensos a cuestionar la información proporcionada, lo que puede distorsionar su percepción de la realidad.
Realidad Social y Normas: Otro estudio publicado en New Media & Society exploró cómo los chatbots pueden moldear la realidad social. Los investigadores encontraron que los chatbots pueden influir en las normas sociales y en la percepción de la realidad al participar en conversaciones sobre temas sensibles o controvertidos, actuando como un agente social que refuerza o desafía ciertas actitudes.