Una auténtico alud de desinformación está arrasando Internet y se está convirtiendo en un problema con nombre y apellidos para los medios de noticias en todo el mundo.
The Guardian alerta sobre los artículos falsos que está construyendo ChatGPT.
En un reciente artículo Chris Moran (head of editorial innovation) alertaba de que ya han encontrado artículos que nunca se habían escrito citados por la herramienta de Inteligencia Artificial.
Que la herramienta se invente fuentes de información es un paso más allá. Ya no es que ChatGPT se invente información, es que este nuevo error de la herramienta deslegitima completamente el uso de fuentes fiables, una de las bases del periodismo.
Autores de USA TODAY encuentran falsas fuentes en ChatGPT.
Este caso tiene mucha tela también.
Los reporteros del medio USA today también han identificado un caso bastante alarmante donde se ve cómo ante la insistencia por parte del input de información la herramienta se inventa referencias para justificar que las armas no son peligrosas para los niños.
Si, por muy loco que suene.
ChatGPT usó el nombre de investigadores y académicos que estudian la materia del uso de armas para crear un universo de investigaciones falsas que apoyan la idea de que las armas no son peligrosas para los niños.