Científicos del MIT, Massachusetts Institute of Technology, han desarrollado un marco de trabajo que utiliza modelos LLM (Large language model) para generar en robots lo que conocemos como «sentido común». Según ha recogido el porta aibusiness.com
¿Qué es el sentido común?
Lo podríamos definir como «la habilidad natural de tomar decisiones prácticas y razonables en la vida diaria.» Algo que al parecer los robots a día de hoy no saben cómo hacer.
Los ingenieros del Laboratorio de Ciencias de la Computación e Inteligencia Artificial (CSAIL) del MIT desarrollaron el marco de trabajo Grounding Language in Demonstrations (Glide), el cual permite que la información generada por modelos de lenguaje de gran tamaño (LLM) se utilice como base para tareas de manipulación robótica, proporcionándoles una comprensión básica y cómo interactuar con ella.
Hasta ahora, un programador humano etiquetaba y asignaba manualmente acciones para que un robot las realizara.
Permitir a los robots entender lo que tienen alrededor
La clave de este desarrollo está en que estos modelos LLM permiten enlazar todas las informaciones del entorno y contexto del robot con la tarea para la que están diseñados.
Esto permite a los robots tener más información a la hora de realizar su tarea.
La prueba , que podéis ver en el vídeo, pretende que el robot pueda interactuar y recoger elementos de una mesa.