twitter account

Un nuevo descubrimiento de la inteligencia artificial parece vislumbrar el amanecer del verdadero razonamiento automático

30/05/2024
Darren Orf

Si el objetivo de la investigación en IA es recrear algún día el cerebro humano, aún queda mucho camino por recorrer. Aunque los grandes modelos de lenguaje (LLM, por sus siglas en inglés) hacen un buen trabajo fingiendo sensibilidad (e incluso engañando a algunos programadores por el camino), imitar la mente humana, perfeccionada a lo largo de millones de años de evolución, no es tan fácil.

Por ejemplo, la abstracción. Sin pensar realmente en ello, los humanos pueden aprender nuevos conceptos creando representaciones de alto nivel de temas complicados que, en cierto modo, eliminan los detalles menos importantes. Pero a pesar de los titulares sobre el meteórico aumento de la complejidad de la IA, estos sistemas siguen teniendo dificultades con estas tareas cognitivas.

Por eso, investigadores del Laboratorio de Ciencias de la Computación e Inteligencia Artificial (CSAIL) del MIT han creado tres "bibliotecas de abstracción" que muestran cómo las palabras cotidianas pueden proporcionar una "rica fuente de contexto para los modelos lingüísticos", según un comunicado de prensa del MIT, con el objetivo de impartir a la IA algo parecido al razonamiento humano. Los científicos presentaron sus resultados en tres artículos distintos en la Conferencia Internacional sobre el Aprendizaje de Representaciones, celebrada en Viena a principios de este mes.

"Los modelos lingüísticos prefieren trabajar con funciones nombradas en lenguaje natural", afirma en un comunicado de prensa Gabe Grand, estudiante de doctorado del MIT y autor principal de uno de los trabajos de investigación. "Nuestro trabajo crea abstracciones más sencillas para los modelos lingüísticos y asigna a cada una nombres y documentación en lenguaje natural, lo que da lugar a un código más interpretable para los programadores y mejora el rendimiento del sistema".

En pocas palabras, las tres bibliotecas -LILO (inducción de bibliotecas a partir de observaciones del lenguaje), Ada (adquisición de dominios de acción) y LGA (abstracción guiada por el lenguaje)- funcionan para proporcionar un razonamiento similar al humano en determinadas funciones, como la programación informática, la planificación de tareas y las tareas robóticas.

Mediante el método neurosimbólico incorporado a LILO, el MIT utiliza su algoritmo Stitch (¿lo pillas?) para identificar abstracciones. Esto permite a los LLM aplicar conocimientos de sentido común con una sofisticación de la que carecen los modelos anteriores.

Ada, por su parte, muestra el razonamiento de fondo de la mente humana que es engañosamente difícil de recrear en la IA.

"Para preparar el desayuno por la mañana, podríamos convertir un amplio conocimiento de la cocina en decenas de acciones motoras detalladas para encontrar, cascar y freír un huevo concreto", escriben los investigadores en su artículo. "Aunque décadas de investigación han desarrollado representaciones y algoritmos para resolver problemas de planificación restringidos y a corto plazo, la planificación generalizada y a largo plazo sigue siendo un reto fundamental y pendiente para prácticamente todos los paradigmas de IA".

Los investigadores se centraron en tareas domésticas y videojuegos basados en comandos, y desarrollaron un modelo de lenguaje que propone abstracciones a partir de un conjunto de datos. Cuando se implementaron con plataformas LLM existentes, como GPT-4, acciones de IA como "colocar vino frío en un armario" o "construir una cama" (en el sentido de Minecraft) experimentaron un gran aumento de la precisión de las tareas, del 59 al 89 por ciento, respectivamente.

Por último, LGA ayuda a los robots a realizar tareas cuya complejidad va más allá del simple reconocimiento de imágenes. Como explica el MIT News:

Los humanos proporcionan primero a un modelo lingüístico preentrenado una descripción general de la tarea en lenguaje natural, como "tráeme mi sombrero". A continuación, el modelo traduce esta información en abstracciones sobre los elementos esenciales necesarios para realizar esta tarea. Por último, una política de imitación entrenada en unas pocas demostraciones puede aplicar estas abstracciones para guiar a un robot a coger el objeto deseado.

Cuando se probaron con Spot, el robot con aspecto de perro de Boston Dynamics, pidiéndole que recogiera frutas o depositara botellas en un contenedor de reciclaje, los modelos lingüísticos fueron capaces de crear un plan de acción en lo que los investigadores denominan un "entorno no estructurado". Este tipo de navegación por tareas podría tener implicaciones en el mundo real para los coches sin conductor u otras tecnologías autónomas.

Aunque todas estas técnicas son una gran ayuda para el desarrollo de la IA, también demuestran una verdad increíble: la mente humana es algo hermoso y poderoso.