Una red neuronal aprende a generalizar como los humanos

La IA se vuelve capaz de generalizar, es decir, aprender nuevos conceptos y combinarlos con otros conceptos conocidos tal como lo hacen los humanos: gracias a una nueva técnica de entrenamiento que se puede utilizar para mejorar incluso modelos de lenguaje grandes como ChatGpt. El estudio lo demuestra publicado En Nature, del experto en psicología y ciencia de datos Brenden M. Lake de la Universidad de Nueva York y el lingüista italiano Marco Baroni, que trabaja en la Universidad Pompeu Fabra en España.

Los resultados de sus experimentos, realizados en una red neuronal entrenada, cuestionan la hipótesis formulada en la década de 1980 por dos filósofos y expertos en ciencias cognitivas, Jerry Fodor y Zenon Pylyshyn, de que las redes neuronales artificiales no tendrían la capacidad de crear redes neuronales similares. . Las conexiones entre conceptos (conocidas como «generalizaciones compositivas») no serían, por tanto, modelos capaces de reproducir lo que sucede en el cerebro humano.

«Durante 35 años – explica Lake – investigadores en los campos de la ciencia cognitiva, la inteligencia artificial, la lingüística y la filosofía han discutido si las redes neuronales pueden lograr una generalización sistemática similar a la humana. Por primera vez hemos demostrado que una red neuronal general puede imitar o exceder la generalización sistemática humana en una comparación directa.

Esto es posible gracias a una nueva técnica de aprendizaje llamada MLC (Metaaprendizaje para composición). Este procedimiento implica enseñarle a la red neuronal una nueva palabra (por ejemplo, «saltar») y luego pedirle que la use para crear nuevas combinaciones con otras palabras ya conocidas (por ejemplo, «saltar dos veces» o «saltar dos veces a la derecha»). Luego pasa a otra palabra y así sucesivamente, perfeccionando cada vez su capacidad para componer composiciones.

READ  Estudio, los robots son más influyentes si no son autoritarios

La IA entrenada se comparó con participantes humanos para ver quién era mejor aprendiendo y combinando palabras completamente inventadas. Los resultados muestran que la red neuronal logró un rendimiento similar al de los humanos, y en algunos casos incluso superior. Tanto la red neuronal entrenada con MLC como los participantes reales vencieron a ChatGpt y Gpt-4. «Los grandes modelos de lenguaje como ChatGpt todavía tienen dificultades con la generalización sintáctica, aunque han mejorado en los últimos años – señala Baroni – pero creemos que Mlc puede mejorar aún más sus capacidades sintácticas».

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Scroll al inicio