Algebristas de las palabras
Entre los años 813 y 830 apareció El libro del álgebra, de Mohammed ibn-Musa al-Jwarizmi. Nacía el álgebra moderna, cuyo objetivo era «restaurar el orden de la cosa», es decir, de la incógnita, para resolver así problemas numéricos, de manera análoga a como, en aquella época, los llamados algebristas colocaban en su sitio los miembros del cuerpo dislocados, solucionando las dolencias que se producían cuando huesos y articulaciones se salían de su lugar natural. Si quieren gozar de aquellos albores de la matemática, acudan a la exquisita edición facsimilar (bilingüe árabe y español) de El libro del álgebra, que realizó Ricardo Moreno Castillo en Nívola en 2009, basada en el manuscrito de Oxford del siglo XIV.
Siglos más tarde, el poder matemático del álgebra se fue imponiendo en muchos campos del conocimiento. La lingüística empezó en la era computacional con la implementación de sistemas basados en reglas algebraicas, para automatizar y resolver tareas básicas de reconocimiento, razonamiento, análisis y procesamiento del lenguaje natural. Estos primeros sistemas algebraicos se fundamentaban en los modelos teóricos existentes, como fue el caso en el siglo xx de las gramáticas formales y, en general, dejaron al margen otros enfoques como la lingüística cuantitativa o la teoría de la información.
En fecha más reciente, primero los métodos de aprendizaje automático y luego de aprendizaje profundo, han ido desplazando a los sistemas anteriores, dentro de la inteligencia artificial (IA). Así, en el aprendizaje automático se programan y enfocan los algoritmos para enseñar a las computadoras a aprender partiendo de grandes cantidades de datos y, de forma progresiva, ir mejorando con la experiencia gracias a la búsqueda de patrones estadísticos y correlaciones. El aprendizaje profundo, por su parte, no es sino un tipo de aprendizaje automático basado en arquitecturas computacionales que, en parte, pretenden emular al cerebro humano, por ejemplo, mediante la superposición de capas de redes neuronales artificiales. Estos sistemas mejoran con el uso y se optimizan a sí mismos a medida que se entrenan con más datos, superando a los humanos en tareas específicas.
Vivimos, pues, una auténtica era de transición entre la lingüística tradicional y la que ejecuta la IA. Ha sorprendido con el pie cambiado a muchos lingüistas; sobre todo, a los que permanecen aferrados a sistemas descriptivos, mejorados a golpe de ir aumentando el número de parámetros de sus modelos, o a los que han huido de la matematización, sin teorías falsables que puedan considerarse científicas. En este contexto, Algebraic structures in natural language, editada por Shalom Lappin y Jean-Philippe Bernardy, ambos en la Universidad de Gotenburgo, se presenta como un compendio de colaboraciones que van desgranando diferentes ámbitos de aplicación de las estructuras algebraicas en el estudio del lenguaje. Expondré tan solo algunos destellos de una obra que, en su conjunto, merece la pena por inspiradora más que por completa en todos sus excitantes frentes.
Para empezar, el profesor de investigación ICREA de la Universidad Pompeu Fabra Marco Baroni introduce una de las áreas de investigación más prolíficas en los últimos años: el análisis de redes profundas con orientación lingüística, o LODNA (Linguistically Oriented Deep Net Analysis). Baroni contrapone los modelos que se están investigando bajo este paradigma con los tradicionales basados en categorías y estructuras sintácticas, y alerta de los intentos de algunas corrientes por integrar los logros empíricos de las redes profundas en sus postulados, sin demasiado sentido.
Como bien advierte en la página 8, con respecto a teorías meramente descriptivas, «Una buena teoría lingüística no solo debe ajustarse a lo que ya se conoce sobre una lengua, sino que también debe hacer predicciones sobre patrones previamente inexplorados». Sin embargo, se ha discutido desde la filosofía de la ciencia que la predicción científica que hace una IA podría basarse en conjuntos de datos sin necesidad de recurrir al álgebra: ¿se duda entonces de la capacidad explicativa de las redes lingüísticas?
Baroni argumenta que las redes profundas pueden ser un marco teórico válido para la lingüística. Reivindica un diálogo imprescindible entre lingüistas e informáticos. De manera paradójica, respecto al título del volumen, su apuesta de que sistemas distribuidos, entrenados con miríadas de datos, puedan actuar como «gramáticas lingüísticas» va contra las representaciones algebraicas del lenguaje y requiere un cambio metodológico radical en lingüística. Es algo que tanto Alex Warstadt (del Instituto Politécnico Federal Suizo en Zúrich) y Samuel Bowmann (de la Universidad de Nueva York), como Eve Clark (de la Universidad Stanford), plantean posteriormente, en sendos interesantes capítulos en los que exponen las sustanciales diferencias existentes entre la adquisición del lenguaje humano, basado en la interacción, y el aprendizaje lingüístico de las IA, que como sucede con GPT-3 o el chat derivado de Open AI, revolucionarán a corto plazo tanto la educación como el diseño, las matemáticas o las artes digitales. ¿Qué tareas lingüísticas se podrán poner como deberes sin correr el riesgo de que un estudiante las resuelva sin esfuerzo mediante la IA?
En muchos casos, a lo largo del libro se reclaman con acierto puentes entre disciplinas. Se quedan en el tintero, en la mayoría de contribuciones, algunas referencias relevantes y pertinentes para el debate, en especial los trabajos cuantitativos provenientes de la física de sistemas complejos, los derivados de la psicolingüística o las teorías neuronales conexionistas más efectivas.
En la obra destacan Nick Chater (de la Universidad de Warwick) y Morten Christiansen (de la Universidad Cornell), en un bello ejercicio humanista en el que muestran la posibilidad de que surjan ricos patrones algebraicos en el lenguaje a través de procesos de orden espontáneo. Resumen en buena medida sus tesis contra el innatismo chomskyano desarrolladas en su reciente —y muy recomendable— ensayo The language game (Basic Books, 2022), donde exponen con detalle los argumentos que esgrimen aquí. También Ethan Gotlieb Wilcox (ahora en el Politécnico de Zúrich) y sus colaboradores aprovechan, en el capítulo 6, el análisis de GPT-2 para discutir el enfoque innatista y algunas teorías emergentistas, como las de Geoffrey Hinton, James L. McClelland y David E. Rumelhart.
La obra concluye con dos capítulos más técnicos: el décimo, sobre álgebra y lenguaje, a cargo de Lawrence Moss (de la Universidad de Indiana), sitúa bien los puntos fuertes y débiles del enfoque algebraico en la lingüística. El capítulo 11, de Lappin y Bernardy (los editores), cierra el libro, aunque quizá lo debería haber abierto, pues incluye una buena introducción a las estructuras y al álgebra lineal, que el lector agradecería al inicio. Alejándose de Chater y Christiansen, se apoyan en sus modelos en dos de las premisas tradicionales de Montague: la semántica puede matematizarse y se deriva de la composición y ordenación de palabras mediante la sintaxis. Resolver la interfaz sintáctico-semántica sigue siendo un reto científico.
Como si de una disección algebrista se tratase, la polisemia, las estructuras sintácticas, el análisis del discurso, el problema de la segmentación del lenguaje o el multilingüismo configuran el resto de cuestiones sobre las que versan los demás capítulos. El resultado de la obra es una amalgama desigual. Es cierto que hay un relato común, pero, como si se tratase de un sistema de generación de imágenes basado en la estabilización y difusión del ruido, la foto final no acaba de estar nítida.
¿Qué algebrista restaurará el orden en la lingüística? ¿Será una máquina? Vivimos una apasionante era semiótica que justo acaba de empezar.