Volver al Blog
Elian Paredes

Inteligencia artificial: ¿Máquinas que procesan o que realmente entienden?

Durante los últimos tiempos, los acelerados avances de la inteligencia artificial focalizaron la discusión sobre el entendimiento y la relación comunicativa entre la inteligencia artificial y nosotros, los humanos. Según Geoffrey Hinton y Andrew Ng, es fundamental interpretar y lograr un consenso sobre el nivel de entendimiento de la IA, con el fin de comprender los riesgos y los límites de su inserción en nuestra sociedad.

Sin embargo, la comunidad se encuentra dividida en dos grupos en relación con este tema. Por un lado, hay quienes sostienen que la IA está alcanzando un nivel de entendimiento genuino, capaz de comprender y procesar información de manera equiparable a la cognición humana. Pero por otro lado, existe un grupo que describe a la IA como “Stochastic parrots” (loros estocásticos), sugiriendo que la aparente comprensión de la IA se limita a repeticiones estadísticas de patrones aprendidos durante su entrenamiento.

Foto de Shubham Dhage en Unsplash

Definiendo qué es entender

El estudio y la comprensión de la estructura de la mente humana ha tenido un impacto significativo en múltiples áreas de la ciencia y la filosofía. Si bien podemos analizar el funcionamiento de la misma desde diversas perspectivas, una cuestión que se encuentra en constante estudio abarca la idea de nuestra percepción y nuestro entendimiento acerca del mundo que nos rodea. Dos de los autores más relevantes quienes aportaron sus ideas al respecto fueron Immanuel Kant con su obra “Crítica de la razón pura” (1978) y John Locke en “Ensayo sobre el entendimiento humano” (1905). Ambos sostenían algunos puntos de vista diferentes sobre la estructura y el comportamiento mental del humano, sin embargo coincidían en algo: adquirimos nuestro entendimiento a través de la experiencia y la observación.

Entender es la capacidad que tiene la mente de una persona para distinguir cómo se vinculan entre sí las distintas partes o elementos informativos de un tema para poder integrarlos de forma coherente. Pero, ¿qué ocurre con todo eso que experimentamos y observamos? Todos estos estímulos y experiencias sensoriales generan en nuestra mente una representación interna sobre el mundo que nos rodea, incluyendo creencias, conocimientos, experiencias y suposiciones. Esta representación es lo que conocemos como modelo mental. El modelo mental, nos ayuda a interpretar la información, comprender el entorno y así, tomar decisiones al respecto.

Cuando estamos entendiendo algo, estamos asimilando toda esta información que forma parte de nuestro modelo mental existente. Lo que nos permite, comprender situaciones y actuar sobre las mismas, o bien, retroalimentar y expandir esa representación interna que tenemos sobre el mundo.

El modelo mental de la IA

Podemos encontrar ciertas diferencias entre la forma en la que aprendemos los seres humanos, y la forma en la cual se entrenan los modelos de inteligencia artificial.

Los humanos, a medida que pasan los años, avanzamos en nuestra vida y experimentamos distintas situaciones que nos dejan nuevos aprendizajes. Durante este proceso, vamos definiendo nuestro modelo mental permitiéndonos hacer un análisis más profundo de lo que nos rodea. Aprendemos en base a errores que comentemos, a cómo nos hizo sentir una situación, a lo que nos dicen otras personas o simplemente por nuestro sistema sensorial.

Por otra parte, la inteligencia artificial, se basa en un conjunto de datos dado y aprende en base a eso, mediante distintos algoritmos matemáticos que se ejecutan en una estructura definida y delimitada por sus desarrolladores. Esto provoca que un modelo entrenado con determinados datos, genere un “modelo mental” acorde a los mismos. Es decir que dicho modelo, generará una representación interna de un mundo virtual, caracterizado por los datos con los que fue entrenado.

Cabe mencionar, que la inteligencia artificial carece de ciertas cualidades fundamentales que tenemos los seres humanos: el uso del sentido común, el entendimiento de “causa y efecto”, el razonamiento ético, entre otras.

Pero, este “modelo mental” generado en base a un determinado conjunto de datos, ¿le permite al modelo relacionar conceptos y entender más allá? Veamos un caso de estudio en donde se descubrió que de alguna manera, si.

Caso Othello-GPT

Durante este año 2023, en la International Conference on Learning Representation se presentó la investigación “Emergent World Representations: Exploring a Sequence Model trained on a Synthetic Task” realizada por investigadores de Harvard, Northeastern y del MIT. El experimento, consistió en tomar una variante base del modelo GPT y entrenarlo para que pueda realizar movimientos legales en el juego de mesa Othello (también conocido como Reversi). El objetivo era determinar si dichos movimientos se hacían solo en base a resultados estadísticos o si surgían a partir de una representación interna generada por el modelo.

El modelo fue solamente entrenado con una lista de movimientos legales realizados por jugadores en distintas partidas, sin proveer conocimiento acerca de qué juego se trataba y de cuáles eran sus reglas.

Lo que descubrieron, es que el modelo fue capaz de generar una representación interna del estado del tablero, lo cual le permitía analizar la ubicación de las fichas, y tomar decisiones en base a eso.

Representación del mapa latente del modelo durante una sesión de juego. El movimiento a realizar está encerrado por un cuadrado de color negro, y las fichas que por su ubicación definieron el movimiento a realizar se encuentran en rojo (prioridad alta) y en azul (prioridad baja). En la parte superior (A) el modelo estaba entrenado solo con movimientos de diversas partidas, mientras que en la parte inferior (B) se lo entrenó con movimientos de partidas de campeones de Othello.

Según sus investigadores, este experimento es una clara evidencia de que el modelo es capaz de generar una representación de ese “mundo virtual” para el cual fue entrenado, en este caso, delimitado por las reglas del juego y su tablero. Además declaran que si bien esto es tan solo el comienzo, queda experimentar con otros contextos aún más complejos, pero que esto puede ser el puntapié inicial para investigar cómo los grandes modelos de lenguaje natural (LLMs) representan al mundo en su estructura interna.

Los límites

Teniendo en cuenta el caso analizado previamente, podríamos creer que no estamos tan lejos de lograr una representación significativa del mundo real en los grandes LLMs que utilizamos a diario. Sin embargo, esto no es tan así.

Anteriormente, hablamos sobre un caso bastante reducido, con un conjunto de datos específicos a una temática y una representación del mundo bastante limitada. Al enfrentarse a la diversidad y la escala del mundo real, los desafíos aumentan significativamente. Aunque los LLMs pueden manejar grandes cantidades de datos y generar respuestas contextualmente relevantes, su capacidad para comprender la información a un nivel más profundo, captar matices culturales y aplicar juicio ético sigue siendo limitada. Una investigación de OpenAI publicada recientemente, explica las carencias que posee GPT-4V en estos aspectos. Es allí donde la curva de aprendizaje para estos modelos se vuelve más empinada

Conclusión

Los humanos construimos un mundo en nuestra mente a partir de lo que vemos, oímos, tocamos y olemos. Y no solo eso, también en base a nuestras relaciones y a la sociedad que nos rodea. Tenemos la capacidad de aplicar experiencias pasadas, comprender la relevancia en un contexto más amplio y adaptarnos a escenarios impredecibles. Rara vez pensamos en símbolos y abstracciones lógicas. La inteligencia artificial aprende mediante la interpretación de patrones estadísticos sobre grandes conjuntos de datos, con una comprensión en profundidad limitada, sin esa necesidad de encontrarle la explicación a todo.

Si las máquinas generan su visión y entendimiento del mundo a partir de los datos que les brindamos, ¿serán capaces de codificar el mundo real al igual que lo hacemos nosotros mediante nuestro sistema sensorial?

Los avances en la inteligencia artificial progresan a pasos agigantados, pero aún queda un largo camino por recorrer para acercarse al nivel de entendimiento de las personas.

Referencias