La IA supera otro gran desafío: demuestra teoremas matemáticos

Google Deepmind

El modelo, desarrollado por Google Deepmind, está especializado en resolver problemas geométricos

La IA supera otro gran desafío: demuestra teoremas matemáticos

 

Getty Images

Una inteligencia artificial desarrollada por Google Deepmind, la empresa de investigación en IA de Google, ha logrado demostrar teoremas geométricos con mejores resultados que la media de los participantes en las Olimpiadas Matemáticas Internacionales, la competición más prestigiosa del mundo en este campo. El logro, presentado este miércoles en la revista Nature, demuestra la capacidad de la IA para resolver problemas lógicos complejos, un hito clave en este campo de investigación.

AlphaGeometry, como han bautizado al sistema, ha resuelto correctamente 25 de 30 problemas de geometría plana propuestos en las últimas ediciones de las Olimpiadas, un hito sólo superado por el conjunto de medallistas de oro que resolvieron los mismos problemas. Además, ha encontrado una nueva forma más eficiente de resolver uno de ellos. Su mejor predecesor sólo logró demostrar 10 de los casos.

Llegar al nivel de los mejores participantes en las Olimpiadas es uno de los objetivos de la investigación con inteligencia artificial. Aunque el éxito de AlphaGeometry es parcial, porque se limita a teoremas de geometría plana, cuyas bases aprendemos en bachillerato, y deja fuera problemas de otra naturaleza, como álgebra, teoría de números o combinatoria, es notorio por lo difícil que resulta traducir los problemas geométricos a lenguaje computacional.

Esta dificultad, que es extensible, aunque en menor medida, a cualquier demostración matemática, es la culpable de que la IA no haya logrado todavía superar, de manera general, a los mejores especialistas humanos en la resolución de teoremas. La dificultad de traducción implica que hay muy pocos datos con los que las máquinas puedan aprender, por lo que entrenarlas es extremadamente difícil.

Un entrenamiento revolucionario

Para lograr el salto de calidad presentado en el estudio, los investigadores han tenido que desarrollar un sistema de entrenamiento completamente nuevo, que se ha basado en hacer que la IA aprenda con datos que ella misma genera. Este conjunto de datos que no existen en el mundo real se conoce como datos sintéticos.

El equipo desarrollador únicamente enseñó al sistema normas geométricas y algebraicas, que le permiten hacer razonamientos lógicos a partir de un conjunto de premisas. Por ejemplo, a partir de la propuesta “la distancia de un punto A a un punto B es la misma que del punto B al punto C”, la máquina puede concluir que “la distancia entre A y C es el doble de la de A a B”.

El entrenamiento consistió en administrar a AlphaGeometry un conjunto aleatorio de premisas para que sacara todas las conclusiones que se pueden desprender de ellas. Luego, hicieron que la máquina analizara su propio resultado, una especie de mapa de propuestas matemáticas vinculadas entre ellas, para que identificara qué premisas llevaban a cada conclusión.

Al finalizar el ciclo, la IA había identificado unas premisas, unas conclusiones, y los procedimientos lógicos para pasar de unas a otras, las llamadas demostraciones. El equipo de Google Deepmind repitió este proceso una y otra vez, hasta haberle dado al sistema casi mil millones de premisas geométricas, y obtener 100 millones de conclusiones y de demostraciones.

Enfrentando problemas reales

El proceso que sigue AlphaGeometry para demostrar los teoremas de las Olimpiadas Matemáticas Internacionales es similar al patrón de entrenamiento. También se basa en el uso de las normas geométricas y algebraicas para sacar las máximas conclusiones posibles de las premisas de cada problema.

La diferencia es que, cuando llega a un punto muerto, en el que no puede avanzar más, la máquina usa los datos que ha acumulado durante el entrenamiento para crear una premisa nueva, que no cambia la naturaleza del problema, pero le permite llegar a nuevas conclusiones. El funcionamiento es similar al de ChatGPT, que predice la siguiente palabra basándose en el contexto de las anteriores y el conocimiento que ha adquirido durante su aprendizaje.

Cada nueva premisa que añade la máquina amplía más y más el número y la diversidad de conclusiones lógicas a las que puede llegar. A fuerza de probar cada uno de los caminos, AlphaGeometry es capaz de demostrar teoremas extremadamente complejos para los seres humanos. Incluso, en un caso, encontró una demostración más genérica y sencilla de la que se conocía hasta el momento.

Esta capacidad de generar propuestas matemáticas adicionales que no se desprenden directamente de las premisas del problema es la clave que permite a la IA de Google Deepmind alcanzar un nivel similar al de los mejores participantes olímpicos en la demostración de teoremas. Se trata de una capacidad imprescindible también en otros campos de las matemáticas, con lo que los autores esperan que su metodología suponga un salto de calidad en la capacidad de las inteligencias artificiales para resolver problemas matemáticos complejos.

Lee también

Una inteligencia artificial de Google aprende por observación e imitación de manera parecida a las personas

Marc Masip
Investigadores de DeepMind han desarrollado un algoritmo de aprendizaje profundo inspirado en la cognición de los bebés.
Mostrar comentarios
Cargando siguiente contenido...