Imagen
Math
Fecha

Creatividad humana frente al pensamiento artificial: la lección pedagógica de la IMO 2025

Subtítulo
La pregunta para los profesores es cómo educaremos a una generación que aprenderá matemáticas junto a los grandes modelos de lenguaje, no contra ellos.

Comparte:

En una amplia y silenciosa sala en el Centro de Convenciones de Sunshine Coast, Queensland (Australia), más de 600 estudiantes menores de 18 años, provenientes de más de 110 paises, fueron desafiados por seis complejos problemas para participar en la 66ª Olimpiada Internacional de Matemáticas (IMO, por sus siglas en inglés). Este evento, celebrado anualmente desde 1959, reúne a estudiantes brillantes de todo el mundo para promover el pensamiento lógico y creativo, así como el intercambio cultural y académico.

No obstante, esta edición fue diferente por dos razones principales: la primera es que la edición de 2025 registró la mayor cantidad de medallas de oro de la historia, y la segunda fue que, por primera vez en la historia, las Inteligencias Artificiales lograron un rendimiento equivalente al de un estudiante medallista de oro.

Aunque oficialmente las IA no compiten como un equipo o participante —dado que es una competencia exclusiva para humanos—, las empresas tecnológicas utilizan este evento como un desafío para medir y demostrar las capacidades de “razonamiento matemático” de sus modelos, aún no disponibles comercialmente.

En la IMO de 2025, a miles de kilómetros de distancia de filas enormes de escritorios con estudiantes en extremo concentrados, una versión avanzada de Gemini (Google DeepMind) y un modelo experimental de OpenAI se pusieron a prueba bajo las mismas condiciones que los jóvenes competidores: nueve horas repartidas en dos días para intentar resolver seis problemas (tres por día): dos de Teoría de Números, dos de Combinatoria, uno de Geometría y uno de Álgebra (con un fuerte requisito de pensamiento combinatorio). Sin acceso a internet y herramientas externas, y con la redacción de las soluciones en lenguaje natural.

Tanto la versión avanzada de Gemini (evaluada por los mismos revisores de la IMO) como el modelo experimental de OpenAI (evaluada independientemente por exmedallistas de oro contratados el gigante tecnológico) resolvieron cinco de los seis problemas de la prueba, obteniendo un puntaje de 35 sobre 42 puntos. En el caso de OpenAI, Alexander Wei, su investigador principal para la IMO, anunció los resultados de su modelo a través de la red social X y puso a disposición de los curiosos el repositorio de las pruebas y respuestas en GitHub . Allí se puede encontrar información relevante, como el hecho de que el problema 2 —un interesante problema de Geometría de alta complejidad, según Leo Wu, miembro del equipo canadiense— presentaba un enunciado con muchos elementos a considerar y exigía un alto nivel de intuición geométrica para identificar el camino a la solución. Sin embargo, la respuesta del modelo mostraba un camino por “fuerza bruta”: transformando el problema de círculos, rectas tangente e intersecciones a uno de Geometría Analítica, es decir, combinando las formas geométricas con el álgebra para luego resolver un sistema de ecuaciones. En referencia a este problema, Saleh Soltan, investigador de Amazon AGI Team, menciona que estos modelos aún dependen de técnicas estándar en lugar de generar ideas interesantes; un resultado impresionante desde el punto de vista de la investigación, pero nada sorprendente respecto al modelo en sí mismo.

La solución de Gemini al problema 3 es particularmente interesante, pues mostró un camino que nadie había considerado y que revela que la IA no es más inteligente, sino un sistema capaz de simular muchos caminos de solución a la vez (pensamiento paralelo), tal como se menciona en su informe técnico .

Por su parte, el problema 6 —un problema de combinatoria cuyo enunciado era aparentemente sencillo (en palabras de Leo Wu)— resultó ser extremadamente difícil. El objetivo era cubrir de forma eficiente una figura de 2025 por 2025 con rectángulos. Este problema exigía un alto nivel de creatividad e intuición matemática, y la respuesta de ambos modelos de lenguaje fue un absoluto silencio, equiparable a una gran hoja de papel vacía, sin siquiera bosquejos de intentos; y es que los problemas de combinatoria de la IMO usualmente requieren inventar un método o estructura, mientras que otras áreas, como Geometría y Teoría de Números, a menudo pueden ser abordadas mediante reducciones al Álgebra, la Combinatoria no; exige intuición e ideas nuevas. Las IA mostraron un vacío en la creatividad y la intuición, justamente donde seis estudiantes lograron llegar a la solución.

Así, las inteligencias artificiales han demostrado grandes avances, alcanzando y en algunos casos superando las habilidades humanas, nos queda mucho por analizar y meditar como profesores, si las IA pueden resolver problemas tan bien, ¿cuál es nuestro lugar cómo educadores, estudiantes e incluso seres humanos? ¿cuál es el impacto de la inteligencia artificial en la investigación, práctica y enseñanza de las matemáticas? Más allá del asombro tecnológico, la pregunta para los profesores es cómo educaremos a una generación que aprenderá matemáticas junto a los grandes modelos de lenguaje, no contra ellos.

La IMO de este año, no es el fin del dominio humano, sino una redefinición de lo que una IA es capaz de hacer y un recordatorio de lo que la mente humana y en espacial, como profesores no debemos dejar de hacer. La fuerza bruta mostrada en el problema 2 nos enseña a quitarle valor a la memorización de algoritmos de cálculo y de los ejercicios rutinarios en nuestros salones de clase, mientras que la penetrante ausencia de respuestas al problema 6 nos recuerda priorizar la creatividad matemática, la conceptualización, la inventiva, la crítica y la conexión interdisciplinaria, aspectos donde una IA se enfrenta con un alto muro. Después de todo, cinco jovencísimos estudiantes obtuvieron una puntuación perfecta.

Referencias:
Advanced version of Gemini with Deep Think officially achieves gold-medal standard at the International Mathematical Olympiad. (2025, July 21). Google DeepMind. https://deepmind.google/discover/blog/advanced-version-of-gemini-with-deep-think-officially-achieves-gold-medal-standard-at-the-international-mathematical-olympiad/
Aw. (n.d.). openai-imo-2025-proofs/README.md at main · aw31/openai-imo-2025-proofs. GitHub. https://github.com/aw31/openai-imo-2025-proofs/blob/main/problem_2.txt
Mason, K. (2025, August 25). Young maths minds from all over the globe start competition for the IMO 2025 tomorrow as Great Britain takes ‘the ashes’ in early win. IMO 2025. https://imo2025.au/news/young-maths-minds-imo-2025/
Olimpíada Internacional de Matemática. (n.d.). https://www.imo-official.org/?language=es
Wu, L. (2025). 2025 Samuel Beatty Report 66th International Mathematical Olympiad in Sunshine Coast, Australia. En Canadian Mathematical Society. Recuperado 20 de octubre de 2025, de https://cms.math.ca/wp-content/uploads/2025/08/2025-Samuel-Beatty-Report-1.pdf

Publicado originalmente en Ambas Manos.
Más información
Material gráfico
Misael Chirino Durán
Fotografía
Ramón Tecólt González

Solicita Información

Sexo
Motivo

CAPTCHA This question is for testing whether or not you are a human visitor and to prevent automated spam submissions.