Por primera vez en la historia ChatGPT ha resuelto un problema matemático sin solución: los científicos no dan crédito

Publicado el: 12 de abril de 2026 a las 12:48
Síguenos
Fórmulas matemáticas en pizarra representando un problema complejo resuelto con ayuda de ChatGPT.

¿Puede una IA hacer algo más que resolver ejercicios ya conocidos y, de verdad, ayudar a demostrar una idea nueva? Un equipo de la Vrije Universiteit Brussel, en Bélgica, cuenta que un modelo comercial de ChatGPT participó en el cierre de una conjetura reciente.

La historia suena a ciencia ficción, pero el propio grupo insiste en el matiz importante. La IA acelera la búsqueda de una demostración, pero el trabajo de revisar cada paso y dejarlo sin grietas sigue recayendo en personas.

De conjetura a teorema

La conjetura original la plantearon en 2024 los matemáticos André C. M. Ran y Zhixuan “Emily” Teng, en un artículo sobre “patrones de ceros” en matrices, es decir, tablas de números donde algunas posiciones están obligadas a ser cero. Una conjetura es, por lo general, una idea que parece cierta porque encaja con muchos ejemplos, pero que todavía no tiene una prueba formal.

Cuando alguien consigue una demostración completa, esa conjetura pasa a ser un teorema, una afirmación que ya se puede usar con confianza en otros trabajos. En este caso, el objetivo era describir con exactitud qué valores podían aparecer al analizar esas matrices y dónde quedaban “dibujados” en el plano. Esos números, llamados valores propios, funcionan como una huella del ritmo del sistema.

Ese dibujo no es solo estético. En matemáticas, esos valores ayudan a entender cómo cambia un sistema por pasos, como una cadena de probabilidades que se repite una y otra vez hasta estabilizarse.

La pista del teorema de Karpelevich

El nuevo resultado no aparece de la nada. Una pieza de fondo es el teorema de Karpelevich, publicado en 1951, que describe en qué zona del plano pueden caer ciertos valores asociados a matrices de probabilidades.

Para quien quiera el mapa sin perderse, hay trabajos modernos que reordenan esa teoría y explican mejor la llamada “región de Karpelevich”. Un ejemplo reciente es un artículo de 2024 en Linear Algebra and its Applications que revisa el teorema y su frontera con lenguaje más actual.

Qué hizo ChatGPT-5.2 en el estudio

La investigación de la VUB se presenta como un caso de estudio y está firmada por Brecht Verbeken, Brando Vagenende, Marie-Anne Guerry, Andres Algaba y Vincent Ginis. En la prepublicación, los autores describen cómo ChatGPT-5.2 Thinking ayudó a generar, revisar y reparar borradores de la demostración hasta llegar a una versión verificable.

El método se parece a una revisión de apuntes antes de un examen, pero a lo bestia. El modelo propone una ruta, el equipo busca huecos lógicos, y luego se vuelve a intentar con un borrador mejor, una y otra vez.

Aun así, no se trata de apretar un botón y esperar un teorema nuevo. Los investigadores humanos guían el problema, deciden qué ideas merecen seguirse y, sobre todo, son los que firman la coherencia final.

Vibe-proving y el papel de la intuición

El equipo llama a este estilo de trabajo “vibe-proving”, un nombre inspirado en la programación por conversación que algunos ya conocen como “vibe-coding”. En su comunicado, la VUB explica que el resultado final salió tras siete sesiones de chat y cuatro versiones del argumento, con ChatGPT aportando velocidad y los expertos humanos aportando el control de calidad.

Brecht Verbeken lo resumió con una frase muy clara, “I had long suspected that ChatGPT could help me prove unsolved mathematical problems, and yet I was surprised at how efficiently that worked out”. Vincent Ginis añadió otra idea que el campo discute desde hace años, “We often hear how people think that the creativity of systems is fundamentally limited to reformulations of their training data, glad we can dispel that misconception with our work as well”.

En el mismo texto, Andres Algaba pone el freno donde toca, “Formulating candidate proofs can now be much faster, but the bottleneck then becomes human verification”. Dicho en cristiano, se puede llegar antes a una prueba candidata, pero comprobarla sigue llevando tiempo.

El cuello de botella sigue siendo humano

Aquí está la parte menos glamurosa. Una demostración matemática no vale porque suene bien, vale porque cada paso se sostiene, incluso cuando alguien la intenta romper con ejemplos raros o casos límite.

Por eso, el propio trabajo insiste en que la IA no sustituye al matemático. En el mejor escenario, le ahorra horas de exploración y le obliga a escribir con más claridad, pero el control final sigue siendo responsabilidad humana.

También hay una advertencia práctica. El estudio es una prepublicación, así que todavía puede cambiar si aparecen errores o mejoras en la revisión de la comunidad.

Un modelo comercial pensado para razonar más

El caso también muestra por qué importa el tipo de modelo. OpenAI presenta GPT-5.2 Thinking como una variante orientada a tareas largas, con mejoras en razonamiento y menos alucinaciones que versiones anteriores, aunque sigue siendo imperfecta y recomienda verificar en trabajos críticos.

Si esa mezcla madura, podría cambiar cómo trabajan pequeños equipos de investigación, sobre todo en problemas donde la parte creativa es proponer caminos y la parte dura es demostrar que no hay trampas. Al final del día, el debate no es si la IA “piensa” como una persona, sino cómo se integra sin bajar el listón.

El estudio principal se ha publicado en arXiv.

Techy44

Redacción Techy44 by Okdiario. Grupo de periodistas dedicados a divulgar noticias sobre tecnología, ciberseguridad, informatica, inteligencia artificial y juegos.

Deja un comentario