Repensando las matemáticas en la era de la inteligencia artificial
Los modelos de aprendizaje automático comienzan a demostrar teoremas originales y obligan a replantear tanto la investigación como la enseñanza de esta disciplina
Durante décadas, la inteligencia artificial (IA) fue una promesa intermitente: deslumbraba en los laboratorios, se apagaba en los inviernos tecnológicos y volvía a encenderse con cada salto de potencia de cálculo. Hoy esa promesa es una realidad, que obliga a repensar múltiples aspectos de nuestra sociedad y así optimizar el delicado equilibrio entre riesgo y oportunidad que siempre acompaña a las revoluciones tecnológicas. Esto resulta especialmente cierto en el caso de la investigación en matemáticas, donde en los últimos tiempos se han empleado modelos de aprendizaje automático (que sustentan la inteligencia artificial moderna) para apoyar la obtención de demostraciones matemáticas originales.
Hasta hace poco, la IA ha tenido un papel menos visible en las matemáticas que en otras áreas científicas. El origen de ese desfase está en las propias raíces de la inteligencia artificial, que contrastan con las de otras áreas más tradicionales de la computación. Mientras estas últimas parten de la lógica matemática, a través de los trabajos fundacionales de Alonzo Church, Alan Turing y, posteriormente, John von Neumann, los sistemas de aprendizaje automático tienen orígenes —también matemáticos— muy distintos. Estos modelos surgen de la estadística y, particularmente, de la necesidad de extraer predicciones fiables a partir de grandes volúmenes de datos ruidosos. Por tanto, desde su origen, en el aprendizaje automático subyace un compromiso entre precisión y tolerancia al error, muy distinto del ideal clásico de las matemáticas, construido sobre demostraciones “duras y claras como diamantes”, en palabras atribuidas al filósofo inglés John Locke.
Sin embargo, pese a ello, en los últimos años las técnicas de aprendizaje profundo se han incorporado al trabajo investigador en matemáticas para acelerar procesos esenciales, como la identificación de patrones y conjeturas, la generación y depuración de ideas o la producción de código. Estos sistemas (que no comprenden la aritmética básica) realizan un amplio rango de cálculos numéricos de forma efectiva usando simples correlaciones, aunque fallan de forma grotesca cuando se salen del territorio aprendido.
Recientemente se ha ido un paso más allá: los modelos de lenguaje ya son capaces de crear demostraciones de forma autónoma, que pueden resultar relevantes bien sea por sí mismas o como pasos auxiliares en el camino hacia a un resultado más complejo. Además, estas pruebas se pueden verificar con herramientas como , un software que traduce las matemáticas a un código que los ordenadores pueden comprobar paso a paso para asegurar que no existen errores.