La historia de la inteligencia artificial está llena de fantasías, posibilidades, demostraciones y promesas. Si bien se considera una disciplina formal desde 1950, detrás de su historia confluyen múltiples disciplinas del conocimiento así como diversos conceptos que pasan por la antropología, sociología, filosofía y matemáticas. En este apartado AIpocrates realizará un breve viaje por los diferentes períodos de la IA llegando hasta su presente y elucubrando su futuro, ese que solo puede entenderse navegando las aguas de su océano primitivo. ¡Bienvenidos!
Prehistoria de la IA
Si bien, muchos ubican las raíces de la IA en el año 1940, las bases teóricas de lo que posteriormente construirían sus pioneros como Alan Turing o Marvin Minsky fueron sentadas mucho antes, en los albores del siglo XIX.
George Boole (1815-1864) nació en Lincoln, Inglaterra. Hijo de un zapatero con alma de inventor y contrario al genio común fue un estudiante destacado en su escuela, especialmente en el estudio de las lenguas clásicas las cuales dominaba a la edad de 14 años. Dado su origen humilde Oxford y Cambridge le eran inalcanzables, por lo cual se convirtió en un maestro autodidacta y muy exitoso.
Debido a sus inmensas cualidades como maestro y como director de escuelas se le asignó la Institución de Mecánica en su natal Lincoln. Allí devoró toda la obra de Newton, Laplace y Lagrange. Con todo este conocimiento en su cabeza, decide publicar en 1838 su primer articulo «On certain theorems in the calculus of variations», y posteriormente una avalancha de publicaciones que le hicieron merecedor -no sin controversia dado su empirismo- de la medalla de oro de la Real Sociedad de Ciencias británica en 1844.
Su increíble voluntad de superación le llevó a ser profesor y posteriormente director del Queen´s College de Cork en Irlanda, en donde en 1851 empezó a interesarse en la lógica. Boole se dio cuenta que Aristóteles y Leibniz se habían equivocado al intentar expresar los postulados de la lógica usando algebra de números reales. Boole decidió entonces asignar nuevos símbolos a la lógica, revolucionando el lenguaje algebraico, demostrando además que manipulaciones puramente simbólicas de conjuntos podrían representar mejor esquemas clásicos de implicaciones, sin hacer referencia a los esquemas propios del argumento matemático, esto lo optimizó aún más incluyendo su famosa notación del 0 para el conjunto vacío y el 1 para el conjunto universal. Había nacido el algebra booleana, uno de los conceptos claves para el desarrollo posterior de las máquinas de Turing y el lenguaje computacional.
El 24 de noviembre de 1864 con un cuadro clínico de neumonía, en el inclemente clima irlandés, George Boole fue obligado por su esposa Mary a ingerir varios vasos de agua fría en una ruptura del principio de idempotencia de la medicina de la época, lo cual obviamente le agravó llevándolo a su muerte el 8 de diciembre del mismo año.
Georg Cantor (1845-1918) San Petersburgo, la bellísima ciudad rusa, fue la que pudo escuchar las primeras notas del violín de Cantor antes que sus teorías matemáticas. El padre de Cantor, agente de bolsa, tenía un inmenso talento para los números, lo que le llevo por diferentes partes de Europa y además le heredó dicha pasión y facilidad al pequeño Georg.
Inicialmente en Frankfurt y posteriormente en Zurich y Berlín, los pasos de Cantor por diferentes escuelas matemáticas fue una historia de éxito. Su destino final como maestro fue la universidad de Halle en donde culminó su carrera.
Gracias al reto de su colega y amigo Heine sobre la demostración de la unicidad de la representación de una función mediante series geométricas, es decir una generalización de las series de Fourier, Cantor empezó a estudiar lo que le haría inmortal: el infinito.
Dado que el infinito tenia ya una larga historia, Cantor definió el término de números transfinitos para denotar todos los conjuntos de números infinitos, tanto los cardinales como los ordinales. Sin embargo, el verdadero aporte de Cantor a los modelos de IA fue su «hipótesis del continuo«, en la cual se plantea la opción -aún no demostrada- de que solo existieran dos tipos de subconjuntos infinitos de los números reales.
Esta hipótesis tiene relevancia en los modelos de aprendizaje automático (machine learning). Para estudiar cuestiones de capacidad de aprendizaje, necesitamos un marco matemáticamente preciso para el análisis del aprendizaje automático. Con este propósito, Leslie Valiant introdujo el concepto del aprendizaje aproximadamente correcto o PAC learning en 1984. La idea del PAC-learning es simple: un alumno recibe pequeños fragmentos de información sobre un determinado problema y debe generar una hipótesis general derivada de estos datos. Por ejemplo, el alumno podría recibir fotos e información sobre si estas fotos contienen o no un gato. A continuación, el alumno debe seleccionar una función que decida para una foto determinada si contiene un gato o no.
Dado que los problemas de aprendizaje esencialmente requieren que el alumno presente una función generalizada. Si esa función generalizada es suficientemente buena, entonces decimos que el alumno ha aprendido el problema. En otras palabras, el problema se puede aprender. Sin embargo, exigir que una máquina pueda aprender un problema es una restricción adicional. Alan Turing demostró con su famoso problema de detención que no todas las funciones son computables. Entonces, para decir que una máquina puede aprender un problema, debemos asegurarnos de que las funciones de las que estamos hablando realmente puedan ser manejadas por una máquina, es decir sea aprendible.
Un ejemplo es el siguiente: imagine un sitio web que está siendo visitado por una variedad de usuarios. Denote con X el conjunto de todos los visitantes potenciales del sitio web. El propietario del sitio web desea publicar anuncios en él. Los anuncios publicados deben elegirse de un grupo determinado de anuncios. Cada anuncio A del grupo se dirige a una determinada población de usuarios F (A) ⊆ X. Por ejemplo, si A es un anuncio deportivo, F (A) es el grupo de aficionados al deporte. El objetivo es colocar un anuncio cuya población objetivo visite el sitio con más frecuencia. El desafío es que no se sabe de antemano qué visitantes visitarán el sitio. Para poder solucionar, al menos parcialmente esta conjetura, se desarrolló el modelo de estimación del problema máximo (EMX). En este modelo EMX básicamente se intenta a través de estimaciones de probabilidad vincular lo aprendible con lo entrenable. La mala noticia es que hoy, ningún algoritmo, ninguna computadora, ninguna máquina puede resolver este problema. Hart concluye que «no existe un algoritmo que resuelva este problema de aprendizaje en particular», es decir sigue sin poderse resolver la hipótesis de Cantor, pero nos ha dado una buena excusa para optimizar los modelos de entrenamiento.
El peor enemigo de Cantor en sus últimos 25 años fue la depresión, enfermedad que lo obligó a entrar y salir del hospital hasta su muerte el 6 de enero de 1918, el mismo año final del imperio Alemán.
Alan Mathison Turing (1912 – 1954) Por fin hemos llegado a uno de los personajes de mayor relevancia en el campo de la IA. Su vida tan fascinante como compleja lo llevó a ser no solamente un científico esencial para el fin de la segunda guerra mundial, como se le reconoce por su desciframiento del famoso código alemán Enigma, sino por su revolucionario análisis de la automatización como concepto, lo que llevaría más tarde a la creación del software, las leyes de la computación y por supuesto a la IA.

Provenía de una familia inglesa de modesta distinción. Un ancestro lejano, George Johnstone bautizó al electrón en 1894. Su padre Julius Turing estuvo la mayor parte del tiempo en servicio social en la India después de su graduación en Oxford. La familia vivía entre ese país y Londres, ciudad en la cual nacería Alan un 23 de junio de 1912.
Los padres de Alan decidieron dejar a sus dos hijos al cuidado de la familia del Coronel Wards, en una pequeña ciudad cerca de Hastings. En dicha ciudad creció Alan hasta 1926 cuando fue enviado al internado de Sherborne, uno de los mas antiguos en Inglaterra.
Alan nunca se sintió muy a gusto en el internado, su debilidad física y bajo rendimiento en áreas diferentes a las ciencias y matemáticas no le hicieron gozar de mucha popularidad. Cayó enfermo de parotiditis durante su segundo año escolar y tuvo entonces la «fortuna» de estar hospitalizado un buen tiempo, durante el cual leyó los resúmenes de las teorías general y especial de la relatividad de Einstein.
En Sherborne entabla una relación cercana con quien era posiblemente su alter ego, Christopher Morcom, un año mayor que el pero a diferencia de Alan inmensamente popular, y con quien compartía el gusto por las matemáticas. Cristopher lamentablemente fallece por tuberculosis un año después lo cual, sumado a su no ingreso al Trinity College sumieron a Alan en una profunda depresión, la cual supera en 1931 al ingresar al King´s College en Cambridge a estudiar matemáticas. Su trabajo de graduación sobre el teorema del límite central de probabilidad fue muy meritorio y le ayudó a seguir como profesor en su escuela.
En 1928 David Hilbert relanzó los tres grandes retos de la matemática. Alan se interesó por demostrar la decidibilidad, es decir el demostrar que la ciencia tiene un procedimiento de decisión para definir la veracidad o no de una proposición matemática cualquiera.
Para abordar el reto Alan decidió expresarlo en términos de máquinas, hoy conocidas como las máquinas de Turing, concepto que unido al algebra Booleana más tarde terminaría siendo la base de los lenguajes de computación. Al unir su trabajo con el concepto de la diagonalización de Cantor (ver arriba) Turing demostró que el procedimiento de decisión no tiene existencia factible en las matemáticas.
Este primer trabajo con sus máquinas llevó a Alan a escribir su más famoso artículo: «Sobre números computables con una aplicación», el cual fue publicado en 1936. Este trabajo llamó tanto la atención en el mundo matemático de la época que el mismo Alonzo Church le ofreció una pasantía en la universidad de Princeton para trabajar con su mentor Max Newman. En 1938 logra su doctorado en matemáticas en Princeton, pero decide regresar a Cambridge.
En septiembre de 1939, al estallar la segunda guerra mundial, Alan es trasladado al proyecto del código Enigma en Bletchley Park, en donde además conoce a su futura esposa Joane Clarke. Como era de esperarse por las tendencias sexuales de Alan, el matrimonio es un completo fracaso. Una vez culminado el proyecto Enigma y ya divorciado, Alan tiene en su mente la idea de «construir un cerebro» y sabiendo que en Cambridge la posibilidad de lograrlo era mínima decide mudarse al laboratorio Nacional de Física en Londres.
Dos años estuvo Turing intentando crear la primera computadora, pero al final decide abandonar el proyecto debido a una alta carga burocrática. Alan entonces regresó a Cambridge.
En su fase final en Cambridge, Alan inició una relación sentimental con uno de sus alumnos, lo cual produjo un gran escándalo en 1952 ya que con la excusa de un robo, la policía inglesa irrumpió en la casa de Alan descubriendo sus prácticas homosexuales, prohibidas para la época.
Alan fue condenado a dos años de terapia de castración farmacológica, lo cual le produjo una serie de efectos secundarios que le llevaron a deteriorar su calidad de vida, hasta su suicidio en 1954.
Una de las mentes mas brillantes de la historia, quizás comparable a Newton, Tesla, Einstein o Hawking. Sus teorías subyacen hoy a casi toda la modernidad, no podríamos escribir estas líneas sin la contribución de Turing. Un adelantado a su tiempo ya que su famosa ley nos plantea la posibilidad de llegar en el año 2040 (pienso que se dará mucho antes) a la superinteligencia artificial, momento en el cual seguramente nos plantearemos no nuestra reemplazabilidad como seres humanos, sino nuestra mejora exponencial potenciados por la ciencia.