La segunda mitad del siglo XX vio nacer la computación y el sueño de la inteligencia artificial —“la ciencia de conseguir que las máquinas hagan cosas que requerirían inteligencia si las hiciesen humanos”, en palabras de Marvin Minsky—, que hoy en día está despertando un renovado interés gracias a la rama del aprendizaje automático. Se trata de un conjunto de técnicas que se benefician de los avances tecnológicos en materia de computación de las últimas dos décadas, y se caracterizan por su capacidad de engullir enormes cantidades de datos para enfrentarse a problemas de gran complejidad. Las aplicaciones son vastas, y ya forman parte de nuestro día a día: se utilizan para detección de fraude, navegación en vehículos autónomos, sistemas de recomendación (de productos, música…), diagnóstico médico, optimización de procesos, juegos… y un largo etcétera.
En todos estos casos, decimos que la máquina aprende. Y sabemos perfectamente cómo aprende (la lógica matemática y computacional subyacente), pero ¿qué aprende exactamente? Esta pregunta, aparentemente sencilla, nos persigue en todas sus aplicaciones. Por ejemplo, ¿qué lleva a AlphaZero a considerar ventajosos los movimientos que hace y que epatan por igual a aficionados y expertos ajedrecistas? Lo cierto es que no lo sabemos. La importancia de la cuestión puede parecer relativa en decisiones no críticas como la recomendación de una película, pero resulta esencial, e incluso abre derivadas éticas, cuando hablamos de cosas como conceder o no conceder un crédito, o la reacción de un coche autónomo ante un accidente.
En realidad, el tipo de problema al que se enfrentan las técnicas de aprendizaje automático es el mismo al que se viene enfrentando la ciencia, estadística mediante, desde su nacimiento: la inferencia de patrones, de generalizaciones, a partir de datos observacionales con el objetivo de obtener predicciones. En otras palabras, dada una entrada X, ¿qué modelo o función “f” genera la salida Y=f(X)? La gran diferencia se encuentra en que tradicionalmente nos hemos enfrentado a problemas para los cuales hay una teoría matemática previa que establece la estructura de “f”. La estadística clásica es la ciencia que estudia los diferentes tipos de modelos “f” y genera las técnicas para obtener y evaluar el mejor ajuste a partir de las observaciones (x, y). Por otro lado, las técnicas de aprendizaje automático de la nueva ciencia de datos son capaces de aprender la función “f” a partir de los datos sin ningún modelo previo, sin ningún conocimiento a priori del problema. La función “f” inferida se encuentra de alguna forma codificada tras el proceso de aprendizaje, pero nos es completamente desconocida y no hay forma de extraerla: es por eso que suelen llamarse “algoritmos de caja negra”.
Así pues, la estadística clásica define modelos matemáticos en los que las relaciones entre variables son explícitas y, por tanto, son directamente interpretables. Pensemos en una simple relación lineal: cuando crece X, crece Y; por tanto, obtenemos un valor grande de Y porque X es grande. En cambio, estos algoritmos de caja negra son capaces de capturar relaciones arbitrariamente complejas y predecir con gran precisión, pero su desventaja a día de hoy es que nos las ocultan, matemáticamente hablando: no somos capaces de interpretar qué propiedades de X influyen en Y.
Por tanto, uno de los grandes retos que la inteligencia artificial tiene por delante es el de intentar obtener conocimiento a partir de la estructura que las máquinas son capaces de extraer de grandes volúmenes de datos. Quizás se logre mediante una formalización matemática de las técnicas actuales, o quizás se desarrolle una nueva estadística ahora desconocida. Sea como sea, aprender de las máquinas puede ser uno de los principales hitos del presente siglo.
Sobre el autor: Iñaki Úcar es doctor en telemática por la Universidad Carlos III de Madrid e investigador postdoctoral del UC3M-Santander Big Data Institute
Hitos en la red #259 – Fluceando
[…] Aprendiendo de las máquinas […]
Iñaki Úcar – Naukas 19: Aprendiendo de las máquinas — Cuaderno de Cultura Científica
[…] Iñaki Úcar es doctor en telemática por la Universidad Carlos III de Madrid e investigador postdoctoral del UC3M-Santander Big Data Institute. Podeís leerle en Aprendiendo de las máquinas. […]