Es hora de prepararse para el Maquinoceno

Huw Price

Mikael Hvidtfeldt Christensen/Flickr

La inteligencia de nivel humano es algo familiar en la maquinaria biológica; estás usando una ahora. La ciencia y la tecnología parecen estar convergiendo, desde varias direcciones, en la posibilidad de una inteligencia similar en sistemas no biológicos. Es difícil predecir cuando podría ocurrir esto, pero la mayoría de los especialistas en inteligencia artificial (AI) estiman que es más probable que sea en este siglo que no.

Liberados de las limitaciones biológicas, como un encéfalo que necesita ajustarse para pasar por un canal del parto (y que funciona con la energía que consume un simple bombilla de 20 W), las máquinas no biológicas podrían ser mucho más inteligentes de lo que somos nosotros. ¿Que significaría esto para nosotros? El destacado investigador en AI Stuart Russell sugiere que, para lo bueno y para lo malo, sería “el mayor acontecimiento en la historia de la humanidad”. Efectivamente, nuestras elecciones en este siglo podrían tener consecuencias a largo plazo no solo para nuestro planeta, sino para la galaxia en su conjunto, tal y como ha apuntado el Astrónomo Real Martin Rees. El futuro de la inteligencia en el cosmos podría depender de lo que hacemos ahora mismo, aquí en la Tierra.

¿Deberíamos preocuparnos? La gente viene especulando con la inteligencia de las máquinas desde hace generaciones, entonces ¿cuál es la novedad?

Bien, dos grandes cosas han cambiado en las últimas décadas. Primero, ha habido un montón de progreso real, teórico, práctico y tecnológico, a la hora de comprender los mecanismos de la inteligencia, tanto biológica como no biológica. Segundo, la AI ha alcanzado ahora un punto en el que es tremendamente útil para muchas tareas. Por tanto tiene un enorme valor comercial, lo que está incentivando inversiones gigantescas; un proceso que parece destinado a continuar y que, probablemente, se acelere.

De una forma u otra, entonces, vamos a compartir el planeta con un montón de inteligencia no biológica. Sea lo que sea lo que conlleve, los humanos afrontamos este futuro juntos. Tenemos un obvio interés común en hacerlo bien. Y necesitamos hacerlo perfectamente a la primera. Descartando una catástrofe que termine con nuestra civilización tecnológica que no acabe con nosotros por completo, no vamos a estar en esta situación de nuevo.

Ha habido signos alentadores de una creciente consciencia de estas cuestiones. Muchos miles de investigadores en AI y otras personas han firmado una carta abierta pidiendo que la investigación se asegure de que la AI es segura y beneficiosa. Más recientemente, hay una bienvenida Asociación de AI para beneficiar a la gente y la sociedad por parte de Google, Amazon, Facebook, IBM y Microsoft.

Por el momento buena parte de la atención se centra en la seguridad y en los beneficios e impactos (en los empleos, por ejemplo) a relativamente corto plazo. Pero, siendo estas cuestiones importantes, no son las únicas cosas en las que deberíamos estar pensando. Tomo un ejemplo de Jaan Tallinn, uno de los ingenieros fundadores de Skype. Imagina que estuviésemos llevando a la humanidad al espacio en una flota de naves gigantes. Necesitaríamos estar seguros de que estas naves fuesen seguras y controlables, y de que todo el mundo estuviese alojado y alimentado adecuadamente. Estas cosas serían cruciales, pero no serían suficientes por sí mismas. También haríamos lo más que pudiésemos para averiguar a dónde debería llevarnos esta flota y qué podríamos hacer para dirigirnos a las mejores opciones. Podrían existir mundos paradisíacos por ahí, pero hay un montón de espacio frío y oscuro entremedias. Necesitaríamos saber a dónde vamos.

En el caso del futuro a largo plazo de la AI hay razones para ser optimistas. Podría ayudarnos a resolver algunos de los problemas prácticos que derrotan a nuestros propios limitados cerebros. Pero en lo que toca al aspecto de la cartografía de futuros posibles, qué partes de él son mejores o peores, y cómo nos dirigimos a los mejores resultados, en esas cuestiones, aún somos mayormente ignorantes. Tenemos alguna idea de qué regiones evitar, pero buena parte del mapa sigue siendo terra incognita. Solo un optimista despreocupado pensaría que deberíamos esperar a ver.

Uno de los escritores clarividentes que vio esto venir fue el gran Alan Turing. “Parece probable que una vez que el método de pensamiento de la máquina haya arrancado, no debería llevarle mucho sobrepasar nuestras pobres capacidades”, escribió a la conclusión de una conferencia en 1951. En su artículo de 1950 sobre la llamada máquina de Turing, diseñada para evaluar nuestra disposición a atribuir inteligencia parecida a la humana a una máquina, Turing termina con estas palabras: “solo podemos ver una corta distancia hacia adelante, pero podemos ver mucho ahí que necesita hacerse”. Estamos bastante más allá del horizonte de Turing, pero este progreso no hace nada para aliviar la sensación de que hay todavía cuestiones urgentes que debemos intentar responder. Por el contrario, vivimos entre presiones que pronto nos llevarán más allá de nuestro horizonte actual, y tenemos aún más razones que Turing para pensar que lo que tenemos por delante podría ser realmente grande.

Si vamos a desarrollar máquinas que piensen, asegurarnos de que son seguras y beneficiosas es uno de los grandes retos intelectuales y prácticos de este siglo. Y debemos afrontarlo juntos, la cuestión es demasiado grande y crucial como para que la afronte una sola institución, empresa o nación. Nuestros nietos, o sus nietos, vivirán probablemente en una era diferente, probablemente más Maquinoceno que Antropoceno. Nuestra tarea es conseguir lo mejor de esta época de transición, para ellos y para las generaciones que seguirán. Necesitamos lo mejor de la inteligencia humana para conseguir lo mejor de la inteligencia artificial.

Sobre el autor: Huw Price ocupa la cátedra “Bertrand Russell” de filosofía de la Universidad de Cambridge y es “fellow” del Trinity College.

Texto traducido y adaptado por César Tomé López a partir del original publicado por Aeon el 17 de octubre de 2016 bajo una licencia Creative Commons (CC BY-ND 4.0)
Aeon counter – do not remove

3 Comentarios

Deja un comentario

MasgüelMasgüel

Este artículo habría que clavarlo en la puerta de las iglesias y los ayuntamientos. Si el mundo fuese una comedia de Douglas Adams, los delfines estarían haciendo las maletas desde que un buzo se le cayó el portátil.

Me alegra comprobar que César Tomé, como buen estratega, aprovecha los breves armisticios para frecuentar el lado oscuro. O quizá pasea por las trincheras del enemigo en un despiste (como contaba Jünger en sus tempestades de acero). La filosofía de la ciencia de Price le pondría el pelo blanco.

Ester SánchezEster Sánchez

Sea como sea que evolucione la inteligencia artificial, no hay que olvidar que es a los humanos a quien corresponde proveer a las máquinas de la información necesaria para su buen funcionamiento.

Manuel López RosasManuel López Rosas

En todo caso, este panorama nos obliga a redefinir nuestra noción de inteligencia (¿natural biológica, social?) y a encontrar con mayor detalle y precisión lo que es, los alcances y las responsablidades de este ejercicio.

¿Maquinoceno? muy temprano para querer hacer definiciones categóricas, definitivas y limitantes. Pero encuentro estimulante y sugestivo pensar lo que sugiere el término.

Deja un comentario

You may use these HTML tags and attributes: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>