Tocó el séptimo Ángel… Entonces sonaron en el cielo fuertes voces que decían: «Ha llegado el reinado sobre el mundo de nuestro Señor y de su Cristo; y reinará por los siglos de los siglos.» Y los veinticuatro Ancianos que estaban sentados en sus tronos delante de Dios, se postraron rostro en tierra y adoraron a Dios diciendo: «Te damos gracias, Señor Dios Todopoderoso, «Aquel que es y que era» porque has asumido tu inmenso poder para establecer tu reinado.
Juan de Patmos (siglo I e.c.) Apocalipsis 11: 15-17.
¿Es concebible que la función que representan hoy las divinidades en nuestras sociedades pueda ser ejercida por alguna otra entidad? Si hay algo que pueda suplantar ese papel, creo que ese “algo” es la Inteligencia Artificial.
No es tarea fácil definir “inteligencia artificial”, por la sencilla razón de que no lo es definir “inteligencia”. Nos conformaremos, por tanto, con considerar que inteligencia artificial es aquel artefacto -material o virtual- que despliega capacidades y destrezas tales que sería considerado inteligente si las desplegara una persona. Ahora bien, si pensamos que la inteligencia artificial podría llegar a sustituir a Dios en nuestras mentes, su capacidad debería ser muy superior a la humana. Y sería bajo ese supuesto que podría convertirse en una amenaza para la humanidad. La amenaza sería mayor, incluso, si se desalinease de los valores y prioridades de los seres humanos.
No hay acuerdo entre los expertos acerca de la probabilidad de que un riesgo tal pueda llegar a materializarse, pero hay figuras muy relevantes en ese campo que así lo creen. Aunque también es cierto que se trata de algo cuya eventualidad no se considera verosímil en unos pocos años, aunque sí en unas décadas. En otras palabras: queda mucho tiempo por delante para que tal cosa ocurra.
Según los especialistas, el riesgo empezaría a convertirse en una amenaza muy cierta en el momento en que se combinasen el llamado “aprendizaje profundo” con el aprendizaje por refuerzo -mediante recompensa o castigo-, lo que podría resultar de la utilización de lo que se denomina una “función de recompensa”.
Las posibilidades de que una Inteligencia Artificial llegase a representar un riesgo existencial aumentarían si la “función de recompensa” no incluyese valores ampliamente compartidos por los seres humanos, y si sus creadores los sustituyesen por valores acordes a sus propios intereses. Bajo esas condiciones, un sistema suficientemente inteligente podría resistirse a aceptar reformular en algún momento su función de recompensa, por lo que operaría de acuerdo con los intereses que hubiesen especificado sus creadores.
Por otro lado, para poder adquirir el control y desvincularse del que pudieren ejercer sobre él seres humanos, el sistema no necesitaría actuar en el mundo físico; le bastaría con hacerlo en el virtual, mediante textos, sonidos e imágenes. Y progresaría de modo similar a como lo ha hecho la capacidad humana, adquiriendo volúmenes crecientes de recursos. Estamos muy lejos -eso dicen- de una situación tal, pero no es tan difícil imaginar cómo operaría esa Inteligencia Artificial, si pensamos en los vídeos en los que se nos presenta la imagen de una persona conocida por todo el mundo haciendo afirmaciones absurdas, pero haciéndolas con su propia voz. O si pensamos en la facilidad con la que bulos e informaciones tendenciosas se expanden y reciben total credibilidad por parte de amplios sectores de población.
La Inteligencia Artificial no tendría por qué acabar físicamente con la humanidad, pero sí podría reducirla a un estado de postración tal que perdiera todas sus posibilidades de optar por diferentes futuros. Toby Ord atribuye a este riesgo una probabilidad de una entre diez de materializarse en los próximos cien años.
Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU
Masgüel
«La Inteligencia Artificial no tendría por qué acabar físicamente con la humanidad, pero sí podría reducirla a un estado de postración tal que perdiera todas sus posibilidades de optar por diferentes futuros.»
No podría. La posibilidad de elegir y crear diferentes futuros es la mejor definición de «humanidad» (también de «tecnología»). Lo que promete la inteligencia artificial es un instrumento estupendo para que la humanidad siga creando nuevos cielos e infiernos.
*a vuelapluma también ha dado una estupenda definición de progreso: «…de modo similar a como lo ha hecho la capacidad humana, adquiriendo volúmenes crecientes de recursos.»
Juan Ignacio Pérez Iglesias
Hola, Masgüel.
Confieso que no he entendido su comentario. ¿No considera posible que una IA se autonomice de los seres humanos? ¿Que actúe al margen de sus intereses y valores?
Salud.
Masgüel
Disculpe. Intentaré explicarme y responder primero a sus preguntas. No considero posible que una IA se autonomice de los seres humano. Claro que puede actuar al margen de nuestros intereses y valores, si sus consecuencias no son las pretendidas o esperadas por sus creadores. Sería nuestro error, no su independencia. La definición de progreso de la capacidad humana como adquisición de volúmenes crecientes de recursos (cultura acumulativa) no me parece una aproximación a la IA general. Creo que la consciencia es un requisito de nuestra inteligencia general y mientras las redes neuronales artificialess sigan siendo lo que ahora (por mucho refuerzo que les eches), algoritmos para reconocer patrones y optimizar procesos, pueden, como decía, convertirse en excelentes instrumentos para la creatividad humana (Para bien y para mal. La diversión y el arte son cada día más sofisticadas. También la guerra y la tortura), pero un ábaco electrónico no puede impedir que el futuro siga estando abierto para la humanidad. Mientras en este planeta quede un bicho parlante, seguirá siendo el vector más potente de la creatividad de la naturaleza. La IA solo es el último trasto en nuestra caja de herramientas.
Ahora (o, más bien, luego), el futuro. Afinando, la humandidad no opta por diferentes futuros. Para empezar, porque la humanidad no es un sujeto. Solo los sujetos eligen, aunque sea de forma colectiva. De la humanidad, como colectivo, apenas hay ensayos institucionales muy limitados desde hace siete décadas. Y los sujetos más que optar por diferentes futuros, optan entre diferentes cursos de acción, a menudo de creación propia, y luego el futuro nos sale como el refrán: Si con barba San Antón… Pero como tienen memoria de sus proyectos, pueden corregir, volver a intentar… «han comenzado la obra, y nada les hará desistir ahora de lo que han pensado hacer».
Mejor juguemos a la ontología. Si coincidimos en que el futuro está abierto, nuestra filosofía del tiempo será, o bien presentista (todo lo que existe es la actualidad del proceso, del cambio), o bien dibujará el universo como un bloque creciente (como quiere G. Ellis, donde el pasado permanece, signifique eso lo que signifique, pero el futuro está por hacer). Para el determinismo (superdeterminismo, si queremos incluir esa interpretación de la mecánica cuántica), el futuro está definido (solo es una coordenada en un bloque espaciotemporal eterno) desde las condiciones iniciales del universo. No hay más posibilidad que la que se actualiza. Por el contrario, que el futuro esté abierto no solo significa que las posibilidades futuras son infinitas. Aún más importante, significa que las posibilidades futuras son un infinito indefinido. Un espacio muestral infinito indefinido se explora y se crea al mismo tiempo. Si escucha usted lo que dice Sara Walker en el video que enlazo en los comentarios a la última entrada de su blog personal, verá por dónde van los tiros. Nuestra especie es la forma más eficiente (inteligente y tecnológica) que encuentra la naturaleza para disipar calor mediante la exploración y creación del espacio de lo posible.
Pretendo ser más claro y me temo que no hago sino oscurecer. A veces, los postmodernos, no es por mala intención. Es que no damos pa más.
Aitor O.
Buenas,
Entiendo que cuando se refiere a una Inteligencia Artificial con una capacidad muy superior a la humana, lo hace desde un punto de vista de capacidad computacional. No estoy seguro de cómo expresar correctamente la idea pero algo así como una reacción en cadena, un programa (todo lo sofisticado que se quiera pero un algoritmo al fin y al cabo) que por su propio diseño desencadena una serie de decisiones automáticas sin que ninguna intervención humana las pueda detener. Pero en ningún momento se está considerando la posibilidad de una Inteligencia Artificial con conciencia de sí misma, no?
Un saludo,
Juan Ignacio Pérez Iglesias
Hola.
No tengo una respuesta para esa pregunta. En la referencia que he utilizado, si no recuerdo mal, no introduce el elemento de la posible «consciencia» de la IA. Se limita a considerar lo que comento en el texto, y más en concreto, los intereses y valores que se incluyan en la función de recompensa.
Tampoco sé si la introducción de aprendizaje por refuerzo, por sí mismo, implicaría que se la dotase de capacidad para generar consciencia. No creo que sea necesariamente así, pero lo desconozco. Por otro lado, tampoco sabría decir qué conclusiones se derivarían de ello.
Siento no tener mejor respuesta.
Salud.
Pocosé
¿Tan lejos está que un sistema algorítmico, suficientemente inteligente y suficientemente interconectado, en un momento dado analicé la provincia «ienso luego existo»?.
Hagamos un esfuerzo metal por ponernos en su lugar… … …
¡¡Miedo me da!!
Pocosé
Dedazos:
Donde 《analicé》 léase: analice
Donde 《ienso》 léase: Pienso
Pocosé
Y Donde 《provincia》 léase: premisa