Durante los tres primeros días del pasado mes de septiembre se celebró en Birmingham (Reino Unido) TAROS 14, un encuentro de especialistas en robótica. Más concretamente, quienes se dieron cita en el encuentro investigan o están interesados en sistemas robóticos autónomos (de ahí TAROS: Towards Autonomous Robotic Systems). Es un campo muy activo, pues las previsiones para los próximos años contemplan la incorporación de robots a tareas diversas en distintas esferas de nuestras vidas. Los habrá que cuiden de enfermos o de personas mayores; otros serán responsables de nuestra seguridad; la prescripción de ciertos medicamentos será también tarea de robots. Y seguramente ahora no podemos ni imaginar algunas actividades que llegarán a serles asignadas.
En uno de los estudios presentados en TAROS 14 los investigadores programaron un robot cuya tarea consistía en tratar de evitar que otro robot cayese por un agujero. El otro autómata representaba a un ser humano, y se trataba de someter a prueba, de forma un tanto simple, la primera ley de la robótica de Asimov, esa que establece que un robot no debe permitir que un ser humano sufra algún daño. Al principio el robot lo hacía bien; conforme el “ser humano” se aproximaba al agujero el robot lo apartaba del camino, evitando de esa forma que cayese. Los problemas empezaron cuando los investigadores introdujeron un segundo “ser humano” en escena. Al acercarse al agujero los dos autómatas que representaban a seres humanos a la vez, el robot se veía obligado a elegir. En algunas ocasiones se las arregló para salvar a uno, mientras el otro se precipitaba al agujero, e incluso, en algún caso llegó a salvar a los dos. Pero en 14 pruebas de las 33 que pusieron en práctica, los dos autómatas que representaban a personas cayeron al agujero. El robot utilizó demasiado tiempo para examinar la situación y tomar una decisión.
El investigador que presentó los resultados de este estudio en Birmingham se refirió a su robot como un zombi ético, ya que no tiene opción de comportarse de forma diferente a como lo hizo. Gracias al código de conducta con el que se le había dotado puede salvar a otros, pero desconoce el razonamiento que subyace a sus actuaciones. No es cuestión baladí y puede tener, además, importantes implicaciones en un futuro mucho más próximo del que imaginamos. Pensemos, por ejemplo, en los automóviles sin conductor que se están diseñando. Podría darse el caso de que el sistema robótico del vehículo tenga que optar entre garantizar la seguridad de sus pasajeros o la de peatones o conductores de otros vehículos. Y no parece nada fácil programar a esos sistemas para que desempeñen bien su tarea.
El anterior es sólo un ejemplo de las disyuntivas a que se podrán enfrentar o los dilemas morales que se les podrán presentar a los autómatas en un futuro no demasiado lejano. Y el aspecto ético no es el único al que prestar atención. Algunos robots serán cada vez más antropomorfos, y sus habilidades cognitivas y comunicativas alcanzarán un alto grado de sofisticación. No sabemos qué nivel de humanización llegarán a tener. De hecho, el Roy Batty y sus compañeros replicantes Nexus-6 de la película Blade runner no tienen por qué ser una quimera. Aquéllos carecían de empatía, pero dotar a los robots de algo similar a ciertas emociones muy básicas quizás llegue a ser posible y acabe resultando necesario para que puedan desempeñar determinadas funciones.
¿Ciencia ficción? Quizás pero, por si acaso, deberíamos reflexionar sobre todo esto, porque la tecnología nos proporcionará sujetos artificiales acerca de los cuales deberemos tomar importantes decisiones.
Sobre el autor: Juan Ignacio Pérez (@Uhandrea) es catedrático de Fisiología y coordinador de la Cátedra de Cultura Científica de la UPV/EHU
——————————–
Este artículo fue publicado el 28/9/14 en la sección con_ciencia del diario Deia
Diego
La más genuina ciencia-ficción es justamente esto.
azahara
Interesante artículo. Un robot programado para salvar a otro robot de accidentarse. Problema: Incluir un tercero. El «salvador» utiliza demasiado tiempo para resolver «a quién». El problema(supuestamente ético) surge porque no se le ha programado para establecer prioridades. Así en muchos de los casos en los que se le pone a prueba, los dos robots a salvar, se precipitan al vacío. Y digo yo que, igual si a «super robot» se le programa una serie de secuencias prioritarias, sería capaz de salvar con seguridad a uno de los que van a caer al vacío de forma casi segura.
Pero entonces surgen otros problemas que se centran más bien en el programador y no en el robot¿a quién decide salvar el que programa? ui ui ui…