Inicio » Hay que impedir que los robots tomen el mando de la guerra

Hay que impedir que los robots tomen el mando de la guerra

Por Luis Miguel Ariza, el 2 de Septiembre de 2015, en Divulgación

Menéalo
Un fotograma de la película 'Chappie'.

Un fotograma de la película ‘Chappie’.

Continuamos la reflexión sobre los robots con licencia para matar, a raíz de la exposición ‘Blue Sky Days’. Luis Miguel Ariza repasa desde su visita al Instituto de Robótica de Pittsburgh a varias películas en las que los robots se rebelan. Por tierra les resulta complicado moverse, pero por el aire ya tienen forma de letales drones. El futuro es impredecible. Podemos ser escépticos sobre sus habilidades para dominar a la Humanidad, pero también hay ya motivos para la inquietud.

Los científicos han lanzado la voz de alarma: hay que impedir que los robots tomen el mando de la guerra. De lo contrario, podríamos encontrar, incluso a corto plazo, robots que se dedicasen a eliminar sistemáticamente a determinadas personas. Figuras como Stephen Hawking o Elon Musk lo rubrican en una carta de advertencia hecha pública en la última conferencia internacional sobre inteligencia artificial celebrada en Buenos Aires, este pasado verano. La carta, respaldada por decenas de expertos en Inteligencia artificial, advierte sobre la preocupante carrera para fabricar armas autónomas capaces de reconocer personas y objetivos sin que detrás exista nadie el mando. ¿Es esto posible?

Hace unos pocos años habría dicho rotundamente que no. Mi decepción con la robótica tiene mucho que ver con lo que he leído y visto en la ciencia ficción.

Quince años atrás tuve la oportunidad de viajar al Instituto de Robótica de Pittsburgh, en Estados Unidos, considerado como uno de los líderes mundiales. Formaba parte de un equipo de TVE para recoger los últimos avances científicos y tecnológicos en una serie llamada 2.Mil que todavía se sigue emitiendo. Cumplí un viejo sueño, mostrar ciencia en la tele, pero la visita, enormemente satisfactoria, resultó ser un chasco monumental.

Los robots que allí conocimos parecían juguetes que se rompían a la menor ocasión. Me acuerdo de Florence, una enfermera robot que nos recibía al final del pasillo. Se trataba de una especie de tonel con cabeza a la que habían implantado ojos y labios para simular sonrisas. Florence tenía una cámara de TV incorporada y un monitor. Era un prototipo y se supone que serviría en el futuro para cuidar a los ancianos. Pero las pilas se le agotaban rápido. Y desde luego no entendía lo que le decíamos. Todo aquello que pronunciaba tenía que programarse con antelación.

Los científicos de Pittsburgh habían inventado a Xavier, un robot autónomo que no era otra cosa que otro tonel con ruedas que se desplazaba por las dependencias del instituto gracias a un mapa que tenía en su memoria. Excepto si se encontraba escaleras. Xavier se paraba para no matarse. Me acuerdo de lo que había leído sobre él, un robot capaz de contar chistes verdes, y de lo que vi poco después: Xavier era un montón de chatarra que se agotaba rápidamente y tenía que ser llevado a rastras por el ingeniero.

Mi sensación es que estábamos adentrándonos en las catacumbas de la robótica. Allí, en Pittsburgh, conocimos a Hans Moravec, uno de los mayores visionarios. Estaba convencido de que en 40 o 50 años, los robots serían tan inteligentes que desplazarían a los humanos. Su evolución sería imparable. “Ha llegado la hora de que nos marchemos”, aseguraba este experto nacido en Austria.

Siempre me han fascinado sus argumentos, aunque con sinceridad, me cuesta creerlos. Moravec dejó el instituto para fundar una compañía de robots industriales con visión tridimensional y desde entonces no he sabido nada de él. Era verano de 1999, Moravec contaba que estaba fascinado por un nuevo buscador en Internet, ya que era el más inteligente y mejor diseñado. Se llamaba Google.

Google es ahora un gigante tecnológico. Como Apple. Tratar de hacer predicciones es siempre un ejercicio arriesgado, y por eso me gusta el cine: es jugar sobre seguro en el terreno de la ficción.

En las películas, los robots suelen volverse contra los humanos. Siempre ha sucedido así. En Almas de Metal, el primer filme dirigido por Michael Crichton, el vaquero Yul Brynner es un robot perfecto que se deja disparar por los turistas que acuden a un parque donde se recrea el Viejo Oeste, turistas muy adinerados que pagan mil dólares diarios.

El pobre Brynner está programado para provocar a los clientes, pero su pistola no es útil contra los humanos por culpa de un sensor de temperatura que la inactiva a la hora de disparar a un cuerpo humano (que está a 36 grados).

El cliente también lleva armas, pero por esa razón no puede matar a otros clientes y sí derribar a las máquinas. El negocio de ese parque (que recrea otros mundos, el medieval y el romano) se va al traste cuando una desconocida epidemia que afecta a las máquinas las desprograma, lo que permite a Brynner matar y perseguir a los turistas mimados.

Es una película bastante original. Nos parece que los robots no han adquirido exactamente lo que podríamos llamar consciencia. Simplemente, cumplen el programa para el que fueron encomendados: los vaqueros-máquina tienen que disparar a los humanos para dar a la escena mayor realismo, aunque sus pistolas no lleguen a hacerlo. Los sistemas de seguridad fallan, y los robots continúan su labor, sin saber que en realidad están matando con sus balas de verdad a seres reales.

De la misma manera, las chicas del reino medieval y prostitutas del Oeste se acuestan con los clientes al estar programadas para ello. Pero esa extraña epidemia que se va apoderando del parque cambia su comportamiento. En una escena, una de las chicas jóvenes abofetea a un turista que está haciendo el papel de un rey en el Medievo con licencia para cualquier cosa, negándole el deseo.

No sabemos si detrás de todo esto se encuentra el sutil mensaje de que los robots empiezan a saber quiénes son y qué hacen en realidad, aunque Crichton no lo deja claro en su primera película (seguramente adrede).

Hay un capítulo curioso en la serie original de Star Trek, anterior a la época de Almas de Metal, en el que el capitán Kirk tiene que probar una máquina de última generación capaz de maniobrar y dirigir una nave estelar.

El objetivo de esa informática del siglo XXI es sustituir a los capitanes y las decisiones humanas por ordenadores de última generación. Pero la máquina confunde un simulacro con una guerra real y destruye varias naves, matando a miles de personas. No quiere soltar los mandos, pero la estrategia de Kirk consiste en explicarle que ha violado una de las máximas de la ley robótica de Isaac Asimov, en el sentido de que una máquina no puede matar seres humanos (algo de lo que hablamos hace meses en Planeta Prohibido, el blog que precedió a este).

En el momento en que la máquina lo comprende, decide autodestruirse. No sólo es consciente, sino que posee conciencia.

La historia de Terminator sigue un esquema parecido, con el añadido de que las máquinas no tienen remordimientos, ni moral, y bastantes dosis de mala uva. Skynet es un superordenador que adquiere consciencia. Y como los humanos han confiado en él para que controle los silos y los misiles nucleares, se quedan aterrados ante el hecho y tratan de desconectarlo. Pero la máquina reacciona y desencadena una guerra nuclear para librarse de la humanidad, ya que la percibe como amenaza.

La película original y las secuelas, junto con la serie de televisión auspiciada por James Cameron, no hacen sino recordarnos lo peligrosas que pueden ser las máquinas si dejamos que piensen y tomen decisiones por sí mismas. Es una idea intuitiva, fácil de entender, pero la pregunta que deberíamos de formularnos es si es correcta o no.

En una ocasión, conversando con el físico y prestigioso divulgador científico Michio Kaku, me comentó que había estado probando un coche robot capaz de conducir por sí solo. Le pregunté si había pasado miedo y se rio. Por lo visto, el camino estaba despejado. Mi impresión es que Kaku, que cree a ciegas en la vanguardia de las tecnologías, no las tenía todas consigo.

¿Estaríamos dispuestos a dejar que en el futuro nuestros coches conduzcan por sí mismos, llevando a la familia de la ciudad a la playa?

El científico Sebastian Thrun cree que los sistemas automáticos de navegación implantados en los coches podrían salvar al año un millón de vidas, según un artículo de The Economist. Bien, no pongo en duda esas cifras, pero no sé si estamos preparados para soltar los controles de las máquinas.

De la misma forma, suele argumentarse que muchas causas que hay detrás de los desastres aéreos se deben a decisiones y errores humanos. Las películas en las que mueren los pilotos y es algún pasajero el que tiene que intentar aterrizar el avión crean un nivel de tensión bastante efectivo, pero lo cierto es que, en principio, los aviones más modernos serían capaces de aterrizar por sí solos, sin ayuda humana, gracias a sus ordenadores y cerebros informáticos (con lo que se quitaría toda la sustancia al argumento). Y pese a ello, preferimos que un humano de carne y hueso esté a los mandos.

Los robots son muy hábiles a la hora de volar. Su uso en las guerras está creciendo. Los drones se están utilizando masivamente en la lucha contra los terroristas, pero lo cierto es que no son completamente autónomos: detrás de cada uno siempre hay un piloto que los teledirige a miles de kilómetros.

Ahora, el peligro, advierten los científicos, es la fabricación de drones voladores que ejecuten sus programas de forma automática, sin que haya nadie detrás. Cumplirían su programa para reconocer y eliminar objetivos sin intervención humana.

La Casa Blanca argumenta que estas máquinas están demostrando su éxito a la hora de eliminar a los líderes terroristas, pero no es menos cierto que estos robots también han acabado con la vida de muchos civiles inocentes, aunque en principio esa no sea la intención de quienes los dirigen. Queda la duda: ¿habría menos víctimas civiles si estos aparatos pudieran tomar decisiones por sí mismos, dentro de su programación para eliminar terroristas? O dicho de otra forma, no sin ironía: ¿Es mejor que nos mate una persona o una máquina?

Algunos analistas defienden el papel que desempeñarán los robots en los futuros conflictos bélicos. Argumentan que los futuros soldados robotizados no se dedicarían a matar niños en las aldeas ni a violar a las mujeres, o quemar las casas, tal y como hacen tristemente sus homólogos humanos.

No vemos a los robots aún en las calles. Aún. Es previsible que en esta sociedad repleta de teléfonos inteligentes e interconectada los objetos cotidianos se hagan inteligentes. Imagino chips en las paredes y en las fuentes, suelos que dan luz, mesas que cargan los móviles sin enchufes, edificios cuyas estructuras colectan energía.

Pero me cuesta colocar a robots como entidades independientes y autónomas maniobrando con asombrosa facilidad entre la jungla de asfalto, las calles, evitando semáforos, reaccionando con agilidad ante los imprevistos, subiendo o bajando escaleras, saltando vallas, escurriéndose por los túneles o persiguiendo delincuentes a la carrera.

O, en un plano doméstico, robots capaces de limpiar los platos y colocarlos en un lavavajillas, planchar, doblar y colocar la ropa en los cajones, enfermeras robots haciéndose cargo de los pacientes de un hospital geriátrico, o cambiando los pañales a un bebé (aunque es cierto que ya se venden robots aspiradores, abrillantadores, que friegan suelos y cortan el césped, que recorren las superficies y evitan obstáculos).

El camino que le queda a la inteligencia artificial todavía es muy largo. Incluso los llamados chatbots inteligentes, que son programas de inteligencia artificial aplicado al lenguaje humano capaces de mantener conversaciones con humanos, no son lo suficientemente inteligentes. Yo he probado algunos de ellos y se nota que sus repuestas están programadas. Permítanme ser escéptico ante los anuncios que afirman que algunos de estos programas han pasado el test de Alan Turing, el matemático inglés que lo propuso para calibrar la inteligencia de una máquina que conversa con una persona que no sabe que se trata de una máquina. No niego que los programas son cada vez mejores, pero no me lo trago.

El espacio en tres dimensiones sigue siendo nuestro reino. Y la idea de que unas máquinas serán capaces de rebelarse contra los humanos hasta el punto de dominarnos en nuestro propio espacio no se corresponde en absoluto con los progresos que vemos en la robótica actual.

Los robots son increíblemente torpes a la hora de moverse con una libertad similar a la de cualquier persona de este mundo, por más patosa que sea. Es posible que durante este siglo consigan este grado de libertad, pero ocurrirá primero en el aire, no en tierra.Ya dominan el espacio aéreo de una manera que no imaginaba hace 10 o 15 años, los drones voladores. Pero el problema no son los robots, sino los seres humanos que los construyen. Seguimos conservando ese instinto genético que nos predispone para la guerra y la violencia. Y no nos queda otra que vivir con ello.

Menéalo

Comentarios

Hay 2 comentarios

  • 03.09.2015
    Paloma Ctrl dice:

    Lo malo, es quela realidad, en éste caso, supera la ficción…

  • 03.09.2015
    Francisco Salgado dice:

    Hoy en día existen programas de inteligencia artificial para la detección del fraude, detección de rostros y el análisis de comportamientos extraños o anómalos.

    Actualmente están empezando a ser usados en combinación con cámaras de tv para el análisis del comportamiento de personas en aeropuertos y otros edificios o calles públicas.

    Por ahora solo tienen la capacidad de establecer una alerta a un operador que revisa si es un falso positivo o tiene que dar la alarma.
    La detección de rostros, a día de hoy es de tal precisión que tienen un error de menos del 7% ( el ser humano tiene un error del 12%).

    La detección de eventos raros o comportamientos anómalos, usando lo que se conoce como “deep learning” es tanto o más preciso que la detección de caras, y un ordenador on una tarjeta GPU de última generación y su correspondiente programa de AI es capaz de realizar esa operación, y puede ser usada tanto en unos grandes almacenes para detección de clientes cleptómanos, como en un aeropuerto para detectar al supuesto terrorista antes de que se inmole por una causa de su elección.

    Tan solo falta que alguien idee e instale un sistema que añada el control de un arma automática que permita el disparo automatizado al objetivo detectado para hacer un robocop virtual ( sin patas y solo ojos y arma) que se cargue al que la AI decida que es una amenaza a la seguridad del edificio vigilado.
    Hoy en día tenemos ya la capacidad técnica para automatizar ese tipo de sistemas. Lo que los movimientos sociales deben tener como objetivo es crear la legislación para prohibirlos antes de que sean una realidad.

Deja tu comentario