Sé que usted y Frank planeaban desconectarme, y me temo que eso es algo que no puedo permitir
HAL 9000
El miedo a la inteligencia artificial ha planteado magníficos dilemas morales en la literatura y el cine. El amor-odio a la inteligencia artificial en forma de androide surge de su capacidad de experimentar emociones, de tener conciencia. Desde “Metropolis” a “Blade Runner” el cine ha planteado estos dilemas, y el pasado año dos producciones: la película “Ex machina” y la serie “Humans” le han dado una vuelta de tuerca más a la cuestión.
Un futuro en el que robots y humanos puedan amarse y tener sexo, ¿puede el humano amar a un androide como a una persona real? El amor es un sentimiento pero ¿es una máquina capaz de poder sentirlo? Ahí está uno de los puntos clave de toda la premisa argumental de “Ex machina”. Y lo más peligroso, ¿puede despertar Ava, el seductor robot interpretado por Alicia Vikander, el amor en un humano?
La historia planteada por el director Alex Garland arranca con la invitación de Nathan (Oscar Isaac), excéntrico presidente de la poderosa compañía Bluebook, a Caleb (Domhnall Gleeson), un programador de la empresa, con el fin de realizar la prueba de Turing a un androide con inteligencia artificial, Ava, para comprobar si puede tener un comportamiento indistinguible al de un humano. La cuestión se volverá más enrevesada ¿tiene Ava inteligencia y conciencia o simula tenerla?
Las emociones se han convertido en una de las cuestiones clave cuando hablamos de inteligencia artificial, en el cine han dado mucho juego en películas como “El hombre bicentenario” de Chris Columbus o “Inteligencia Artificial” de Steven Spielberg. Pero si atendemos a Marvin Minsky, cofundador del Laboratorio de Inteligencia Artificial del MIT: las emociones no son más que una forma concreta de resolver problemas, es una reacción muy primitiva, un ratón puede tener emociones más fuertes que una persona, pero no es inteligente. Incluir emociones en una máquina no resolvería nada.
Claro que una inteligencia artificial carente de emociones plantea el problema de la singularidad, el momento en el que la inteligencia artificial es superior a la inteligencia humana, entonces ¿cuál sería la reacción de la máquina ante el ser humano?
La singularidad genera el miedo, planteado en toneladas de películas del género, como la reciente “Trascendence”, o en la saga “Terminator”. En un mundo controlado por las máquinas puede que el ser humano esté abocado a la extinción, sea un elemento inútil.
¿Conseguiríamos crear un mundo de armonía entre humanos e inteligencia artificial? ¿Contar con androides dotados de inteligencia artificial sería una mejora para la humanidad o suponen una amenaza?
Bill Gates estaría del lado de los preocupados: Inicialmente, las máquinas harán un montón de trabajo para nosotros y no serán súper inteligentes. Eso debería ser positivo si lo gestionamos bien. Unas décadas después de eso, la inteligencia artificial será lo suficientemente fuerte como para ser una preocupación. También Stephen Hawking: El desarrollo de la inteligencia artificial completo podría significar el fin de la raza humana. Despegará por sí misma y se re-diseñará a un ritmo cada vez mayor. Los seres humanos, que estamos limitados por una evolución biológica lenta, no podremos competir, y seremos reemplazados. Y Steve Wozniak , cofundador de Apple: Estoy de acuerdo en que el futuro es aterrador y muy malo para los humanos. Si construimos estos dispositivos para cuidar de todo por nosotros, con el tiempo van a pensar más rápido que nosotros y van a deshacerse de los seres humanos lentos para ejecutar las empresas de manera más eficiente. ¿Vamos a ser los dioses? ¿Seremos las mascotas de la familia? ¿O vamos a ser hormigas que terminan aplastadas? No lo sé.
Para Marvin Minsky el mundo ya está controlado por las máquinas, nunca estuvo controlado por el ser humano, sino por gente, por individuos concretos. Para Minsky da más miedo que Hitler pueda conseguir el control que una máquina.
Las Tres Leyes de la Robótica de Isaac Asimov son una pieza esencial a la hora de abordar el tema de la inteligencia artificial, en la primera se establece que un robot no debe dañar a un ser humano o, por inacción, permitir que un ser humano sufra daño. Pero claro, podrían crearse androides que no estuvieran sujetos a estas leyes, de hecho el propio Asimov lo plantea en “Yo robot”. Tanto en “Ex machina” como en “Humans” es lo que ocurre.
En “Ex machina” ni siquiera hay un interruptor de apagado y para Alex Garland hay varias razones para ello, las mismas por las que no se observan las leyes de la robótica de Asimov. Tiene que ver con el libre albedrío en algunos aspectos. La idea de Nathan es crear unas sucesiones de inteligencia artificial, máquinas sensibles, cada una de ellas más sofisticada y eficaz, más refinada y mejor que la anterior. Una de estas máquinas va a ser más astuta que él, y el creador sabe que, cuando suceda, será una mala noticia, pero lo está haciendo igual, porque es algo que siente como inevitable, una especie de interés por analizar la situación evolutiva en algunos aspectos. Por lo tanto, un interruptor o las leyes de la robótica podrían tener un efecto protector en el que no está realmente interesado.
Siempre nos podríamos encontrar con un Nathan, el creador de Ava, la penúltima variante del Dr. Frankenstein.
Hasta qué punto estamos cerca de ese día en el que la genuina amenaza de la inteligencia artificial se haga realidad. La serie “Humans” se ambienta en un futuro cercano, un universo muy parecido al nuestro, lo que la hace inquietante. En “Ex machina” se explica cómo se ha llegado a construir inteligencia artificial, algo que no es lo habitual en las películas del género. La clave estaría en la utilización de los mega data. Como propietario de la empresa de Internet más importante del mundo, Nathan conoce los hábitos de búsqueda de sus clientes hasta el detalle más íntimo y es capaz de utilizar esos datos para construir una inteligencia artificial que imite los procesos de pensamiento humano. Dos amenazas del mundo actual se unen para concebir al “monstruo”. El “software” de Ava es el motor de búsqueda de Nathan: ella, por tanto, es un agregado de todos nosotros, o al menos las partes de nosotros mismos que se muestra en nuestras búsquedas en Internet o nuestros perfiles de las redes sociales. Ava es potencialmente más peligrosa porque conoce los secretos de Caleb, sus gustos, sus prioridades, sus deseos más íntimos, todo está en los datos que maneja Nathan. Androides que nos conocen “personalmente”, que pueden hacer que nos enamoremos de ellos. Un tema planteado también en la película de 2014 “Her” de Spike Jonze.
El universo cercano de “Humans” nos deja otras sensaciones inquietantes. Basada en la galardonada serie sueca “Real Humans”, la serie explora el impacto emocional que se crea al difuminar la línea entre los humanos y las máquinas. Partiendo de la idea de “Yo robot” de Asimov, casi todas las familias poseen un Synth, un sirviente artificialmente inteligente, altamente desarrollado, de apariencia similar a la humana y que además cumplen las tres leyes de la robótica.
Una utopía que tiene interesantes rasgos de distopía. La hija adolescente de la familia humana protagonista es rebelde porque no ve un futuro para sí misma. ¿Qué sentido tiene estudiar medicina si un robot será mejor a la hora de operar? ¿Para qué esforzarse cuando la solución está en comprar máquinas inteligentes? En definitiva, si el ser humano ya no necesita trabajar, qué función puede cumplir, si es que tiene sitio en este nuevo esquema social.
Cuando aparecen androides “especiales” que no cumplen las leyes de Asimov, y que poseen o parecen poseer conciencia y sentimientos, van surgiendo cada vez más cuestiones morales y sociales: ¿Puede un androide ser indistinguible de un ser humano? ¿Es aceptable moralmente, socialmente, que pueda haber una pareja formada por humano y androide? ¿Corre peligro la humanidad si permitimos que seres más inteligentes y fuertes que nosotros anden por ahí sueltos? ¿Se puede decir que un androide consciente está vivo? ¿Tiene derechos? Las preguntas son casi infinitas. Las respuestas posibles son la trama de “Humans”.
¿Cómo de cerca estamos de un mundo a compartir con androides inteligentes?
IBM Watson es un sistema informático de inteligencia artificial diseñado para realizar labores de computación cognitiva, entre ellas el procesamiento de lenguajes naturales, el razonamiento y el aprendizaje automático. Según la compañía, Watson “procesa la información más como un humano que como una máquina” y, junto a otras máquinas inteligentes, “provocará el mayor cambio derivado de las tecnologías de la información hasta la fecha”. El gran público tuvo noticias de este superordenador por primera vez en enero de 2011, cuando fue presentado en el concurso de televisión ‘Jeopardy!’ ganando a los dos mejores concursantes de la historia del programa. Desde entonces ha aumentado su velocidad en un 2400% y reducido su tamaño un 90%. Watson puede acceder a cualquier información escrita o hablada en el lenguaje natural de los seres humanos.
La combinación de la inteligencia artificial con la forma humana también va ganando terreno. El consorcio japonés Toyota prevé crear una nueva compañía en Silicon Valley que se ocupará de investigar la inteligencia artificial, la encabezará uno de los investigadores más famosos en el ámbito de la robótica, Gill Pratt. La idea es desarrollar robots y sistemas autónomos que faciliten la vida a las personas mayores, así como también a personas con problemas de movilidad. El proyecto se llama Toyota Partner Robots.
Por el momento todo son elucubraciones, ciencia-ficción, pero en algún momento
puede que no tan lejano, quizás debamos compartir nuestro mundo con inteligencias artificiales. Dos reflexiones más, las de “Ex machina” y “Humans” se suman a la larga lista sobre el tema, y son muy recomendables para comenzar a pensar en el tema.