doxa.comunicación | 27, pp. 295-315 | 297

julio-diciembre de 2018

Idoia Salazar

ISSN: 1696-019X / e-ISSN: 2386-3978

Remontémonos a 1917, año en el que el checo Joseph Capek escribió el cuento Opilec en el que ya imaginaba a los prime-ros autómatas (López Pellisa, 2013). Tres años después, su hermano Karel Capek escribió la obra teatral de Ciencia Ficción Rossum’s Universal Robots (RUR) en el que se acuñó, por primera vez, el término robot, derivado de la palabra checa ro-bota, que significa siervo o trabajador (Saiz Lorca, 2002). En ella, la empresa que da nombre a la obra construía humanos artificiales de altas capacidades que asumían las grandes cargas de trabajo de sus trabajadores regulares. Aunque habían sido creados con buenas intenciones, finalmente estallaba la revuelta contra los humanos.

El precedente estaba creado, y su aparente factibilidad llevó a otros autores a seguir esta línea en sus relatos de Ciencia Ficción.

En 1950 el escritor y científico ruso Isaac Asimov, utilizó la palabra “Robótica” en su obra Runaround (Asimov, 1942) y co-menzó a hacerse popular a partir de historias breves llamadas I Robot. Su visión, en aquel entonces, preveía las posibles implicaciones éticas de aquellas máquinas que empezaban a tomar forma en la imaginación de los lectores de Asimov. Así, estableció las tres leyes inviolables de la robótica que, hoy día, siguen vigentes en la mente de los científicos que los desarrollan:

Un robot no puede dañar a un ser humano ni, por inacción, permitir que un ser humano sufra daño.

Un robot debe cumplir las órdenes de los seres humanos, excepto si dichas órdenes entran en conflicto con la Primera Ley.

Un robot debe proteger su propia existencia en la medida en que ello no entre en conflicto con la Primera o la Segunda Ley.

Con el tiempo, y al introducir en sus relatos robots cada vez más evolucionados, Asimov completó sus tres leyes con una “Ley Cero”, que viene a ser una generalización -o más bien un salto cualitativo- de la Primera Ley, puesto que dice que un robot no puede dañar a la Humanidad ni, por inacción, permitir que la humanidad sufra daño.

Desde entonces, los robots han sido ampliamente representados en la ficción literaria y cinematográfica (González-Jimé-nez, 2018). La saga de Star Wars nos dejó unos amigables R2 D-2 y C-3PO (Kurtz y Lucas, 1977), siempre dispuestos a ayudar a los Jedi. Su director, George Lucas, les dotó de razonamientos, defectos y virtudes que les asemejaba a los humanos, lo cual creaba cierta simpatía ante la masiva audiencia de estas películas.

Terminator, sin embargo, inundó la mente del espectador de razonables dudas sobre si la evolución de los robots y la inteligencia artificial, en general, será favorable para los humanos. Habrá algunos buenos, como el Terminator (Hurd and Cameron (1984), protagonizado por Arnold Schwarzenegger, y otros incluso más evolucionados y dañinos como el cyborg capaz de cambiar de forma. ¿Cómo luchar contra esto? Esta saga nos presenta un predecible holocausto por dotar de “de-masiada inteligencia” a las máquinas. Un dilema más en el que pensar al salir del cine.

Yo robot, inspirado en el libro de Asimov del mismo título (Asimov, 1950) presenta al robot Sonny. La película está ambienta en el año 2035, una época en la que la inteligencia artificial, y todo lo que conlleva, ya forma parte de la realidad cotidiana de la vida en la Tierra. El detective Spooner (Will Smith), que odia a los robots –aunque él mismo reconoce tener implantes robóticos en sus articulaciones, es el encargado de investigar el posible asesinato de un científico a manos de un robot –Sonny–. A pesar de las 3 leyes de la robótica implantadas en los cerebros positrónicos de cada robot, parece que Sonny es