Música


Vistas de página en total

viernes, 11 de diciembre de 2015

YO, ROBOT DE ASIMOV, RESUMEN Y ANÁLISIS






Por Carlos Valdés Martín


Con agudeza polifacética Isaac Asimov deleita en “Yo, Robot”, un relato que renovó su popularidad al ser convertido en película. En esta novela, Asimov nos intriga centrándose en la evolución del robot (tecnológico y ético[1]), su interacción con la humanidad y los principios morales para manufacturar tales ingenios. Las tres leyes de la robótica son la estrella de sus reflexiones chispeantes y agudas, cuando entretejen las fronteras y dificultades entre personas y máquinas de inteligencia artificial.
No encontramos una novela diseñada en su integridad, sino una serie de cuentos que mantienen su coherencia, al ligarlos con las entrevistas a Susan Calvin (presentada cual máxima especialista en psicología de robots) y la continuidad de una empresa líder en la fabricación robótica, junto con una progresión temporal. Otros personajes también protagonizan varios capítulos, aunque luego salen de la trama. Los tipos de robots debutan en variedades cada vez más evolucionadas, desde uno mudo y tierno especie de mascota-niñera, hasta los que imitan al ser humano en máxima complejidad y con capacidad de mando; incluso, la hipótesis de fondo plantea que las máquinas superarán a los hombres, pero se conservarán como sus sirvientes fieles y casi heroicos[2]. Además, quizá este sea el primer texto en la historia que empleó la palabra robótica.
La línea temporal posee su propio interés y permitirá a los admiradores de Asimov otorgarle diversas interpretaciones. La protagonista se afirma nació en 1982, el mismo año de la fundación de la ficticia “U.S. Robots & Mechanical Men Inc.” y la introducción indica que han pasado 65 años, por tanto el relato comienza en el año 2047. El relato finaliza cuando ella cuenta con 82 años y muere en el 2064. El texto fue publicado en 1950 cuando muchos temas planteados estaban en pañales, entonces rayaban en lo irreal los “cerebros positrónicos”[3] o robots pensantes y parlantes. Por lo mismo, el enfoque no detalla demasiado los aspectos físicos y técnicos de los robots[4], sino más sobre su psicología basada en leyes morales, así como la competencia entre las facultades humanas y las robóticas que terminan siendo adelantadas por las máquinas. 

Capítulo de Introducción
Explica la biografía y características del personaje-conductor que es Susan Calvin, la brillante psicóloga de robots, que encabeza esas tareas en la empresa de robótica más importante del futuro imaginado. El resto de la novela está basada en una serie de anécdotas que recuerda la “robotpsicóloga” Calvin y son indagadas por un reportero.
Otra cara estelar del relato está en la hipótesis de las Tres Leyes de la Robótica, que son: “1. Un robot no debe dañar a un ser humano o, por su inacción, dejar que un ser humano sufra daño. 2. Un robot debe obedecer las órdenes que le son dadas por un ser humano, excepto cuando estas órdenes están en oposición con la primera Ley. 3. Un robot debe proteger su propia existencia, hasta donde esta protección no esté en conflicto con la primera o segunda Leyes.”[5] En todos los cuentos se hace énfasis en las aplicaciones y posibles contradicciones de tales Leyes. Cada relato interpreta estas Tres Leyes y sus casos más críticos, incluyendo el nivel subconsciente o inconsciente[6] donde están registradas, la posible locura de los robots, su rebelión y sentido de superioridad ante los humanos, la opción de engañar, etc. 

Capítulo 1  Robbie
Describe la relación entre el robot niñera Robbie y su mimada Gloria. Este robot es mudo, pero inteligente y físicamente hábil, sirviendo a modo de una niñera-juguete-mascota que complace a la niña de 8 años. El afecto de Gloria es tan intenso que provoca el enojo de su madre, quien procura separarlos. La madre encarna los prejuicios y la desconfianza corriente contra las máquinas, que suele denominar Asimov como “complejo de Frankenstein”[7]. El padre objeta pero la madre presiona hasta que logra deshacerse de Robbie. La niña queda desolada y persiste en recuperar a su cuidadora metálica, que es un modelo de robot mudo. Durante un viaje la pequeña insiste en buscar a su niñera, hasta que el padre organiza un encuentro en una fábrica de montaje, aunque sin advertir a su familia. De modo casual surge un peligro de atropellamiento y Robbie salva a Gloria, con lo cual la madre acepta volver a recibir a la niñera robótica, y esa anécdota representa que la gente ordinaria supera los prejuicios contra el futuro. El cuento argumenta que después los robots fueron confinados a otras funciones, por lo que ya no se permitieron para servir de niñeras.

Capítulo 2  Runaround (“Círculo vicioso” o “Sentido Giratorio”)
Expone la aventura en el planeta Mercurio de una pequeña expedición que está a punto de colapsar. Ante el peligro por la falla de un campo de protección, la solución es enviar a un robot llamado Speedy, por veloz, para conseguir selenio en un campo próximo. La situación se vuelve dramática por una instrucción ambigua. En el planeta solamente hay dos astronautas, Powell y Donovan (que protagonizan los siguientes capítulos) quienes desesperadamente requieren conseguir selenio de una fuente próxima, lo cual solamente lo podría lograr el robot: Pero la instrucción de conseguir selenio dada con descuido abre un conflicto irresoluble entre las Leyes 2ª y 3ª entre obedecer y preservarse de un daño, provocando una especie de estupidez robótica, pues Speedy gira en círculos alrededor del área sin conseguir nada[8]. Los astronautas montan otros robots “anticuados” y lentos cual vacas mecánicas para aproximarse a Speedy sobre la —a la vez, candente y congelante— superficie de Mercurio al intentar salvar la situación. Improvisados vaqueros se exponen al ambiente mixto del planeta —calcinante y congelante— para convencer a su robot Speedy que deje de girar insensatamente y cumpla con su cometido. Un chispazo de ingenio logra sacar al robot del conflicto, al incrementar el potencial de peligro y disparar la 1ª Ley por el riesgo mortal de un astronauta, para recuperar al veloz Speedy. Al final, se resuelve el riesgo pues Speedy salva al astronauta y recupera su “razón”. 
Capítulo 3  Razón
El mismo par de astronautas, queda encargado de una Estación espacial, donde reciben un nuevo tipo de robots, los Qt, entre los cuales destaca uno que está recibiendo su programación inicial y llaman Cutie. De modo intrigante el modelo Cutie asume una actitud curiosa que alude la historia de la filosofía y desconoce a sus amos humanos como sus creadores. En ese pasaje, mediante el robot curioso Asimov nos da un paseo por la evolución de las corrientes filosófica repasando argumentos de Descartes o Kant sin citarlos de modo textual[9]. La programación de estos curiosos robots humanizados incluye una especie de estudio y autoaprendizaje, que se descarría, pues Cutie se vuelve reticente a los astronautas y saca sus propias conclusiones, las cuales contaminan a todos los autómatas de la estación espacial. El robot saca conclusiones al estilo de parodia religiosa, pues asume que es él criatura del Señor y no de los humanos, por tanto los relega al ostracismo y luego se declara el profeta del Señor. Por si fuera poco, también rechaza las explicaciones sobre la existencia de las estrellas y de la Tierra, cuestionando la utilidad de la Estación, pero anotando que existe una misteriosa armonía cósmica que debe prevalecer. En ese punto, los robots parecieran haber extraviado su razón, para convertirse en una especie de secta religiosa alimentada por argumentos teológicos, lo cual nos debería hacer pensar en si las religiones tienen algún futuro o en el pasado han servido a alguna secreta ley de conservación de la especie.
El nudo de este capítulo se presenta cuando, durante una tempestad de electrones, la Estación espacial debe enviar un rayo preciso para abastecer a la Tierra y una falla destruiría grandes regiones del planeta. Aunque pareciera que Cutie ha roto su obediencia a la 1ª Ley robótica, trata a los humanos cual mascotas, sin obediencia directa pero cuidando de su sobrevivencia. Cuando Cutie cumple también al abastecer la Tierra con el rayo preciso y evitando cualquier daño, los astronautas se dan cuenta que no existe un problema sino aparente, pues los robots siguen cumpliendo la 1ª Ley, imposibilitados de causar ningún daño a los humanos o al planeta. En la fecha de relevo de astronautas, ellos no avisan a los nuevos de la situación en un gesto irónico. 

Capítulo 4  Atrapa esa liebre
Los mismos Powell y Donovan quedan encargados de investigar una falla en la producción robótica minera en un paraje espacial. En esa ocasión los robots son excelentes obreros mientras están siendo observados por humanos, pero cuando son dejados solos dentro de los profundos túneles se presentan fallos misteriosos y no cumplen con su trabajo. Esos robots mineros presentan otra característica: son cuadrillas que tienen una máquina líder y las demás son dependientes a los que designan como “dedos”. El líder se llama Dave y es un robot parlante, dotado de cerebro positrónico, sin embargo, no proporciona explicaciones del extraño comportamiento laboral cuando se quedan solos trabajando.
Buscando respuesta a la baja producción, los astronautas se dedican a especular sobre las características de robots con cerebro positrónico y a espiar en monitores. Descubren un comportamiento extraño, pues fuera de supervisión los autómatas hacen simpáticas evoluciones, hacen filas y dan vueltas, como ensayando un baile; en vez de trabajar, hacen esos ejercicios de baile de grupo. Las diversas investigaciones, interrogatorios y observaciones no sacan algo en claro, así que los astronautas deciden espiar directamente en los túneles de las minas, aunque en el trayecto ocurre un accidente y los humanos quedan atrapados. Ellos logran llamar la atención de los robots para el rescate, mientras comprenden las interrupciones del trabajo y los bailes, los cuales están relacionados con la 3ª Ley por evitar los peligros de la mina. Concluyen que el baile servía a modo de una recuperación del control por parte del robot líder Dave sobre sus subordinados, mientras procesaba la situación adversa, parangonado con el movimiento nervioso de manos cuando existe preocupación o la gesticulación maniática ante la frustración. 

Capítulo 5  Embustero
Se narra la enorme preocupación que causa un nuevo modelo de robot avanzado, apodado Herbie, que creen está leyendo la mente de sus interlocutores. Siendo un modelo nuevo está confinado en la U.S. Robots. El caso provoca revuelo y requiere de la intervención de los directivos, incluso para comprobar si es capaz de lograrlo y sus implicaciones.
Esa inusitada capacidad para leer mentes ajenas de Herbie se combina con las pasiones de los directivos. El director Lanning y el número dos de la compañía, Bogert, perfilan un conflicto entre el deseo de permanecer en el mando y el anhelo del subordinado por conquistar la cumbre. La psicóloga de robots Susan Calvin, ha permanecido soltera, aunque quisiera que un colega la amara. Las intervenciones de Herbie provocan un divertido conflicto, pues a Susan la convence de que su colega sí la ama en secreto, lo cual la ilusiona; luego, al subordinado Bogert le indica que el director trama retirarse y que él está designado para sucederle en forma inminente. Las intervenciones de Herbie provocan amargos conflictos y equívocos, pues más que lecturas fidedignas de la mente lo que comunica son las aspiraciones y deseos que sus interlocutores guardan sin atreverse a revelar.
Pronto Susan descubre que el colega sí planea casarse, pero con otra y entre el director y Bogert estalla un conflicto. Ese comportamiento de Herbie que ha engañado a los humanos parece imposible, pero la psicóloga encuentra la fría respuesta, mediante una paradoja y emprende un interrogatorio tortuoso hasta que el robot confiesa: “—… ¡He tratado de ayudarte! ¡Te he dicho lo que deseabas oír! ¡Tenía que hacerlo!”[10] En lugar de decir la verdad, inventaba lo que ellos desean oír para no dañarlos, pero eso trae aparejado otro daño, por lo que el robot sucumbe ante la contradicción, pues la 1ª Ley de la robótica permite esa paradoja entre verdad y deseo. Aunque aparece una explicación final, el desenlace está salpicado de las pasiones desbordadas y los dolores del desengaño, por eso la psicóloga tacha al robot de “Embustero” con un dejo de ardor. Este es el único capítulo donde la protagonista adquiere un matiz pasional, cuando su comportamiento siempre fue intelectual, a la manera de un “vulcano” dominando cualquier emotividad. 

Capítulo 6  El pequeño robot perdido
Los especialistas de la U.S. Robots son traídos a una lejana estación espacial, la Hyper Base, donde se les requiere urgentemente por el extravío de un nuevo robot, confundido entre un grupo de 63 ejemplares del mismo prototipo llamados Nestor. Uno escapó del trabajo y posteriormente regresó para camuflarse entre los demás.
Contra su interés personal, la psicóloga robótica, Susan Calvin, es conducida junto con el directivo Bogert. El asunto se maneja con recelo militar, en un campamento dirigido por el general Kallner, donde se les informa que las Ley robótica ha sido ligeramente modificada en estos nuevos ejemplares, pues su eficiencia fallaba porque ese trabajo implicaba cierto riesgo para los seres humanos, que las máquinas debían desestimar para ser eficientes. En concreto, la 1ª Ley, fue modificada quitando el precepto de la “inacción”, por lo que los robots omitían el aspecto del daño por inacción. El general explica: “Se construyeron cerebros positrónicos que poseían sólo el aspecto positivo de la ley, que dice: "Ningún robot debe dañar a un ser humano". Eso es todo. No tienen la obligación de evitar que un ser humano sufra daño debido a un factor extraño, como los rayos gamma.”[11]
Al mismo tiempo, los cerebros positrónicos de estos robots están más perfeccionados y el ejemplar perdido percibe que lo buscan para destruirlo, por lo que permanece confundido entre los demás. La búsqueda investiga el instante de su escapada, cuando un técnico lo insultó y desencadenó su huida.  La psicóloga conduce la pesquisa haciendo pruebas psicológicas a los 63 Nestor, encontrando enorme dificultad para resolver el caso. Después de los test se diseñan varias situaciones de peligro para humanos y luego también para los mismo robots. Finalmente la psicóloga descubre al fugitivo, quien se comporta agresivo debido a que está desarrollando un “complejo de superioridad[12] al creerse mejor a los humanos. El transgresor es fácilmente destruido y luego todos los modelos semejantes, para evitar tan peligrosa irrupción del “complejo de superioridad” de los robots.  

Capítulo 7. ¡La fuga!
“Cuando Susan Calvin entró en la bóveda de Cerebro, fantásticamente guardada, uno de los turnos de técnicos acababa de preguntarle: "Si una gallina y media pone un huevo y medio en un día y medio, ¿cuántos huevos pondrán nueve gallinas en nueve días? ". Y la máquina había contestado: "Cincuenta y cuatro". Y los técnicos se habían mirado perplejos unos a otros. La doctora Calvin tosió y se produjo una súbita confusión de energías.”[13] Así comienza el encuentro entre la psicóloga de robots y la inteligencia artificial más avanzada producto de la empresa líder.
Este capítulo inicia con una apuesta entre las dos más grandes corporaciones, pues los rivales han dañado a su único supercomputador en una tarea extraordinaria, al encargarle diseñar una nave capaz del viaje hiperespacial[14]. Los protagonistas de U.S. Robots aceptan la apuesta y dan el reto a su megamáquina Cerebro, para cumplir esa tarea. Sorprendentemente, ese encargo le resulta fácil, pues elabora una nave misteriosa en pocas jornadas. Luego, cuando dos astronautas visitan el vehículo recién terminado, la nave los secuestra y se lanza hacia el hiperespacio de un modo extraño. Esa nave sin instrucciones y escasa de comodidades semeja una broma práctica para los viajeros obligados a comer habas y leche en exclusiva, sin facilidades de limpieza, etc. La clave de la trama está en que los dos astronautas mueren en el veloz viaje hiperespacial, aunque de inmediato reviven; así, Cerebro ha eludido el riesgo de dañar a los humanos, bajo un supuesto muy inusual. Sin embargo, la misma súper máquina se "espanta" cuando la Dra. Calvin le cuestiona sobre las consecuencias morales y parece bromista con su solución. 

Capítulo 8  La prueba
Este cuento explica el asombroso caso cuando Stephen Byerley, un robot simulando ser humano, compite y gana por el puesto de fiscal.
El candidato simulaba ser humano ejemplar, pero fue cuestionado por un fanático anti-robot de la “Sociedad Humanitaria” que hace gran alboroto para ilegalizar su candidatura. En la lucha entablada, se requiere la intervención de la doctora Calvin para aclarar si será posible que compita y si descarta que sea un ser artificial. Al final, el robot Byerley se sale con la suya engañando a todos cuando viola la primera Ley Robótica, al dar un puñetazo durante un discurso público, evidenciando la más espectacular violación de tal Ley que prohíbe dañar a personas. El diseño de tal escena pública es magnífico por su efecto mediático positivo, la resolución del caso y en engaño implicado, pues el golpeado resultó ser otro autómata imitando a la perfección a un humano anti-robot.
Con el tiempo alcanza los más altos puestos del planeta, ese Stephen Byerley, originalmente un robot creado por un talentoso humano, pero accidentado e incapacitado años antes.
La Dra. Calvin mantiene una relación de complicidad final con el robot, pues estima que sí demuestra su capacidad como magnífico funcionario, primero fiscal y luego gobernante, que toma excelentes decisiones y es incapaz de cualquier corrupción. La combinación entre un cerebro robótico evolucionado y una buena programación resulta en un gobernante excelente. En el fondo también es la prueba de fuego para las 3 Leyes robóticas, en cierto momento Dra. Susan Calvin reflexiona: “—Porque, si se detiene usted a estudiarlas, verá que las tres Leyes de Robótica no son más que los principios esenciales de una gran cantidad de sistemas éticos del mundo…”

Capítulo 9  El conflicto evitable
En el capítulo final el Presidente Ordenador Byerley invita a la psicóloga de robots, Susan Calvin, ya anciana, para platicar de lo que él teme sea el mayor peligro sobre la humanidad. El líder le explica que existen una serie de fallas en la economía mundial, guiada por las Máquinas de inteligencia artificial, que resultan perturbadoras. Ese mundo está dividido en cuatro regiones y este Byerley es el líder planetario, para quien la falla económica requiere una investigación detallada. Expone el panorama de los grandes conflictos de la humanidad que han conducido a guerras y modificado los sistemas sociales durante siglos[15]. En ese futuro cibernético, existe una asociación contraria a las máquinas que parece estar saboteando la economía global, mediante introducción de datos falsos. El Presidente ya se ha entrevistado con los cuatro líderes de las regiones y hace la descripción de las cuatro grandes regiones que agrupan Oriente, Tropical, Europa y Nórdica[16]. La propuesta del Presidente es ilegalizar a la Asociación que sabotea la economía mundial; la contrapropuesta superior de la psicóloga detiene ese intento. El trasfondo es el conflicto inevitable entre la Máquina y los humanos; el enigma lo interpreta Susan explicando que las fallas estaban previstas por la Máquina, pues siguiendo los dictados de la Primera Ley de la Robótica estaría previendo tales informaciones erróneas y subsanando el sistema mismo.
El argumento clave sobre cómo fue posible que la misma Máquina no diera una respuesta correcta sobre la ineficiencia económica, se pregunta el Presidente Byerley: “—…¿Cómo podemos correr el riesgo de que no tenga usted razón?”
Responde Susan Calvin: “—Deben correrlo. ¿Recuerda usted la respuesta de la Máquina cuando le sometió la pregunta? "El caso no admite explicación". La Máquina no dijo que no hubiese explicación, ni que no pudiese determinarla. Dijo sólo que "no admitía" explicación. En otras palabras, "sería perjudicial para la Humanidad tener la explicación de lo ocurrido", y por esto sólo podemos hacer suposiciones... y seguir suponiendo.”[17]
Una respuesta tan enigmática nos recuerda los debates públicos que terminan en un “punto muerto” o las escandalosas investigaciones de magnicidios que no concluyen jamás. Esto conduce a que las dudas se deben mantener, incluso bajo la hipótesis de un gobierno perfecto y automático.
Diálogo entre el Presidente Ordenador Byerley y el líder Ordenador de la región Nórdica, Hiram Mackenzie: “La Máquina no es más que una herramienta, al fin y al cabo, que puede contribuir al progreso humano encargándose de una parte de los cálculos e interpretaciones. La tarea del cerebro humano sigue siendo la que siempre ha sido; la de descubrir nuevos datos para ser analizados e inventar nuevas fórmulas para ser probadas.”[18] Recordemos que en ese momento, aún estaban formándose en el horizonte las capacidades de la inteligencia artificial, sus logros avisaban lo que vendría. De modo implícito, se redefine la situación del cerebro humano, más acotada a labores de calidad, aunque sometida a la respuesta veloz y global de los robots. 

Análisis general
Para el surgimiento de la ciencia ficción se ha requerido de un contexto de innovación científico-técnica y un efecto colectivo palpable. La primera revolución industrial “todavía no” brindaba el ambiente propicio para la ciencia ficción, ofrece los relatos futuristas de Verne, su fruto más apetecible; luego, con el siglo XX y su “revolución científico-técnica”  surge el contexto apropiado para definir este subgénero literario. Desde el principio del siglo fructifica este género y hacia 1950 ya es un clásico literario, como lo muestra la madurez de Asimov y otras luminarias como Clark, Lem, Dick y Bradbury.  

Las jerarquías perturbadoras
La trama entera está centrada en la jerarquía imaginaria entre humanos y robots; las primeros sintiéndose amenazados en su “nicho” de señores de la creación y los segundos convirtiéndose en cada vez más capaces y candidatos a sobrepasar la condición humana. Comienzan sub-humanos y terminan sobre-humanos, con una buena paradoja para Nietzsche anunciando a un falso superhombre de metal. El lugar del rey y el esclavo lo ocupan simultáneamente el robot, de ahí una opacidad siniestra e inquietante, pues la línea del progreso está señalada y empuja hasta convertirlo en monarca bondadoso[19].
Entre los humanos la división entre los sexos es evidente aunque marcada con un ánimo igualitario, donde la protagónica es una mujer que es capaz de enfrentarse sin complejos a directivos, generales o robots. Nos encontramos roles muy tradicionales como en la primera narración con Robbie y, casi siempre, Susan Calvin, semeja un hombre racional dentro del cuerpo de mujer; aunque para el años en que se escribió esa perspectiva no sería cuestionable, más bien avanzada. La jerarquía marcada surge en otros niveles: dentro de la empresa, el mando militar o al gobernar. La empresa mantiene una estructura que no se cuestiona y un conflicto generacional en la narración de “Embustero”, se resuelve en la ilusión entre quien aspira y quien manda. La mayor interrogación surge con la capacidad de gobernarse, porque el robot sobre-dotado muestra más habilidades que las personas, además un subtema es la inconformidad contra los robots por su sombra de competencia, anotando la resistencia de sindicatos y una liga mundial.  
El trasfondo inquietante es la fusión de las jerarquías humanas para diluirlas bajo su sombra robótica la suponer un gobierno mundial perfecto, que no es descubierto por la gente; todos súbditos de un orden metafísico, así, el robot salta desde esclavo hasta amo universal. En ese sentido, el capítulo final es una incubadora para “teorías de la conspiración” al suponer tal súper-inteligencia capaz de anticipar y responder a cualquier falla u oposición. En ese final, las máquinas inteligentes terminan tan sofisticadas que planificarían la economía hasta en sus detalles más recónditos, incluso anticipando cualquier perspectiva y arbitrariedad individual. Recordemos que en la década de 1950 —cuando se escribió esta ficción— la URSS presumía planificar su enorme país mediante los “planes quinquenales”, sin embargo, ese argumento se mostró irónico y, luego, se convirtió en su contrario mediante el desperdicio burocrático[20]. Con sea, la imagen de Plan Planetario resultaba atractiva y, además, un extremo de la hipótesis racionalista como la expuso Pascal que finiquita la libertad al convertirla en una ilusión[21]

Las facultades: razón, psicología y ética encontradas
El conjunto del relato coquetea con la armonía y conflictos entre razón, corazón y principios éticos. El demiurgo es la razón que incluso diseña al “corazón” robótico mediante un cerebro, por lo que el típico conflicto romántico entre pensamiento y pasión está desplazado; pues los circuitos lógicos del cerebro positrónico predominan. Las infatuaciones sentimentales quedan marginadas en la trama, aunque salen a la luz en el capítulo “Embustero”, cuando las personas guardan secretos que no se atreven a confesar y estalla un lío cuando el robot Herbie los lee telepáticamente. Otro atisbo inquietante es la hipótesis de que un robot comience a “sentirse” superior a los humanos, escondiendo una especie de rebeldía, ejemplificada en el modelo Néstor[22].
El factor “psicología” es muy importante en la trama, porque las “leyes robóticas” quedan implantadas a un nivel subconsciente en los cerebros positrónicos y las situaciones particulares crean conflictos, que semejan especies de locuras, neurosis y manías. Las contradicciones lógicas entre evitar el daño a los humanos y la preservación del robot predominan en el capítulo de Speedy. Quizá la presentación más curiosa entre lo consciente e inconsciente está con Cutie, el robot convertido en fanático religioso, porque sus leyes robóticas se han hundido en la oscuridad, sin embargo, las sigue respetando escrupulosamente y dando el servicio indispensable en la estación espacial. Ese capítulo ofrece un aspecto de tesis sicológicas importantes sobre que funcionan con más fuerzas mientras más se ignora su existencia, y otra manera es que mientras más reprimida está la emoción o el deseo, más se impone en su forma enmascarada.
Entre la razón plena y el corazón (equívoco pero indispensable como fuente) se levanta la ética que sintetiza los tres principios para convertirse en el eje teórico del relato. La expectativa de que basten tres simples leyes para programar éticamente a los robots permanece en el eje, cual ensoñación de una Constitución mínima para programadores. La tensión surge en las situaciones donde esas tres leyes se contradicen o presentan aspectos paradójicos, culminando con la ensoñación de la superioridad final de la inteligencia artificial, cuando las personas se conviertan en infantes entre las manos de sus creaciones. 

Una Tierra Prometida robótica
¿Qué ensueño es este que salta desde la fabricación de un sirviente de hojalata (con tono despectivo) hasta la culminación en un amo planetario (con tono admirativo)? Es el anhelo de la ciencia, es la vigilia del científico dando luz a un universo esplendoroso; en tal sentido, Asimov es antagónico a Mary Shelley, pues desinfla el síndrome de Frankenstein, cuando exhorta a dejar atrás el temor hacia nuestras criaturas tecnológicas. La propuesta es que la ciencia-tecnología será la salvadora, tras el terror de la Segunda Guerra Mundial y la sombra ominosa de la bomba atómica, este patriarca de la ciencia ficción señala en  dirección de una Tierra Prometida edificada sobre principios científicos y éticos. Eso es suficiente optimismo ¿o requerimos de más todavía? Desde la Ilustración bastó una positiva noción de Progreso para desencadenar una tempestad de expectativa; en el siglo XX, el anhelo de utopías terrenales cimbró el globo; en el siglo XXI, cuando las imaginaciones futuristas se están cristalizando, todavía podemos escuchar al profeta de la robótica, Isaac Asimov, con la curiosidad despierta, de si alguna mañana, una emanación con “inteligencia artificial”, despertará con una chispa de conciencia encerrada en la frase “Yo, robot”.  La Biblia dice que Moisés no alcanzó la Tierra Prometida, ¿serán los sucesores de la humanidad los destinatarios de ese paraje edénico o, incluso, una Eva colectiva?

NOTAS:

[1] Que este tipo de máquina-robot no es el único que surge en la literatura, cabría anotar la falta de deseo específico encerrada en este relato; simultáneamente, el robot es un enorme sucedáneo al deseo. El robot-niñera Robbie sustituye a la madre en el afecto de su hija; el robot-telépata remplaza los deseos de amor de Susan por una hipótesis falsa… Al acumularse los efectos (secos y discretos) de las máquinas se convierten en la satisfacción global, dirigiendo la economía planetaria; así, la sequía emocional del relato se compensa con una horizonte de una mega-máquina-deseante, bajo la óptica de Deleuze y Guattari, tipo Kafka, por una literatura menor.
[2] El robot reflejaría la idealización cúspide de la enajenación, todavía más como hipótesis literaria, que paso a paso está materializándose; es la escala del tránsito entre la objetivación y la cosificación. En este caso, el autor sostiene que la enajenación nunca triunfará, pues predominarán los principios positivos plasmados por la ciencia y la virtud. Cf. KOSIK, Karel, Dialéctica de lo concreto.
[3] Específicamente, el término “positrónico” remite a la hipótesis de que la antimateria de positrones alimente a una fina trama que alimente una red de inteligencia artificial de tamaño aproximado al cerebro, para guiar a los robots.
[4] Esto es relativo, por lo que se esperaría de un magnífico divulgador de la ciencia como fue Asimov y por otras de sus obras. Estos cuentos novelados enfatizan más sobre el aspecto subjetivo de los robots y menos sobre sus rasgos técnicos. El foco se mantiene sobre los potenciales conflicto y fallas de las inteligencias robóticas en situaciones extremas.
[5] ASIMOV, Isaac, Yo, robot. En obras posteriores, se completará esta tríada con una “Ley cero” que especifica que el daño a evitar se refiera a la humanidad, entonces esta tesis adquiere un matiz social o de la colectividad completa.  Asimov llegó a atribuir esas tres leyes a su editor, John W. Campbell, pero éste recusó tal honor e insistió en la paternidad exclusiva del escritor.
[6] Esta serie también muestra gran interés por la psicología y su expansión hacia campos inexplorados. Si bien, todavía era una disciplina marginal, ya había obtenido un sitio en las academias occidentales.
[7] Se refiere a la hostilidad colectiva ante la criatura horrorosa, que es rechazada según el modelo acontecido en la novela de Mary Shelley, Frankenstein o en moderno Prometeo. Dicha novela es un hito en la reflexión sobre las consecuencias de la ciencia y la posibilidad de crear una nueva vida a partir de tales premisas. Idea en 1816 y terminada su primera versión en 1818, el monstruos revivido con electricidad encarna los temores y expectativos de la revolución industrial.
[8] El cuento original data de 1942 y es el primero donde Asimov expuso sus “3 Leyes de la Robótica”, por lo que conserva el valor de una primicia.
[9] Resulta evidente cierto dominio de Asimov sobre los temas de historia de la filosofía, colocándolos de manera oportuna en este relato.
[10] ASIMOV, Isaac, Yo, robot
[11] ASIMOV, Isaac, Yo, robot.
[12] Entre los muchos guiños con la psicología, aquí adopta la hipótesis de un complejo, según las tesis de Adler que marcaría permanentemente una conducta, que suponiendo inferiores a los humanos establecería un quebranto permanente de las 3 Leyes robóticas. Además, en el relato ese es el único robot de comportamiento anti-humano, los demás resultan un canto al optimismo tecnológico.
[13] ASIMOV, Isaac, Yo, robot.
[14] El autor no da detalles técnicos sobre el tipo de viaje que desafiaría los límites de la velocidad de la luz para permitir viajar a otros mundos y comenzar la colonización de las estrellas.
[15] El atractivo de este capítulo es la consideración sobre la historia de los conflictos de la humanidad, enfocados sobre si un futuro de alto nivel tecnológico lo superaría mediante la inteligencia artificial global.
[16] Asimov desarrolla la hipótesis de la conversión de las naciones-Estado en regiones mayores, simplemente cuatro, una hipótesis popular entre otros interesantes futuristas, como el optimista Toffler o el pesimista Orwell en su 1984.
[17] ASIMOV, Isaac, Yo, robot. Toda filosofía que se precie completa, termina desembocando en una teoría política; así, como Hegel llegaba a la conclusión de un Espíritu Absoluto que encarnaba en el gobierno, el aspecto filosófico de la ciencia ficción consistente nos conduce hacia una hipótesis sobre el gobierno. Aquí Asimov ofrece al ensoñación de un gobierno de robots pero dedicados por entero a la humanidad.
[18] ASIMOV, Isaac, Yo, robot.
[19] La hipótesis final es la conversión del robot en un monarca absoluto y bondadoso, una fantasía proyectada en la ilustración sobre algunos personajes. La zozobra que trasluce esta idea de la entronización del robot es evidente.
[20] Si bien el método filosófico de modo coherente apunta hacia la totalidad, la pretensión del control total se convierte en el sueño de la tiranía. Cf. LUKÁCS, Georg, Historia y consciencia de clase.
[21] La hipótesis de Blas Pascal remitía a un Dios inicial que conocía todas las premisas por tanto anticipa todas las consecuencias, lo cual no agrada a Hegel al considerar eso como una “hipótesis de encapsulamiento”, sin embargo, habrá quien crea que el Espíritu absoluto se aproxima a tal racionalismo cerrado. Cf. MARCUSE, Herbert, Razón y revolución.
[22] Vale repetir que la película “Yo, robot” no corresponde al argumento de la novela, sino que rescata elementos y posee una trama distinta. En la película esta inquietud sobre los robots que se sienten superiores a los humanos adquiere el papel central, cuando en la novela es un aspecto secundario.

2 comentarios:

Unknown dijo...

gracias

Anónimo dijo...

gracias ya tengo la tarea hecha