martes, 19 de enero de 2016

Rob y las leyes de la robótica

Algunos lectores me han preguntado por qué los androides del universo de Marc, el último terrícola, y concretamente Rob, no siguen las tres leyes de la robótica de Asimov. Es una pregunta interesante que me gustaría responder extendiéndome un poco en el tema, y por eso he creado esta entrada. ¿Vamos a ello? Venga... por cierto, contiene SPOILERS de La furia de Dackhara


Empecemos por el principio, ¿qué son esas tres leyes de la robótica de las que hablo? Las tres leyes son unas normas escritas por Isaac Asimov que se aplicaban a los robots de sus novelas y que regian su comportamiento, y éstas establecen que:
1- Un robot no hará daño a un ser humano o, por inacción, permitirá que un ser humano sufra daño.
2- Un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conficto con la primera ley.
3- Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la primera o segunda ley.
Cabe decir que la existencia de estas leyes trasciende la obra de Asimov, muchos autores las hen empleado en sus historias cuando la cuestión robótica entraba en juego, y se podría decir que son parte de la cultura popular en el ámbito de la ciencia ficción.

Pero, ¿por qué Rob, o cualquier androide del universo de Marc, el último terrícola, no sigue también estas tres leyes tan omnipresentes en la ciencia ficción? La respuesta la encontramos examinando un poco más la obra de Asimov:
En sus historias, Asimov acostumbra a buscar situaciones en la que la aplicación de las tres leyes pueda resultar contradictoria para un robot, así tenemos que los primeros robots creados tenían unos criterios para valorar esas contradicciones más o menos objetivos y sencillos, como el cuantitativo (hacen daño a un humano para evitar que dos humanos sufran daño, por ejemplo, aunque esto luego les cuesta su propia "vida").
Más adelante tenemos robots con mayor autonomía a la hora de la toma de decisiones, que pueden valorar bajo sus propios criterios qué significa "daño", y juzgar a qué humano ayudar o dañar según su valoración de la persona en cuestión, y no por un criterio meramente numérico (en caso de conflicto, pueden elegir salvar a un individuo que consideren más valioso desde su punto de vista).
¿Por qué los androides de esta historia no se ven limitados por estas leyes? La explicación es bastante sencilla: esa fase ya está superada socialmente.
Es posible que en el pasado remoto, cuando se crearon los primeros androides, hubiera algo parecido a las tres leyes, es lógico pensar que cuando la tecnología de los androides comenzó debían tener algún tipo de reglas que controlasen el comportamiento de sus limitadas inteligencias artificiales... pero la tecnología mejoró con el tiempo, la inteligencia artificial se desarrolló hasta igualar el intelecto humano, y no sólo el intelecto, sino también la capacidad de raciocinio, la posesión de consciencia y de libre albedrío, y lo que hubiera similar a las tres leyes quedó obsoleto ante unos androides capaces de tomar sus propias decisiones.
Es probable que esto causara algún tipo de cisma, se menciona en la novela que las tensiones entre humanos y androides estuvieron a punto de provocar una guerra (que se evitó cuando llegó una amenaza mayor, que forzó a un pacto acelerado y pacificó la situación). Al final, y gracias a eso, la humanidad aceptó a los androides como individuos iguales, con derechos y deberes similares a los de cualquier humano... bajo esas circunstancias, las tres leyes no tienen mucho sentido. Imponer unas normas que priorizan la existencia humana a la propia a la raza androide sería violar su libre albedrío, su capacidad de tomar sus propias decisiones y las condiciones de igualdad entre ambas razas, y por tanto sería del todo inmoral.
El androide Rob no sólo no se ve limitado por las tres leyes, también es un fugitivo por incumplir otras leyes aplicables en exclusiva a los androides, como es la singularidad personal (prohición de duplicar su memoria en otros cuerpos y funcionar conjuntamente). Pero ésta no es una ley que resida en su programación y que se vea forzado a cumplir, es una ley que se le aplica como cualquier ley que se aplica a un ser humano, y por tanto, pese a las consecuencias legales que pueda tener, es perfectamente capaz de incumplirla.
Los androides en este mundo no son esclavos, ni siquiera son mano de obra con ciertos derechos... los androides llevan existiendo en conjunto con la humanidad varios siglos y son ciudadanos con plenos derechos.

Pero por encima de todo esto, si las leyes de la robótica no se aplican en este universo es sencillamente porque Marc, el último terrícola es una space opera, no una novela de ciencia ficción. Sí, hay alguna terminología científica, pero no mucha, y tampoco tiene un papel importante; la historia es, por encima de todo, una aventura espacial, con acción, comedia e incluso algo de drama... pero no es ciencia ficción pura, y por tanto no se pretende profundizar tanto en las cualidades de la inteligencia artificial, que es tan sólo es un recurso más para contar una historia de aventuras.

No hay comentarios:

Publicar un comentario