Ante muchos de los inquietantes avances que se ven cada día en los modernos robots muchas veces se oye a la gente exclamar «¡espero que los programen con las Tres leyes de la robótica!», haciendo referencia a las clásicas leyes del mundo de los robots que inventó Isaac Asimov para sus novelas. Pero el problema es que no son leyes reales, son solo ciencia-ficción. Y, aunque intentáramos programarlas en nuestros amiguitos mecánicos no servirían de nada.
En este vídeo de Computerphile uno de los expertos en Inteligencia Artificial cuyas disquisiciones ya hemos mencionado alguna vez, Rob Miles, explica bien la situación. Algo que dice que nunca se han tomado en serio los expertos en robótica e inteligencia artificial porque… ¡son un planteamiento de ficción para poder escribir novelas!
La cuestión es que se definan como se definan las tres leyes –incluso sin preocuparnos ahora del orden exacto– están escritas en un lenguaje humano, e indefectiblemente tienen un problema definición. Conceptos como «humano», «causar», «daño» u «obedecer» requerirían una definición clara y cristalina, además de todo un contexto sobre lo que consideramos ético, moral, correcto o no.
En ese contexto, por ejemplo, sería muy difícil precisar qué es un «humano». Claramente vemos humanos caminando por la calle todos los días, y un tornillo no es un humano, pero la filosofía ética y moral nos ha enseñado que hay otros casos en los que las cosas no están tan claras: ¿Es humano alguien que todavía no ha nacido o nacerá dentro de diez años? ¿Lo es alguien con muerte cerebral que se mantiene artificialmente en estado vegetativo? ¿Sería «humano» en el futuro una copia de un cerebro volcado en una inteligencia artificial?
Lo mismo sucede con el concepto «causar daño». ¿Si alguien está sufriendo y se le deja morir, se le causa daño o se le está ayudando a no sufrir? ¿Cuánto daño supone realmente «causar daño» si la sensibilidad puede variar según cada persona? ¿Todos los tipos de daño son iguales ?
Un buen ejemplo planteado en la explicación es el de una persona que muere atendida por un robot, que según tenga programados estos conceptos podría intentar realizar maniobras de reanimación cardiopulmonar o no. ¿Durante cuánto tiempo debería realizarlas? ¿Si el robot sabe que a veces la gente «resucita» con estas maniobras, las intentaría sin fin? ¿Acabaría un robot intentando reanimar a todos los humanos muertos del cementerio, para «evitarles el daño» en que se encuentran?
Si casi todas estas situaciones resuenan como «temas cotidianos» es porque convivimos con ellas cada día y están en los debates éticos y morales al que nos enfrentamos continuamente – y lejos de una solución única. No todo el mundo se pone de acuerdo.
De modo que resultaría imposible infundirle a un robot esas definiciones precisas y además el marco ético completo y «resuelto» necesario para procesar toda esa información. Equivaldría a resolver la ética: el comportamiento, la moral, la virtud, el deber, la felicidad… Así que de momento tendremos que dejar a los robots de Asimov para las novelas e ir pensando en otra cosa con la que controlar a los ingenios que inventamos cada día.
Relacionado:
- Un robot programado para violar la primera ley robótica y hacer daño
- Lo que sucede si se cambian de orden las leyes de la robótica de Asimov
- Juegos de lógica respetando las tres Leyes de la Robótica de Asimov
- Un robot castigado
- 25 años sin Isaac Asimov
- La gobernanza del comportamiento letal en los robots autónomos
- Dilemas morales y experimentos mentales: el coche sin conductor