Os estáis preocupando demasiado por las máquinas que pasan el test de Turing y demasiado poco por los humanos que no pasan el Voigt‑Kampf.
– @NewIlluminatus
(vía RT de @retiario).
A los cerebros positrónicos de los robots de Isaac Asimov, a los que sin duda calificaríamos de inteligentes, les bastaban tres sencillas leyes para regir todo su comportamiento (o al menos les basaron durante muchos años hasta que apareció la Ley Cero). Esas tres leyes dicen más o menos esto:
- Un robot no hará daño a un ser humano ni, por inacción, permitirá que un ser humano sufra daño.
- Un robot obedecerá las órdenes dadas por los seres humanos, excepto si estas órdenes entran en conflicto con la Primera Ley.
- Un robot debe proteger su propia existencia siempre que ello no entre en conflicto con la Primea o la Segunda ley.
Pero las leyes de Asimov funcionaban –o no, pues muchos de sus relatos de robots están basados precisamente en problemas con las tres leyes– en un mundo de ficción, mientras que en el MundoReal™ la inteligencia artificial es cada vez más ciencia y menos ficción, aunque aún le queda mucho, mucho, mucho.
Así que Oren Etizoni, director del Insituto Allen para la Inteligencia Artificial, cree que igual deberíamos ir pensando en unas leyes que regulen la inteligencia artificial, y hace esta propuesta de tres leyes, un poco en la línea de Asimov:
- Una inteligencia artificial debe estar sometida a todas las leyes que se apliquen a sus operadores humanos, ya sea una IA para uso particular, empresarial, o gubernamental; no queremos que hagan nada que sea ilegal para nosotros. Y también habría que modificar las leyes vigentes para que no se pudiera usar la excusa de que «mi IA lo hizo».
- Una IA debe dejar siempre claro que no es humana. Ya no es sólo que los bots puedan confundir a algunas personas, es que las IA son cada vez capaces de producir mejor información, información falsa incluida.
- Una IA no puede almacenar o diseminar información confidencial sin el permiso expreso de quien la ha generado, en especial teniendo en cuenta que ya hay productos en el mercado como Amazon Echo que está todo el rato a la escucha.
Etizoni reconoce que es una propuesta incompleta y que serviría más bien como punto de partida. Yo añado, como siempre que hablo de inteligencia artificial, que no creo que ninguno de los sistemas actuales a los que se le aplica la etiqueta puedan ser considerados realmente inteligentes. Y habría que ver si cuando por fin conseguimos construir una IA –suponiendo que acabemos por lograrlo– esta tendrá que esta dotada o no de libre albedrío –y discutir la existencia o no del libre albedrío es otro enorme debate– para que la consideremos verdaderamente inteligente.
Pero como dice él –y como nos urge desde hace años Elon Musk a hacer– igual no está de más que vayamos pensando en estas cosas, aunque sólo sea como ejercicio mental.
Relacionado,
- «Morgan», el primer tráiler creado por Watson, la inteligencia artificial de IBM
- La primera canción compuesta por una inteligencia artificial
- Inquietantes «retratos humanos interactivos» producidos por inteligencia artificial
- Inteligencia artificial que programa robando código de otros programas
- La inteligencia artificial ya puede estimar cuánto vas a vivir a partir de las imágenes de radiología
- Una inteligencia artificial capaz de abatir cazas de combate pilotados por humanos expertos
- Así aprenden las máquinas: los experimentos de inteligencia artificial de Google
- El temor a la inteligencia artificial no tiene que ver con robots asesinos
- En busca de una inteligencia artificial capaz de justificar la moralidad de sus decisiones
- ¿Debemos preocuparnos por la inteligencia artificial? ¡Vota!
- Los bots de Facebook con inteligencia artificial que no daban tanto miedo como cuentan
- Vayamos aprendiendo a convivir con robots antes de que sea tarde
- Los robots que vienen para ayudarnos