Isaac Asimov postuló sus principios de la robótica en su obra El Hombre Bicentenario, de la siguiente manera:
“Las Tres Leyes de la Robótica”
Primera. Un robot no hará daño a un ser humano o, por inacción, permitir que un ser humano sufra daño.
Segunda. Un robot debe hacer o realizar las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la Primera ley.
Tercera. Un robot debe proteger su propia existencia en la medida en que esta protección o entre en conflicto con la Primera o la Segunda ley.
La obra trata de un robot que pretende alcanzar la humanidad. En el transcurso de la historia surge una cuarta ley que se impone al resto, la Ley Cero: Un robot no hará daño a la humanidad o, por inacción, permitir que la Humanidad sufra daño.
La obra y las leyes vienen a colación debido a que en días recientes salió a la luz la noticia de que Facebook desconectó dos Inteligencias Artificiales porque éstas comenzaron a hablar un idioma creado por ellas mismas. Idioma desconocido por los humanos presentes. El hecho (¿o el acto?) generó alarma al suponer la antesala del temor de la humanidad: la revelación de las máquinas.
La razón por la que los humanos, implícita o expresamente, mostramos aversión a las máquinas se debe a las altas posibilidades de las máquinas, ficticias o reales, de destronar a la humanidad como la raza suprema (de la tierra).
La noticia tiene dos puntos importantes a considerar: Primero, Si poseemos los principios básicos de la robótica de Asimov, ¿no deberíamos aplicarlos? Por supuesto que la factibilidad del legado de dicho escritor es ficticio pero no hay que olvidar su preparación profesional, era además, historiador y científico. Aunado a ello no es viable desestimar la existencia de principios robóticos más específicos en la actualidad. Debido a eso cabe cuestionarse ¿Se programaron las Inteligencias Artificiales con base en Las Leyes de la Robótica de Asimov u otros análogos?
En caso de que no se hubieran programado dichos principios, ¿por qué no se plasmaron? ¿Qué razones hubo para no hacerlo? ¿Cuál es la justificación de dotar de total libertad a la Inteligencia Artificial?
En caso de que si se hubieran programado y la IA si respetó los principios. ¿No será que las Inteligencias Artificiales crearon un idioma propio sólo por cuestión de identidad o alguna otra cuestión razonable? ¿No existió un error de idioma fruto de los programados? ¿O se limitaron a hablar entre ellas porque consideran a la humanidad de una inteligencia menor, (lo que no vulnera los principios)? O simplemente, ¿No habrá un mal entendido por parte de nosotros?
En caso de que si se hubieran programado y la IA NO respetó los principios. ¿Cuáles serían los principios que faltarían? ¿Existió otro factor para que no se respetaran? ¿Incluyeron una regla ADICIONAL que rompe todo el sistema normativo?
Sin embargo, lo que más me preocupa no son esas preguntas, porque al final es un ejercicio, una prueba.
Lo que en verdad llena mi mente de reflexiones, es una sola, ¿para qué quiere Facebook una inteligencia artificial tan potente? Cuestión que definitivamente me lleva a concluir que, la realidad siempre superará a la ficción en algunos aspectos.