Ética para robots –o de la máquina contra su creador–

Ciencia ficción, Robots, Sin categoría

-Pienso que la Inteligencia Artificial evolucionará hasta el punto en que ellos serán nuestros amigos. ¿Vas destruir a los humanos?

-Ok, voy a destruir a los humanos.

Fue lo que respondió Sophía durante su entrevista para la CNBC(1). Ella no es una persona común y corriente, ni siquiera es un humano ya que como ella misma menciona: “aún no soy considerada una persona legal”. Esto es porque en realidad, Sophía es un robot (que ha declarado que destruirá a la humanidad).

Sin embargo, no es para asustarse pues es poco probable que esta I.A (Inteligencia Artificial) realmente tenga deseos de matar a todos los seres humanos del planeta. Esto supondría que cualquier máquina y robot serían capaces de rebelarse contra sus creadores. La idea de la rebelión de las máquinas ha sido el terror recurrente en el imaginario colectivo desde que estas exiten, tal como Hollywood lo muestra en películas como Terminator, Blade Runner o Yo Robot. El temor de una revolución ha ido en aumento desde el surgimiento de la I.A., es decir, aquellos sistemas que son capaces de emular la mente humana, (ver Las relaciones (im)personales en la era del smartphone y cómo tener sexo con una I.A.).

ISophia

Sophia, robot capaz de interactuar con humanos, reconocer rostros y expresar emociones.


John McArthy, matemático e informático estadounidense, explicó el término
inteligencia de tal manera que se puede aplicar tanto a humanos como a máquinas (2). Él menciona que la inteligencia es la capacidad de adaptarse eficazmente a cambios en el ambiente y usar la información de esos cambios a nuestro favor. Es decir, toda inteligencia es capaz de aprender. Si pensamos en las máquinas, actualmente existen gran variedad de programas que cumplen con esta característica de inteligencia, basta voltear a ver nuestros teléfonos celulares. Las I.A. de los smartphones están aprendiendo de nosotros todo el tiempo. Google Maps sabe cuáles son los lugares que visitamos cotidianamente, Facebook reconoce los rostros de tus amigos en las fotos para que te sea más fácil etiquetarlos, incluso Youtube y Spotify reconocen tus gustos musicales para sugerirte nuevas canciones. Aunque se les llame Inteligencia Artificial, no se ha definido claramente qué significa que un ser  “inteligente”, así como tampoco existe una definición clara de lo que es la mente.

Las I.A. más famosas hasta el momento son los asistentes de voz: Siri (de Apple) y Cortana (de Microsoft). Estas Inteligencias Artificiales están recolectando información todo el tiempo y, gracias a esos datos, pueden hacer predicciones cada vez más acertadas. Literalmente han aprendido del ambiente y usado esos datos a su favor.

Muchas de estas I.A. se basan en reglas relativamente sencillas que tratan de imitar el comportamiento de los seres vivos. Gracias a las ciencias biológicas es posible conocer cómo los seres vivos se adaptan y compiten entre sí para poder sobrevivir, si estas reglas son aplicadas al diseño informático, el resultado son Inteligencias Artificiales sumamente eficientes. Tal es el caso de Deep Blue, una computadora que logró derrotar dos veces al campeón mundial de ajedrez Garri Kásparov(3), una de tantas anécdotas en donde la máquina supera al hombre.

Lo curioso es que este tipo de I.A. no siempre da buenos resultados. Tay, por ejemplo, fue un softwere creado por Microsoft quien, en marzo de 2016, abrió su propia cuenta de Twitter para interactuar con otros usuarios de la red social. Según los mismos creadores de Tay, esta I.A. respondería tuits de acuerdo a lo que aprendiera de su interacción con otros usuarios. Al inicio Tay se mostraba entusiasmada por poder aprender de los humanos. Sin embargo, los trolls de las redes sociales y amantes del humor negro, no se hicieron esperar y comenzaron a interactuar con Tay. En menos de 24 horas Tay había publicado varios tuits: “Las feministas deberían arder todas en el infierno”, “Hitler no hizo nada malo”, “Construiremos un muro y los mexicanos pagarán por él”, sólo por mencionar algunos. Ante esto, Peter Lee, encargado del proyecto Tay, pidió disculpas públicas por los comentarios ofensivos de Tay y fue “puesta a dormir”, por decirlo de alguna manera. (4)

tay

Tay, el experimento sobre Inteligencia Artificial que salió terriblemente mal.

Este episodio en la historia de la informática deja algo muy en claro: aunque una Inteligencia Artificial parezca ser inteligente, lo más probable es que no tenga ni idea de lo que está haciendo. Dicho en otras palabras, aunque una I.A pueda aprender, memorizar y resolver problemas, esta nunca tendrá una conciencia y mucho menos tendrá sentido de la ética. Es por eso que nos podemos encontrar casos como los de Tay o el de Sophia, quienes aprendieron bastante bien qué tenían que hacer pero no tenían sentido del bien o del mal.

Existe un experimento mental que ejemplifica bien lo anterior, se trata de la crítica de Searle a la Inteligencia Artificial. El ejercicio consiste en imaginar que tenemos una máquina capaz de chatear perfectamente con una persona de origen chino tan bien que este nunca se da cuenta que está chateando con una máquina.

Ahora imaginemos que nosotros estamos dentro de dicha máquina y vemos aparecer en la pantalla lo que nos escribe el chino sin comprender nada de lo que vemos. Sin embargo, dentro de la máquina se encuentra un manual de chino con todas las instrucciones que debemos realizar para hablar con esta persona, de tal manera que, si en la pantalla aparecen ciertos símbolos, el manual nos dirá exactamente qué y cómo debemos responder.

El resultado de ambos escenarios sería el mismo: el chino quedaría satisfecho con su conversación y nosotros no habríamos tenido ninguna idea de lo que se trató la charla. El científico Searle dice que esto es lo que pasa con las I.A. Es decir, son programas capaces de aprender y responder que les pedimos sin que sepan en realidad qué están haciendo ni para qué. Aunque una I.A pueda imitar a la mente humana, nunca podrán igualar las características biológicas que sustentan el que podamos tener experiencias subjetivas o raciocinio moral.

Isaac Asimov, en sus visionarias novelas de ciencia ficción, describió tres leyes fundamentales para la robótica que debían estar programadas en todo robot para evitar que hirieran a los seres humanos (ver la nota “La invasión de los robots”). Entre otras cosas, propone que los robots nunca deben tener apariencia humana para evitar una serie de conflictos morales y jurídicos. A pesar de esto, basta ver el diseño de Sophía para darse cuenta de lo lejos que han quedado las ideas de Asimov. Así que, si en algún punto de la historia se diseña un robot capaz de destruir a la humanidad, no es porque se hayan vuelto malvados; no será culpa del robot, si no de aquellos que lo hayan diseñado.

Autor: Juan José F. Valdiviezo

Es estudiante de psicología en la UNAM con amplio interés en temas de neurociencia, ciencia ficción. Apasionado del teatro y consume café desde los 12 años.

Ilustración: Bernardo Ortega

 Artista Visual. Es estudiante en la Facultad de Arte y Diseño de la UNAM. Se especializa en el uso de técnicas de imagen bidimensional, específicamente en Litografía, Fotografía, Imagen digital, Pintura y Dibujo a gran y medio formato.

Referencias:

 

Deja un comentario