Génesis
1:1 En el principio, Dios creó el cero y el uno…

Si entendemos la ética como el estudio del bien y el mal y sus relaciones con la moral y el comportamiento humano, y luego consideramos los avances que se han tenido en materia de ciencia de la computación en estos últimos años, no es ninguna sorpresa que ahora ambas disciplinas se mezclen para darnos algo de qué preocuparnos. Tal parece que hemos llegado a un punto en el que los nuevos desarrollos tecnológicos han hecho de la “Súper Inteligencia Artificial” (SIA) una idea que podría convertirse en realidad dentro de posiblemente poco tiempo. Pero antes de que los fanáticos de Terminator o Matrix puedan detenerse a fantasear con un mundo en el que las maquinas decidan deshacerse de nosotros o esclavizarnos para su propio beneficio, una pregunta de carácter urgente (sin quitarle su debida importancia a las anteriores) deber ser realizada: ¿cómo deberíamos tratar nosotros a esos seres inteligentes?

Si aceptamos la definición actual de “Inteligencia artificial” (IA): la capacidad de un ente artificial para procesar información acerca de sus alrededores y tomar medidas para alcanzar un objetivo, veremos que es algo con lo que ya hemos estado viviendo desde hace algún tiempo. Se puede ver, por ejemplo, en el teclado predictivo “Swiftkey” (desarrollado en 2010), en el “Machine Learning” (implementado en febrero del 2016), o en los “automóviles completamente autónomos” (que salieron a las calles en 2017). Pero es la forma en la que estos agentes inteligentes han seguido ampliando y mejorando sus capacidades la que ahora supone una serie de preguntas:

¿Hubieras sentido la misma indiferencia al matar de hambre a tu Tamagotchi si no estuvieras completamente seguro de que era incapaz de sufrir?
¿Qué “más real” tendría que haber sido tu Poochi para que lo quisieras tanto como a un perro de verdad?

Estas preguntas podrían sonar ridículas en primer instancia, incluso algunos expertos en IA, como el Dr. Andrew Ng, han hecho comentarios bastante tranquilizantes como “no me preocupo por la inteligencia artificial por la misma razón que no me preocupo por la sobrepoblación en Marte”, y en efecto, todos los expertos aseguran que no estamos a menos de 50 años de tener agentes artificiales súper inteligentes, pero nunca es demasiado pronto para comenzar a hablar seriamente acerca de cómo deberíamos reaccionar frente a una situación tan inminente. Después de todo y para propósitos de este trabajo, las únicas suposiciones necesarias para reconocer que esto es algo que amerita una discusión sobria son:

a) La inteligencia se puede reducir al procesamiento de información
b) La tecnología va a seguir mejorando

─Sam Harris, «Can we build AI without losing control over it?», TED Talks, 19/10.16

Estas suposiciones se hicieron con el propósito de exhibir cómo la SIA es algo inevitable, y de justificar por qué no hay forma de hablar de ella sin hablar también de las implicaciones éticas que conllevan. Dicho de otra forma, no tiene sentido hacer máquinas que piensen y sientan como nosotros, sí no vamos a buscar la forma correcta de integrarlas a nuestra vida diaria.

Sin duda esto es algo que estamos lejos de entender a cabalidad, e incluso los expertos siguen peleándose por ponerse de acuerdo sobre la definición de lo que sería una Súper Inteligencia Artificial, pero algo en lo que muchos coinciden es en que podrá aprender cosas nuevas, que será capaz de modificar su propio código y que, junto con ella, vendrá la consciencia artificial. Llegado ese momento, si aceptamos la siguiente proposición:  El mejor criterio bajo el cual decidimos tratar bien a ciertos seres es la capacidad que tienen para experimentar sufrimiento, nos quedaríamos sin ningún argumento para hacer distinción entre tratar bien a otro humano o a cualquier otro ser con la misma inteligencia e intervalo de emociones.

Es difícil no estar de acuerdo con lo anterior. Dudo que alguien alguna vez haya sentido empatía hacia las piedras, o que sienta la misma empatía hacia las ratas que hacia los perros, o hacia los perros en comparación con otros humanos, para nosotros es obvio que cada uno tiene más capacidad de pensar y sentir que el anterior. Ahora que, sí estás de acuerdo con la proposición, ¿qué tanta empatía sentirías hacia una computadora que pudiera experimentar tanto placer o sufrimiento como tú?

Todos nos hemos encariñado con algún objeto a lo largo de nuestra vida, casi todos pasamos por la época en la que dormíamos abrazando un peluche, y algunos incluso sentimos una extraña necesidad de disculparnos con él si lo llegábamos a guardar en el clóset por mucho tiempo. Ahora detente a pensar que (dentro de 50 años) ese peluche pueda reclamarte airadamente por ser tan cruel con él.

-¿Por qué lloras, Gloria? Robbie era sólo una máquina, sólo una desagradable máquina vieja. No estaba vivo en absoluto.
-¡No era una máquina! -gritó Gloria con ferocidad y sin gramática-. «Era una persona como tú y yo, y él era mi amigo».

– Isaac Asimov (1950)

Todos podríamos leer este fragmento del cuento “Robbie” o ver alguna película como West World o Her, y pensar que opiniones como la de Gloria son perfectamente válidas, en especial si se tiene en cuenta la proposición subrayada anteriormente. Pero ahora imagínate que en la Constitución se encontraran leyes como la siguiente:

1.- Un humano no hará daño a un robot o, por inacción, permitirá que un robot sufra daño.

¿Qué tan extravagante suena? Siguiendo el mismo criterio no suena extravagante en lo absoluto. De hecho, en un afán por ser consistente en todo lo dicho anteriormente, tomar la más importante de las leyes de la robótica de Asimov, e intercambiar las palabras “humano” y ”robot”, no cambia el propósito de la ley.

Según la Dra. Kate Darlin (especialista en la interacción del humano con la tecnología e investigadora en “ética robótica” del MIT Media Lab), el motivo de legislar con respecto al trato correcto del humano hacia los robots es análogo al motivo por el que actualmente se legisla con respecto al maltrato animal. Si el propósito de las leyes es evitar la injusticia y la crueldad ─de la misma forma en que vemos a nuestras mascotas como nuestra propiedad, y aún así hay leyes con respecto a cómo no podemos tratarlas─. El hecho de que un “robot con SIA” posea el mismo intervalo de emociones debería ser razón suficiente para que tenga los mismos derechos.

Por supuesto que la conversación anterior es una que implica hablar también del otro lado de la moneda, ¿se puede hablar de las responsabilidades de un ente artificial súper inteligente?, ¿cómo proceder si llegase a causar algún daño? Es aquí donde el criterio inicial comienza a dar problemas si hablamos de crear un ente con nuestras mismas capacidades y luego otorgarle derechos en función de ellas, nos veríamos en la necesidad de encontrar una respuesta a cuestiones como:

1. Darle una tarea específica que deba cumplir sería lo mismo que esclavizar a un humano.
2. Dada la posibilidad de reprogramar al ente, no tendría sentido dictarle una sentencia como a un humano.
3. Tomar las mismas medidas que se toman cuando la mascota de un humano causa alguna daño, sería como si un humano fuera la propiedad de otro.

… jugar a ser Dios ya no fue tan divertido.

Es evidente que estos son sólo unos cuantos de los muchos obstáculos y cuestiones que se deberán resolver antes de seguir adelante con todo el proyecto; es una de las razones por la que debemos estar agradecidos de que aún estamos lejos de tener estos problemas tocando a nuestras puertas (a probablemente 100 años).

Pero tampoco olvidemos que no sólo deberíamos preocuparnos por estas dificultades en particular, sino que toda la plática anterior supone que tenemos que preocuparnos por “cómo integrar a estos entes a nuestra sociedad” y, de hecho, esa situación es una que sólo sería real por poco tiempo pues habrá que darle el debido valor a la opinión de radicales y pesimistas: un mundo en el que las máquinas inteligentes se han integrado a nuestra sociedad. Los circuitos electrónicos funcionan aproximadamente un millón de veces más rápido que los bioquímicos, no es ninguna exageración decir que las máquinas podrían ponerse al corriente con el progreso humano. En realidad harían falta sólo un par de años para que seamos nosotros quienes tengan que adaptarse a su propia sociedad.

Es un buen momento para comenzar a plantearnos estos dilemas, y es también un excelente momento para reflexionar sobre enseñarles a las maquinas súper inteligentes cómo tratarnos de una forma ética (y esperar que lo recuerden), cuando seamos nosotros quienes estemos a su merced.

Imagen tomada de biz-directory

Escrito por:paginasalmon

Un comentario en “Ética de 8 bits | Por Rogelio Meana

  1. Cuando el destino nos alcance………… o ¿será que ya nos alcanzó y ni cuenta nos hemos dado? Por lo menos hay que empezar a plantearse esas ideas que no están muy lejos de volverse cotidianas.

    Me gusta

Deja una respuesta

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Salir /  Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Salir /  Cambiar )

Conectando a %s