Filosofia i Pensament Ramon Alcoberro amb la col·laboració de Júlia Torres i Canela

ROBOTS: LO QUE YA SABEN HACER, LO QUE SUPONEMOS QUE SABRÁN HACER (Y LO QUE HACE DIEZ AÑOS NO CREÍAMOS QUE SUPIESEN HACER)

¿Podrán los ordenadores hacer cosas tales como demostrar, predecir, juzgar, inventar, adaptarse, reflexionar, comprender o interpretar, como lo hacen los humanos? Estamos a inicios de 2020 y si hace diez o quince años nos dicen que “los ordenadores jamás harán esto” tal vez hubiésemos suspirado confiadamente. Pero ya hacen cosas que ni imaginábamos hace poco tiempo. La Inteligencia artificial (AI) progresa a marchas forzadas. Estos son algunos de los tópicos que conviene revisar.

 

TÓPICO 1º; LOS PROGRAMAS DE AI SOLO SABEN CALCULAR – Falso!

En los años del cambio de siglo se puso de moda el concepto de inteligencia emocional debido al psicólogo Howard Gardner. Se suponía que una máquina “solo” tenía una gigantesca potencia de cálculo, pero que no podrían entrar jamás en el ámbito de las emociones, que según se decía en aquel tiempo “son lo que realmente nos hace humanos”. Pues bien, gracias a programas de reconocimiento facial y de Deep Learning, los programas informáticos saben reconocer estados de ánimo y adaptan sus respuestas a las emociones que identifican. Además, las máquinas calculan a una velocidad difícil de imaginarse. Desde 2016 el programa AlphaGo (desarrollado por Google) es capaz de ganar jugando al go (el juego más difícil que existe) contra el capeón mundial Ke Jie – como ya desde 1997, Deep Blue fue capaz de ganar al ajedrez al campeón ruso Garry Kasparov, que tiene un cociente intelectual de 190 (la media humana es 100). Pero las máquinas no solo calculan.

El software actualmente disponible puede reconocer rostros e identificar el género, escuchar voces, chequear el estado de ánimo y decodificar entrevistas en video para identificar el nivel educativo, la mentira y la capacidad cognitiva. Las herramientas de análisis están seleccionando candidatos a determinados puestos en la empresa de forma inteligente e incluso identifican las opciones de carrera profesional de los empleados.

 

TÓPICO 2º; LOS PROGRAMAS DE AI SOLO SABEN HACER UNA COSA A LA VEZ – Falso!

Es cierto que los algoritmos de tratamiento de lenguas y los que se usan en la programación de juegos son muy distintos (no tienen nada que ver, básicamente). Un algoritmo que juega muy bien al ajedrez no sirve para distinguir un perro de un gato, pero es perfectamente posible hacer converger varios programas y construir un conjunto que sepa hacer cosas muy diversas. La síntesis de competencias donde un programa integre cosas diversas simultáneamente no tiene nada de imposible.

 

TÓPICO 3º; LOS PROGRAMAS DE AI NO TIENEN EN CUENTA EL CONTEXTO DE UNA DECISIÓN – Cierto, con matices!

En la década de 1980 los filósofos Jonathan Dancy y Hilary Putnam propusieron que un cerebro extraído de un cuerpo y puesto en una cubeta que se mantuviese vivo y recibiese información a través de un ordenador no podría saber que estaba en una cubeta. Eso significa que un programa de ordenador no sabe a qué se refiere cuando emplea conceptos y que, especialmente, no puede modificarlos. Ello es, cuanto menos, discutible. Aunque les dimensiones de una cultura no son propiedades naturales, ni reducibles a unidades elementales de formación, la Inteligencia Artificial aprende a contextualizar la acción y puede, por ejemplo, entender los sentimientos a partir de programas de reconocimiento facial.

 

TÓPICO 4º; LOS PROGRAMAS DE AI NO SABEN UTILIZAR EL LENGUAJE NATURAL – Falso!

El precursor británico de la Inteligencia Artificial Alain Turing propuso el llamado “test de Turing”, según el cual si un humano y un ordenador se ponían a hablar y el primero no se daba cuenta de que el segundo era un ser artificial, eso significaría que la máquina es inteligente. Pero en 2014 en la universidad de Reading se hizo dialogar a una máquina, a la que se hizo pasar por un adolescente ucraniano, con una serie de “cobayas” humanos y lograron engañarles. Hicieron la pequeña trampa de identificar la máquina con un adolescente ucraniano para disimular así posibles errores en uso del lenguaje… pero funcionó y hoy es posible lograr que una máquina hable inglés y responda preguntas de tipo político haciéndose pasar, por ejemplo, por Barak Obama.  Solo hay que introducir (y ya se hecho) todos los discursos que pronunció y un vocabulario básico en un programa informático y se puede lograr que diga lo que queremos oir. Eso, por cierto, preocupa mucho al expresidente Obama porque en 2018 un ordenador le hizo decir: “El Presidente Trump es un completo imbécil”, cosa que no había dicho en absoluto y le provocó un serio problema en las redes sociales.

 

TÓPICO 5º; LOS PROGRAMAS DE AI NI APRENDEN NI INVENTAN – Falso, con matices!

Las máquinas aplican un algoritmo, mientras que un humano se adapta, aplica su curiosidad y establece relaciones inesperadas entre datos. Pero existen programas de Deep Lerning  y como se ha dicho ya, el algoritmo AlphaGo derrotó a dos campeones de go (Fan Hui en 2015 y Lee Sedol en 2016), a base de analizar millones de partidas. Aprenden, pero es prematuro decir que inventan, aunque se está trabajando en asistentes que no estarían de inicio programados para ninguna tarea, pero que aprenderían a medida que nos ayudan en nuestro trabajo.

 

TÓPICO 6º; LOS PROGRAMAS DE AI NO TIENEN CONCIENCIA – Cierto, por ahora!

Platón decía, en su diálogo Teeteto, que la inteligencia es el diálogo del alma consigo misma. Por el momento la AI no tiene conciencia, ni vida ética. Si la tuviese tal vez incluso mentiría precisamente para cumplir la primera de las tres leyes de la robótica que propuso en 1942 Isaac Asimov y que son como sigue: 1) Un robot no hará daño a un ser humano o, por inacción, permitirá que un ser humano sufra daño. 2) Un robot debe cumplir las órdenes dadas por los seres humanos, a excepción de aquellas que entrasen en conflicto con la primera ley. 3) Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la primera o con la segunda ley.

Pues bien sería posible imaginar una historia en un robot le dice a una mujer que cierto hombre la ama (él no), porque contarle la verdad podría ser lo que el robot entiende como una violación de la primera ley. Para evitar romper su corazón, el robot mentiría (y de cualquier manera la traumatizaría). En ese caso el robot sentiría piedad, es decir, tendría la misma conciencia que un humano.

 

NO CONFUNDIR TIPOS DE MÁQUINAS PARA EVITAR ERRORES EN EL DEBATE

Pero analizar lo que saben o no saben hacer actualmente los diversos programas y tipos de máquinas en relación a la inteligencia humana es un poco simplista. Seguramente lo más significativo en los próximos años será ver cómo la evolución de las diversas ramas de la Inteligencia artificial puede ayudar a desarrollar sistemas de AI cada vez mejores y cómo los modelos computacionales pueden ayudarnos a comprender cómo evolucionó nuestra inteligencia humana. En Inteligencia Artificial se distinguen cuatro tipos de máquinas (reactivas, de memoria limitada, basadas en teorías de la mente y con autoconciencia). De hecho, los dos últimos tipos aún no existen y cuando las tengamos podremos responder (¿definitivamente?) a la cuestión sobre si puede pensar una máquina. Las describiremos por encima para plantear los retos a los que se enfrenta en el futuro la cuestión de mentes y máquinas.

Tipo I de AI: máquinas reactivas

Los tipos más básicos de sistemas de AI son puramente reactivos y no tienen la capacidad crear recuerdos ni de usar experiencias pasadas para informar las decisiones actuales. Deep Blue, la supercomputadora de ajedrez de IBM , que venció al gran maestro internacional Garry Kasparov a fines de la década de 1990, es el ejemplo perfecto de este tipo de máquina. Deep Blue puede identificar las piezas en un tablero de ajedrez y saber cómo se mueve cada una. Puede hacer predicciones sobre qué movimientos podrían ser los siguientes para él y su oponente. Y puede elegir los movimientos más óptimos entre las posibilidades. Pero no tiene ningún concepto del pasado, ni ningún recuerdo de lo que ha sucedido antes. A parte de una regla específica del ajedrez que rara vez se usa para no repetir el mismo movimiento tres veces, Deep Blue ignora todo antes del momento presente. Lo que hace es mirar las piezas en el tablero de ajedrez tal como están ahora, y elegir entre los próximos movimientos posibles.

Este tipo de inteligencia implica que la computadora percibe el mundo directamente y actúa sobre lo que ve. No se basa en un concepto interno del mundo. En un artículo seminal, el investigador de AI, Rodney Brooks argumentó que solo deberíamos construir máquinas como ésta. Su razón principal fue que las personas no son muy buenas para programar mundos simulados precisos para que las computadoras los usen, es decir, no son capaces de lo que en jerga filosófica se llama elaborar una “representación del mudo” lo bastante precisa. Las máquinas inteligentes actuales, de las que nos maravillamos, no tienen un concepto del mundo o tienen uno muy limitado y especializado para sus tareas particulares. La innovación en el diseño de Deep Blue no consistió ampliar el rango de posibilidades que la computadora analizaba. Por el contrario, los programadores encontraron una manera de reducir su punto de vista, para dejar de perseguir algunos posibles movimientos futuros, en función de cómo calificaba su resultado. Sin esta capacidad, Deep Blue habría necesitado ser una computadora aún más poderosa para vencer a Kasparov. Del mismo modo, AlphaGo de Google, que ha derrotado a los mejores expertos en Go humanos, tampoco puede evaluar todos los posibles movimientos futuros. Su método de análisis es más sofisticado que el de Deep Blue, utilizando una red neuronal para evaluar los desarrollos del juego.

Ese tipo de máquinas no pueden participar de manera interactiva en el mundo, como imaginamos que lo harán los sistemas de AI algún día. Simplemente, se comportarán exactamente de la misma manera cada vez que se encuentren con la misma situación. Esto puede ser muy bueno para garantizar que un sistema de AI sea confiable: quien conduce un automóvil desea que su futuro automóvil autónomo sea un conductor confiable, y nada más. Pero ese tipo de programas de Inteligencia Artificial no nos sirven si queremos que las máquinas realmente se involucren y respondan al mundo. Estos sistemas de AI más simples nunca se aburrirán, ni se interesarán, ni se entristecerán.

Tipo II de AI: memoria limitada

Esta clase de Tipo II incluye a las máquinas que pueden mirar al pasado. Los autos sin conductor ya hacen algo de esto. Por ejemplo, observan la velocidad y dirección de otros autos. Eso no se puede hacer en un solo momento, sino que requiere identificar objetos específicos y monitorearlos a lo largo del tiempo. Estas observaciones se agregan a las representaciones preprogramadas de los automóviles autónomos del mundo, que también incluyen marcas de carriles, semáforos y otros elementos importantes, como curvas en la carretera. Se incluyen cuando el automóvil decide cuándo cambiar de carril, para evitar interrumpir a otro conductor o ser atropellado por un automóvil cercano.

Pero estas simples piezas de información sobre el pasado son solo transitorias. No se guardan como parte de la biblioteca de experiencia del automóvil de la que puede aprender, de la forma en que los conductores humanos recopilan experiencia durante años al volante. Entonces, ¿cómo podemos construir sistemas de IA que construyan representaciones completas, recordar sus experiencias y aprender a manejar nuevas situaciones? Hoy por hoy resulta muy difícil hacer ese tipo de cosas. Se está trabajando en métodos inspirados en la evolución darwiniana que puedan comenzar a compensar las deficiencias humanas al permitir que las máquinas construyan sus propias representaciones. Hoy por hoy, la frontera de la que sabe hacer una máquina se establece aquí.

Tipo III de AI: teoría de la mente

Podríamos detenernos en el Tipo II, que es el nivel donde estamos hoy; pero tiene bastante interés reflexionar sobre las máquinas que construiremos en el futuro. Conviene ser más específico para discutir los tipos de representaciones que las máquinas necesitan formar y de qué deben tratarse. Las máquinas del Tipo III no solo se forman representaciones sobre el mundo, sino también sobre otros agentes o entidades en el mundo. En psicología, esto se describe como la capacidad de elaborar una "teoría de la mente": es decir, la comprensión de que las personas, las criaturas y los objetos en el mundo pueden tener pensamientos y emociones que afectan su propio comportamiento.

Esto es crucial porque así es la forma en que los humanos formamos sociedades y porque nos una teoría de la mente es imprescindible para mantener interacciones sociales. Sin entender los motivos e intenciones de los demás, y sin tener en cuenta lo que alguien más sabe sobre mí o el medio ambiente, trabajar juntos resulta, en el mejor de los casos, difícil, y en el peor de los casos, es imposible. Si los sistemas de IA van a caminar entre nosotros, tendrán que ser capaces de comprender que cada uno de nosotros tiene pensamientos, sentimientos y expectativas sobre cómo seremos tratados. Y tendrán que ajustar su comportamiento en consecuencia.

Tipo IV AI: autoconciencia

El paso final del desarrollo de la IA sería construir sistemas que puedan formar representaciones sobre sí mismos. En última instancia, los investigadores de IA no solo tendrían que comprender la conciencia, sino también construir máquinas que la tengan. Esto es, en cierto sentido, una extensión de la "teoría de la mente" que poseen las inteligencias artificiales Tipo III. La conciencia también se llama "autoconciencia" por una razón. ("Quiero ese artículo" es una declaración muy diferente de "Sé que quiero ese artículo".) Los seres conscientes son conscientes de sí mismos, conocen sus estados internos y pueden predecir los sentimientos de los demás. Asumimos que alguien tocando la bocina detrás de nosotros en el tráfico está enojado o impaciente, porque así es como nos sentimos cuando tocamos la bocina a los demás. Sin una teoría de la mente, no podríamos hacer ese tipo de inferencias. Si bien probablemente estamos lejos de crear máquinas que sean conscientes de sí mismas, debemos enfocar nuestros esfuerzos hacia la comprensión de la memoria, el aprendizaje y la capacidad de basar las decisiones en experiencias pasadas. Este será un paso importante para comprender la inteligencia humana. Y resulta crucial si queremos diseñar o desarrollar máquinas que sean más que excepcionales para clasificar lo que ven frente a ellas.

 

 

 

 

 

© Ramon Alcoberro Pericay