CÓMO PENSAMOS... Y CÓMO PIENSA UNA MÁQUINA

En 1996, Robert P. Worden elaboró un modelo matemático de comportamiento emocional de los primates, mostrando que cuando un mono joven capta una amenaza potencial, observa el comportamiento del mono adulto y copia su comportamiento. Este tipo de comportamiento podía ser traducido a algoritmos y permitía predecir su conducta. Desde entonces la pregunta es si esto podrá hacerse también con los humanos y la acumulación de datos (“big data”) parece confirmar que mediante un programa informático efectivamente resulta posible también prever las conductas humanas. ¿Es eso pensar, o solo es clasificar?

Obviamente, no hay “robots emocionales”, o como se les quera denominar. Un robot no siente nada, solo ejecuta simulaciones. Películas como Metrópolis de Fritz Lang (1929) siguen siendo ficciones. Cuando se dice que una máquina “piensa” estamos haciendo una proyección de nuestra vida mental y usamos, de facto, una metáfora. Pero si entendemos que pensar es (solo) actuar lógicamente, entonces conviene empezar a matizar. En filosofía se identifican media docena de circuitos del pensamiento, seis operaciones básicas que permiten la reflexión humana… Obviamente para responder a la cuestión sobre si puede pensar una máquina habría que saber si los algoritmos de un ordenador pueden reproducir esas mismas formas de pensamiento. Y la respuesta es inquietante. En algunos casos, las superan.

 

1.- LA DEDUCCIÓN

Es la reina de las operaciones lógicas. La más abstracta y la más rigurosa. No precisa ni la observación ni la experiencia, solo usa el pensamiento puro. Consiste en partir de uno o diversos enunciados universalmente válidos (por ejemplo: “Todos los hombres son mortales”, “Sócrates es un hombre”), para llegar a una conclusión que es su consecuencia lógica: “Sócrates es mortal”. En la deducción hay dos premisas y una conclusión y va de lo general a lo particular creando cadenas de razonamientos que se articulan unos con otros.

¿Puede deducir una máquina?

La respuesta es sí, pero con matices. La inteligencia artificial empezó planteándose problemas deductivos. Pero hay que darle todas las reglas bien formuladas y resulta imposible crear una base de datos que contenga todos los objetos del mundo, porque ese es un proceso infinito.

La inteligencia artificial (IA) clásica se funda sobre la deducción. En la década de 1970 se desarrolló un lenguaje, llamado Prolog, que a partir de principios y reglas lógicas podía realizar deducciones a una escala mucho mayor – y mucho más deprisa –  de lo que podían hacerlo los humanos. La deducción en el caso de las máquinas tiene un problema: solo aprende a partir de reglas y hay que formular todas las reglas de un proceso. Eso, a veces, puede ser interminable y en todo caso resulta extremadamente lento y fastidioso en la programación.

 

2.- LA INDUCCIÓN

La inducción es la operación contraria a la deducción. En vez de partir de un enunciado general y llegar a una afirmación particular, parte de una observación particular y se eleva hacia la generalización. Si veo que cada día sale el sol por el este puedo inducir que mañana también saldrá el sol por el este. La inducción permite dar el salto de la observación a la ley general, de la pura repetición circunstancial a la generalización de una verdad. Pero es un procedimiento extremadamente frágil, porque nunca podemos estar seguros de haber hecho todas las observaciones necesarias para pasar de la repetición de casos a la ley.

¿Puede razonar inductivamente una máquina?

La respuesta es que depende, pero que se está progresando muy rápidamente en ello. Pronto será posible hacerlo, como indica el éxito creciente de los programas de reconocimiento facial que hoy ya son capaces de detectar, por ejemplo, a gente que se ha sometido a operaciones de cirugía estética e incluso de cambio de sexo. Facebook está trabajando en el programa Detectron de reconocimiento de imágenes. La inducción es el ámbito donde actualmente progresa más la Inteligencia Artificial.

 

3.- LA ANALOGÍA

La analogía es el procedimiento que consiste en intentar explicar hechos y/o cosas nuevas a partir de compararlas con hechos y/o cosas que ya conocemos. A es como B”. En la analogía se supone la igualdad entre dos relaciones, por eso a veces puede ser ambigua. Así, cuando decimos “París es a Francia lo que X es a Estados Unidos”, podemos establecer dos respuestas igualmente correctas: si pensamos en que París es capital de Francia por analogía diremos que Washington es la capital de Estados Unidos; pero si pensamos en “la ciudad más importante”, entonces la analogía se establece con Nueva York. A veces, algunas analogías pueden resultar incluso extrañas (por ejemplo, al hablar de “la fecundidad” de un dato), pero la ventaja de las analogías es que pueden ser increíblemente creativas.

¿Puede construir analogías una máquina?

La respuesta es sí. Los programas de traducción simultánea y la Wikipedia trabajan con analogías para entender el lenguaje. Un equipo de Google creó Word2vec, siguiendo un método de “incorporación de palabras” que permite establecer analogías del tipo “París-Francia-Atenas” y el programa responde “Grecia”.

 

4.- LA INTENCIONALIDAD

La intencionalidad es una operación mental que consiste en poseer una representación mental que nos permite ‘proyectarnos’ hacia la cosa o hacia la acción e incluso completarla o preverla, anticipando cómo será, siguiendo la guía de la percepción, la memoria o la afectividad. El arte, por ejemplo, tiene un gran contenido intencional porque consiste en mezclar lo que saben con lo que no sabemos (o con la ficción), pero en general toda la vida afectiva es intencional.

¿Puede tener intencionalidad una máquina?

La intencionalidad está vinculada al aprendizaje. Cuando a una inteligencia artificial se la sitúa ante un laberinto, si previamente no se la ha enseñado a salir del labirinto, no sabe cómo hacerlo. De todas maneras, es obvio que las máquinas saben explorar, mediante procedimientos de refuerzo del aprendizaje. Se puede dar a la máquina una gran cantidad de información y ella la analiza hasta ser capaz de crear jugadas nuevas a partir de las que tenía almacenadas. Ese es el caso del programa AlphaGo, que fue capaz de ganar a un jugador de go en 2015.

 

5.- LA COMPRENSIÓN

Wilhelm Dilthey decía que: “llamamos comprensión al proceso por el cual conocemos ‘el interior’ de una cosa guiándonos por lo exterior y por nuestros sentidos”. Comprendemos cuando “vemos” la cosas por dentro, cuando entendemos las reglas por las que se organizan, aunque no las “sepamos” realmente. Así, aunque yo no entienda el chino puedo “comprender” que algunos caracteres están escritos en chino porque no se parecen a los caracteres arábigos, ni cirílicos, ni latinos.

¿Puede comprender una máquina?

De momento, no. No hay ninguna evidencia de que entienda por qué da la respuesta correcta a una pregunta. Solo se podrá hablar de inteligencia en sentido estricto cuando la máquina sea capaz de asociar fragmentos de sistemas que efectúen funciones diferentes y   generalice a partir de un solo ejemplo.

 

6.- LA IMAGINACIÓN

Imaginar es representarse mentalmente una cosa en ausencia de su original. La imaginación también puede crear cosas que no existen en la naturaleza combinando otras que sí existen (un caballo alado, por ejemplo), y así lleva a nuestra mente lo inédito y lo nuevo. No tiene ni la precisión de la percepción, ni el rigor del razonamiento, pero puede provocar estados emocionales (del terror al deseo…) y tiene un poder estético (creador de cosas bellas o siniestras) realmente muy considerable.

¿Puede imaginar una máquina?

La respuesta es sí. Desde junio de 2017 existe una máquina, la CAN (Creative Adversarial Networks) que observa cuadros y que puede comprender la substancia de un estilo artístico, creando obras nuevas en ese mismo estilo e incluso mezclar dos estilos distintos (por ejemplo, impresionismo y arte abstracto). Se está trabajando para conseguir que pueda hacer cuadros lo más alejados posible del original. De momento, la máquina no puede explicar los criterios con los que hace la mezcla, pero la hace efectivamente.

 

 

 

© Ramon Alcoberro Pericay