ELIZA com a exemple

Ramon Alcoberro

Quan es parla sobre si les màquines pensen és inevitable que aparegui en el debat ELIZA, el primer programa d’ordinador que simulava una conversa humana i fins i tot semblava donar mostres d’empatia. Aquest primer programa de processament del llenguatge natural va ser escrit l’any 1966 al laboratori d’intel·ligència artificial del MIT per l’informàtic Joseph Weizenbaum. Suposadament s’havia creat per demostrar la superficialitat de les comunicacions entre l’home i l’ordinador en aquell moment, però la veritat és que va tenir un gran èxit, malgrat que avui ens semblaria un programa molt primitiu. Enraonar amb ella va ser un esport molt típic dels informàtics en una època en què ni tan sols existia internet.

ELIZA va rebre el nom d’Eliza Doolittle, la florista anglesa amb discurs inculte i dialectal , protagonista de l’ obra Pigmalió de George Bernard Shaw –-i de la pel·lícula My Fair Lady–-i que, gràcies al mètode d’ensenyar la repetició de les formes correctes de pronunciació, aprèn la manera refinada d’expressar-se pròpia de la classe alta britànica. Weizenbaum volia fotre’s dels psicòlegs de l’escola de Carl Rogers, coneguts per fer preguntes bastant òbvies als qui acudien a les seves teràpies, i va idear un sistema basat en la repetició de les informacions que el programa rebia de l’usuari, sovint girats en forma de pregunta (Per què em dius que..? Què vols dir quan dius que...?). ELIZA no preguntava mai directament (per exemple, “Quin és el teu compositor preferit?” sinó que usava una formulació indirecta (“parlem del teu compositor preferit”). El programa reconeixia paraules clau i responia com si fos un psiquiatre rogeria usant alguna paraula que el seu interlocutor hagués emprat, però no sabia quin tipus de paraules usava. La cosa podia anar més o menys així:

     Humà: Bé, doncs, el meu xicot venir aquí.

     ELIZA: El teu xicot t’ha fet venir aquí?

     Humà: Diu que quasi sempre estic deprimida.

     ELIZA: Em sap greu escoltar que estàs deprimida.

     Humà: És cert. Soc infeliç.

     ELIZA: Vostè creu que venir aquí la ajudarà a no ser infeliç?

Quan el programa no detectava una paraula clau, el chatbot responia amb frases genèriques com ara "continuï" o "expliqui’m més". Però el fet és que els usuaris s’esplaiaven davant ELIZA i li revelaven fins i tot coses que mai no haurien dit a un humà. La reacció sorprengué Joseph Weizenbaum, fins a l’extrem que va escriure un llibre (Computer Power and Human Reason: From Judgment to Calculation) per tal d’explicar que el seu programa no “pensava” sinó que calculava. No s’esperava que la gent quedés tan fascinada, ni que els usuaris no entenguessin del tot que parlaven amb un munt de circuits, i el llibre és una seriosa reflexió sobre les implicacions més àmplies de les màquines que podrien imitar efectivament el sentit de la comprensió humana. Finalment, Weizenbaum es va allunyar dels treballs sobre intel·ligència artificial i va acabar essent un dels crítics més profunds de la tecnologia que ell mateix havia començat a dissenyar. La seva família havia fugit de l’Alemanya nazi l’any 1936 i ell sempre va mantenir que programes d’aquesta mena serien la base d’un nou totalitarisme, molt més perfecte i pervers.

Per molt que fos un programa simple, ELIZA tenia una capacitat terapèutica innegable i molta gent solitària va passar-se hores parlant-hi. Des d’aleshores molts investigadors han somiat amb crear un món on els humans i la tecnologia es fusionessin de noves maneres. Es tractava de crear equips que poguessin parlar amb nosaltres i que responguessin a les nostres necessitats i desitjos i, això de fet, ja s’ha aconseguit. Assistents com Siri fins i tot t’expliquen acudits quan estàs deprimit. Arreu funciona l’anomenat "efecte ELIZA", que fa referència a la nostra tendència a antropomorfitzar els ordinadors i a creure que els programes entenen, fins i tot quan realment no ho fan.

     Durant anys en informàtica es va parlar del que en deien “el test de Turing” que aquest matemàtic havia proposat en un article el 1950. Una persona manté una conversa amb un humà i un robot ubicats a diferents habitacions i ha d’esbrinar qui és qui. Si el robot és convincent, passa la prova i, per tant, hem de suposar que el robot pensa. Turing va predir que això acabaria succeint amb tanta coherència que parlaríem de les màquines intel·ligents "sense esperar ser contradites". ELIZA no passava la prova de Turing però va ser el primer programa que va desenvolupar la interacció humana, creant la il·lusió (encara que breu) d’un diàleg home-home.

     El 2015, un robot anomenat Eugene Goostman que simulava ser un nen de 13 anys i d’origen rus, tot i que suposadament vivia als Estats Units, va guanyar el Turing Challenge per primera vegada. Avui en dia els seus successors la superen àmpliament i són perfectament capaces d’enganyar els humans, cosa que dona una nova dimensió al tradicional problema de la mentida humana. El programa de llenguatge autoregressiu Generative Pre-trained Transformer 3 (GPT-3) amb 175.000.000 milions de paràmetres, funciona magníficament. Pot ser no sap què llegeix, però llegeix i respon consultes mèdiques amb competència contrastada. Quan les hem convertit en companyes, assessores i oracles per a tots nosaltres, debatre si les màquines “pensen” té un punt d’ingenuïtat. Potser són “boques sense cervell”, però al món hi ha milers de boques humanes sense cervell a les barres de bar (algunes treballen fins i tot com a professors universitaris o governen el món) i no tenen tanta informació com un bon programa informàtic.

 

 

ÈTICA  BIG DATA, ALGORITMES I INTEL·LIGÈNCIA ARTFICIAL

© Ramon Alcoberro Pericay