Els robots com a agents morals artificials (A.M.A.)
Ramon Alcoberro
Com és obvi, aquestes quatre grans àrees de debat moral no són les úniques que es poden plantejar. Temes com la protecció de les minories, el dret a la dissidència, la intimitat, etc... segurament van molt més enllà del que actualment podem plantejar amb el nivell de coneixement existent.
En qualsevol cas, la AI obre un problema inèdit en la història de la filosofia moral i que fins ara només s’havia plantejat en la literatura de ciència-ficció. Queda lluny l’època que considerava que els únics agents morals eren humans i avui cal considerar també com una dada empírica que hi ha agents morals artificials (A.M.A.). És senzillament molt probable que els robots puguin escapar al control humà i, de fet, ja són ells els qui cada vegada més vigilen, condicionen, predeterminen i decideixen què han de fer els humans. Cap a l’any 2000 un robot “només” jugava magníficament als escacs i això no tenia cap rellevància moral, al marge que provoqués una ferida narcisista en l’orgull humà. Avui poden prendre decisions morals molt més complexes i amb conseqüències molt significatives. D’altra banda, els hackeigs són cada vegada més habituals i poden posar en risc fins i tot la vida de la gent (imaginem què passaria si els hackers i els programes espies destruïssin les conduccions d’aigua o de llum d’una ciutat). Quan un robot o un programa informàtic ha de prendre decisions sobre la vida i la cura d’un malalt, quan pot decidir si disparar armes que poden matar o quan exerceix funcions de relaxació i de joc sexual, és important establir els límits morals del que pot fer raonablement i establir limitacions de protecció i seguretat.
Un programa informàtic pot aprendre a modificar-se ell tot sol si és alimentat amb un nombre suficient de dates i pot connectar i treballar conjuntament amb altres robots i altres programes. Fins i tot pot actuar d’una manera absolutament opaca (“troians”) i mentir intencionadament. La intel·ligència artificial s’usa en funcions de “policia preventiva”, en campanyes de màrqueting i en la redacció de discursos polítics durant les campanyes electorals, de manera que són els algoritmes els qui prenen decisions significatives sobre la vida de la gent, encara que no les sàpiguen justificar. En conseqüència, els robots tenen el que es pot anomenar “autonomia”.
Cada vegada es fa més evident que els robots i els programari (maquinari o software) s’han de ser considerats agents morals artificials (AMA) en ells mateixos, perquè les opcions que poden prendre no són moralment neutres o simplement instrumentals. Si un algoritme pot determinar les opcions de feina d’una persona, pot discriminar-lo, pot portar-lo a la presó i produir-li dolor – en definitiva si pot determinar el seu futur– ha de ser considerat un agent moral, amb responsabilitat. A més, els robots i els programes basats en Big Data comparteixen la intencionalitat una característica bàsica amb les accions morals desenvolupades per humans. En conseqüència, si un robot no és neutral, pren decisions pròpies i les seves decisions tenen conseqüències que poden provocar dolor ergo ha de ser un actor moral.