Per debatre sobre qüestions d’ètica dels Big Data el primer que cal saber és
què pretén una ètica aplicada.
Ramon Alcoberro
Molt en resum l’ètica aplicada és una ètica de gestió dels problemes concrets. Això vol dir que no es pregunta per grans opcions existencials, sinó per la millor manera de resoldre qüestions sobre valors i normes que es presenten quan es produeix un problema pràctic i que afecta a grans grups, on les opcions han de ser “maximitzades”, o el que és el mateix, han d’oferir el màxim bé al màxim nombre de persones concernides davant una qüestió. Les ètiques aplicades no es pregunten pel bé últim, ni pel sentit de la vida, sinó per la millor manera d’aconseguir que tota una sèrie de qüestions controvertides es resolguin amb el mínim desacord, o el “mínim mal”.
Tal com diu Mark Coeckelbergh a l’inici d’un dels manuals més coneguts sobre la qüestió (AI Ethics, MIT, 2020 – hi ha traducció a l’espanyol: Ética de la inteligencia artificial, Ed. Cátedra, 2021), amb el Big Data, els algoritmes i la intel·ligència artificial hem entrat en una època que les màquines no són un complement dels humans, sinó que els substitueixen. La seva potència de càlcul és inassumible per a la ment humana i, precisament per això, ens cal una regulació ètica del seu ús, evitant en el possible els perills de les utopies i de les distòpies. Les ètiques aplicades volen ser eines eficaces, tot i que sovint no resultin gaire sofisticades conceptualment i, sobre tot, estan pensades per a gestionar conflictes en societats pluralistes, perquè assumeixen diversos punts de vista integrant-los en una perspectiva utilitarista.
Una qüestió d’ètica aplicada (l’eutanàsia en bioètica) es pot resoldre de la mateixa manera tot i que s’arribi a la conclusió per camins prou diferents. Tota ètica aplicada pretén gestionar problemes, però no resoldre’ls. La gestió de problemes no s’ha de confondre amb la “resolució” de problemes perquè sempre és provisional i busca consensos, que poden canviar amb el temps, segons s’avaluïn els resultats de l’acord, canviïn les tecnologies, es mogui l’opinió pública, etc...
En aquest sentit les ètiques aplicades, en tant que ètiques de gestió, no busquen “la veritat”, sinó l’acord i per això es diu que són ètiques “de mínims”. El conflicte entre visions del món (ideologies, religions, opcions emocionals, etc.) continuarà existint, però en l’ètica aplicada es tracta de cercar criteris per seguir vivint junts de la manera més confortable possible.
En el seu nivell més elemental, les ètiques aplicades es basen en quatre principis bàsics: autonomia (P.A), beneficència (P.B), no maleficència i justícia. Aquests principis deriven de la bioètica i van ser “validats”, per així dir-ho, en la pràctica jurídica i política dels Estats Units al darrer quart del segle XX i després es van anar estenent una mica arreu. En societats democràtiques el principi d’autonomia té una preferència argumentativa perquè cadascú és lliure i responsable de si mateix, del seu propi cos i dels seus propis interessos i fer el bé és indissociable de viure’l amb autodeterminació. L’autonomia és un principi bioètic bàsic, perquè ha de ser cada individu qui prengui les decisions adients sobre la seva salut i la seva vida.
Però ni tan sols l’aplicació dels quatre principis esmentats garanteix que una acció sigui realment ètica, més enllà de determinats acords de mínims. Es poden afegir també altres principis i, especialment, dos més han tingut un cert èxit també en àmbits jurídics: el principi de responsabilitat que implica també la promoció de criteris de prudència (o precaució) i el principi de la cura (o atenció personalitzada i empàtica). El principi de responsabilitat va ser teoritzat als seus inicis per Hans Jonas i el de cura per Carol Gilligan, però s’han desenvolupat molt més enllà del que haguessin imaginat mai els seus autors. D’una manera molt simplificada, el principi de responsabilitat demana actuar tenint presents les conseqüències dels nostres actes, no tan sols avui sinó en la vida de les generacions futures. Per la seva banda, la cura demana actuar amb consciència de comunitat i d’atenció emocional, especialment respecte als més febles.
Molt en resum tota ètica aplicada s’ha d’argumentar necessàriament segons els quatre principis bàsics –només que un entre ells no sigui aplicable, l’acte no pot ser considerat plenament moral– i sempre és millor un argument quan satisfà també els altres dos (responsabilitat precaució). Per tant, un conflicte de Big Data s’ha de resoldre posant l’èmfasi en la capacitat que puguin tenir una decisió o una argumentació en ordre a fer créixer l’autonomia i la beneficència, per disminuir el mal (no maleficència) i per crear societats més equitatives (o justes). Transparència i responsabilitat són criteris vàlids per a tota ètica aplicada, però tenen un valor molt més estricte en l’àmbit de la intel·ligència artificial on els problemes de privadesa es fan molt més obvis.
Un algoritme o els conjunt de programes que articulen un robot poden ser jutjats moralment en funció de si amplien l’autonomia o la disminueixen. Si creen dependència material o emocional són, en principi, moralment sospitosos L’ètica dels Big Data, dels algoritmes i, més en general de la intel·ligència artificial, intenta buscar acords de mínims en la gestió del canvi tecnològic i de l’impacte que l’ús d’aquestes tecnologies té en les vides de la gent, però també en les transformacions de l’economia i de la societat. La complexitat i la manca de transparència en els criteris de programació són difícils de gestionar des de l’autonomia –i de vegades directament contradictòries respecte a ella–