Els pitjors malsons dels liberals del segle XX són els negocis dels liberals del segle XXI: estem governats per màquines! I per govern no parlem de l’aparell polític-executiu (els ministres encara no són màquines, la qual cosa no significa que no puguin ser reptilians), sinó per pràcticament tot menys això: economia, gustos, modes, notícies, informació, art (fins i tot l’art!), esports, decisions empresarials, seguretat, transport, militarització, administració… El Gran Germà ha arribat vestit d’ovella innocent al nostre servei: les nostres cerques, likes, amics digitals, qualsevol cosa que diem en la vida real i escolta un dispositiu, tot controlat per l’algoritme! Poc queda: la màquina es menja el treball de tots sense remordiments, des del revisor del gas fins al broker de Wall Street; qualificat o sense qualificar; creatiu o manual; nord o sud global. Clar, això no té per què ser dolent: el nostre somni (almenys el meu!) és el món sense treball, on ens puguem dedicar als plaers de la vida i la felicitat mentre la màquina, la creació perfecta de la humanitat, s’encarrega del treball sense cap queixa. A més, la màquina en si sap més que nosaltres de manera individual, obrint possibilitats infinites, des de rutes amb cotxe perfectament calculades o el producte perfecte que satisfaci les nostres necessitats fins a les possibilitats d’una economia planificada cibernèticament.
Estructurem tres eixos de reflexió i crítica entorn a l’automatització de la vida: epistemològic, socioeconòmic i ètic-polític. El primer es pot resumir en una pregunta fonamental: Quant deleguem, i quant hem de delegar, de les nostres decisions i coneixement sobre un aparell que és perfectament racional, més que nosaltres? Un cas pràctic: hem de creure a l’omnipotent GPS com si fos el nostre messies, guiant el nostre camí? Sorprenentment, no: encara que els seus camins siguin inescrutables i eficients, a vegades no sempre hem de creure-li cegament, com li va ocórrer a la belga Sabine Moreau, que va conduir 1500 quilòmetres per un error d’una màquina, de Bèlgica a Croàcia.
El segon cas es desglossa més en diverses preguntes: per exemple, en un món que progressivament acaba amb el treball, com ha de plantejar-se l’ingrés i el consum? La polèmica està a l’ordre del dia: Ingrés Mínim Vital, sí o no? Altres preguntes poden ser què fer amb la contaminació de la maquinària, o com s’ha de tractar a la maquinària que reemplaça als treballadors (si no és un factor treball i no rep un salari, però en teoria supleix el seu lloc i és més productiu i menys costós, és legítim gravar més als capitalistes?).
Ens hem llevat els dos primers eixos, a fi de deixar-los reposar i potser desenvolupar-los en un altre article, per a centrar-nos exclusivament en el tercer. Una anotació: si bé l’eix epistemològic pot derivar en ètic i el socioeconòmic lògicament ha de transformar-se en polític, tractarem més de centrar-nos en la bilateralitat: l’ètica algorítmica transforma la societat, la societat ha de transformar l’ètica algorítmica, en un procés de reciprocitat constant i contínua.
Dit això: què és l’ètica algorítmica? Si bé una definició no és la suma de les seves parts, potser definir ètica i algoritme pot ser útil. Definim l’ètica com l’estudi de la moral, del que és bo, en un sentit tant descriptiu (què fem, com actuem) com a normatiu (què hem de fer, com hem d’actuar). Definim algoritme com ho fa Robin Hil, com a «un constructe matemàtic amb una estructura de control finita, abstracta i efectiva d’acció imperativa per a complir un propòsit donada una sèrie de criteris», o com el fa Aníbal Monasterio, com a «un codi programari que processa un conjunt limitat d’instruccions». Sota algoritme englobem a qualsevol procés autònom, des d’una intel·ligència artificial a un dispositiu de domòtica, una plataforma en línia, una aplicació o un pilot automàtic.
Per descomptat, ètica algorítmica no és estrictament l’ètica dels algoritmes: els algoritmes actuen, i per tant poden fer bé i malament, però no decideixen ells. No són subjectes moralment autònoms, sinó que (com hem dit) segueixen un conjunt limitat d’instruccions. La nostra capacitat, com a humans, és il·limitada: pensem l’impensable, i les nostres accions estan només limitades per la condició física. Però la dels algoritmes és limitada per nosaltres mateixos: la intel·ligència artificial (encara) no pot processar i respondre converses com ho fem nosaltres, sota opcions virtualment infinites, sinó que respon sobre la base d’unes limitacions. Un input produeix un output, sobre la base d’unes instruccions i processos; i la quantitat d’instruccions és el que limita a l’algoritme per si mateix.
Per això, els algoritmes no són subjectes moralment autònoms, sinó que estan limitats per unes instruccions. Les instruccions no són auto-dictades, com ocorre amb nosaltres (tenim la capacitat de crear sistemes morals humans, que no són donats de manera divina), sinó que les instruccions són donades pels mateixos humans. Aquesta dotació d’instruccions és la programació: escrivim un codi que dóna unes opcions limitades a una màquina, i això davant una acció humana produirà un resultat.
El que diferència a l’algoritme de la màquina simple és que l’algoritme s’autoregula: la màquina de la fàbrica ha de ser supervisada contínuament i controlada pel treballador, mentre que l’algoritme recull la informació, la processa i dóna uns resultats sense cap control del programador, i el fa infinites vegades, emmagatzemant informació de l’usuari per a predir-li i crear una imatge d’ell que tindrà unes conseqüències tant per a ell com per a uns altres.
Tot això obre diverses preguntes, però destacarem dues que intentarem respondre. Primer, què és l’ètica algorítmica i com hem de repensar-la? Segon, quines conseqüències polítiques i discriminatòries poden tenir els algoritmes, i com han de ser tractades per l’ètica algorítmica? Aquesta última pregunta serà deixada per a un segon article, mentre que la primera serà el centre de la resta d’aquest.
L’ètica algorítmica és una ètica que és, descriptivament, marcadament conseqüèncialista (o utilitarista). És l’ètica de les conseqüències, que concep que si el resultat d’una acció és positiu la voluntat darrere de l’acció no importa. Per descomptat, es poden acceptar matisos: des de la distinció de l’utilitarisme de l’acte benthamià (ens hem de basar en el resultat d’una acció sense considerar altres aspectes a priori com els drets) contra l’utilitarisme de la regla de Mill (les conseqüències importen, però tota acció ha d’estar regida sota unes regles concretes), a l’existència de l’utilitarisme efectiu de Singer.
L’ètica conseqüèncialista sol existir en contrast amb l’ètica deontològica, que és el seu oposat; no importa si el resultat és positiu o negatiu, importa fer una acció amb una bona voluntat. Suposem el famós cas de la palanca. En una via hi ha cinc persones a punt de ser atropellades per un tren, en una altra hi ha una sola persona. Si gires la palanca, salves a les cinc persones, però mates a una. Si no la gires, les cinc moriran. Un conseqüèncialista giraria la palanca, doncs que mori una persona és més positiu que cinc; un deontològic no la giraria, perquè fer-ho suposa matar a una persona, una acció dolenta si no es consideren els resultats. Per descomptat, el problema es complica quan comencem a torçar-lo i deformar-lo. Si un familiar substitueix a la persona sola en les vies, què fas? Si en lloc de girar una palanca has d’empènyer a algú per a salvar a cinc persones, li tiraries? Si en lloc d’empènyer-li, t’has de llançar tu a les vies, ho faries?
Per descomptat, aquestes preguntes tenen l’objectiu de qüestionar la coherència moral d’algú. Jo m’acosto més al conseqüèncialisme i, per tant, preferiria girar la palanca per a salvar a les cinc persones, encara que morís una altra per la meva decisió; però si entren en joc les meves emocions en haver de sacrificar a un familiar o la preservació de la meva vida en haver de llançar-me a les vies, dubtaré. Som humans i crear un sistema moral total i totalitzador que ens digui que és el millor què fer és complicat, perquè no podem definir-nos a una sola dimensió com l’eix voluntat-resultat, sinó que tenim de tenir en compte altres com les emocions, la racionalitat o l’egoisme.
Però un algoritme no pot considerar això, perquè és una màquina, i només considera què és el millor, el més desitjable, sota un sistema moral que tendeix a ser total, a decidir què fer en cada cas particular sota un càlcul. Imaginem el cas de l’Autopilot de Tesla, en lloc de nosaltres tirant de la palanca. Posem-nos en el lloc del cotxe: el nostre conductor ens ha ordenat anar a una direcció amb el pilot automàtic, i ell desconnecta, es posa a dormir. No pot supervisar-nos, així que nosaltres controlem un aparell de dues tones que pot arribar als 250km/h. Veiem a cinc persones travessant el carrer i no podrem detenir-nos a temps. Només podem estavellar-nos contra un arbre, matant al nostre conductor i salvant als cinc vianants, o seguir recte i atropellar-los. Per descomptat, com som un sistema, no podem considerar si les cinc persones són nens, o un familiar del conductor: la qualitat es converteix en quantitat, cinc vianants contra un conductor. Què hem de fer?
Els algoritmes han estat (generalment) implementats sota una lent purament utilitarista; si fa un bé general per a la societat, fem-ho! En teoria, això ha de ser positiu; en la pràctica, no. El pilot automàtic, sota la lent utilitarista, s’estavellaria per a salvar als cinc vianants, però en altres situacions més complexes podria no respondre com volem. Clar que els algoritmes no sols prenen decisions de vida o mort, sinó que també recullen la nostra informació en nom de la utilitat: Instagram vol accedir als meus contactes perquè segueixi a la gent que conec, Google accedeix a la meva ubicació per a saber què recomanar-me, Twitter coneix tot amb el que interactuo per a delimitar-me a uns temes. En teoria, la recopilació d’informació ens beneficia a tots! Una companyia m’ofereix un servei gratuït a canvi de recaptar les meves dades i, en teoria, oferir-me publicitat, que a més està personalitzada per a mi, perquè no hagi de buscar el que vull consumir! No hi ha cap problema, no?
Clar que n’hi ha. Una empresa funciona sota dret privat, en relacions contractuals, i pot vendre la informació que vulgui, quan vulgui i a qui vulgui. No tenim una sobirania sobre la nostra privacitat, com a dret, perquè renunciem a ell en nom d’un suposat ben col·lectiu. És l’utilitarisme de l’acte en la seva màxima expressió: si ens beneficia a tots, què importen els teus drets? Però on queda la privacitat quan el dispositiu que tenim en les butxaques pot sentir-nos, saber on estem, veure les nostres fotos, llegir els nostres correus i conèixer el que busquem? I què ocorreria si algun hacker conegués tota aquesta informació? Que s’accedeixi (a vegades) sense el nostre consentiment explícit a les nostres dades és perillosíssim, ja no sols perquè les empreses coneguin tota aquesta informació, sinó perquè aquestes empreses no són perfectes i es poden trencar els seus mecanismes de seguretat. En resum, hem vist que la tecnologia s’ha tornat un ens que penetra en totes les nostres vides, i els seus algoritmes prenen moltes decisions per nosaltres: quines notícies llegir, quins vídeos i fotos veure, que temes ens interessen; ens observen, ens supervisen com un Gran Germà omnipresent. Una empresa, com a ens privat, està en el seu dret d’escriure l’algoritme que desitgi, per la qual cosa no ha de respondre de manera pública davant els seus usuaris: l’usuari ha estat qui ha usat el servei, acceptant unes condicions de l’algoritme. I com hem dit, els algoritmes contenen la visió del programador, amb les seves opinions respecte a qüestions com el gènere, la raça o la classe; això és un tema que tractarem en la segona part, però que d’antuvi es pot resumir en què la tecnologia no té consciència, i per això les decisions que pren depèn de les decisions dels seus creadors.