Primi passi
Hai deciso di passare a Linux ma non sai da che parte cominciare?
Di chi è la colpa se i robot sono razzisti di Laurie Penny(pubblicato su internazionale 1203)
Le macchine possono pensare? E possono pensare in modo critico su questioni razziali e di genere? Alcuni studi recenti hanno dimostrato che i sistemi di apprendimento automatico riprendono le idee razziste e sessiste racchiuse nei nostri schemi linguistici. L’idea che le macchine possano avere gli stessi pregiudizi delle persone è fastidiosa per chi crede ancora nella purezza morale del mondo digitale, ma non è una novità . Come spiega Lydia Nicholas, ricercatrice del centro di ricerca britannico Nesta,i dati su cui si basano i sistemi d’apprendimento automatico “sono stati per forza raccolti nel passato e, dato che la società cambia, rischiamo di usare dei modelli obsoleti e quindi di produrre discriminazioni inaccettabili”. I robot sono razzisti e sessisti perché le persone che li creano sono sessiste e razziste. Del resto le macchine non fanno altro che elaborare le informazioni fornite dagli uomini bianchi ed eterosessuali che dominano il mondo della tecnologia. Nel 1986 la scuola di medicina dell’ospedale Saint George di Londra fu condannata per discriminazione razziale e sessuale, dopo che aveva automatizzato la selezione dei nuovi studenti usando dati raccolti negli anni settanta.
Il programma si basava solo sui candidati che avevano avuto successo in passato e convocava ai colloqui d’ammissione le persone compatibili con quei profili. Com’era prevedibile, il computer sceglieva maschi con nomi anglosassoni. L’automazione è¨ un’ottima scusa per fare gli stronzi: dopotutto si tratta solo di numeri, e la magia della raccolta dei dati permette di negare che ci siano dei pregiudizi. L’apprendimento automatico, come ha osservato l’esperto di tecnologia Maciej Cegìowski, può funzionare come uno strumento per riciclare i pregiudizi, un po’ come succede con il denaro sporco. Le cose peggioreranno se non risolveremo questo problema, perché in futuro le macchine “intelligenti” avranno sempre più influenza sulle nostre vite.
E non è¨ un caso isolato: una ricerca d’immagini di Google, che sfruttava una tecnologia “allenata” a riconoscere i volti basandosi su quelli di persone bianche, ha incluso i neri tra i risultati di una ricerca relativa ai gorilla. Dobbiamo forse costruire dei robot dotati di morale, di un senso di giustizia ed equità? Ho l’orrenda sensazione di trovarmi di fronte a un film già visto, che non finisce bene per gli esseri umani.*
Le macchine imparano il linguaggio processando enormi quantità di articoli disponibili su internet.* Tutte le voci di uomini bianchi e occidentali che hanno dominato il mondo della letteratura e dell’editoria per secoli si sono fossilizzate nei modelli linguistici contemporanei, insieme alle opinioni che quegli uomini avevano delle persone diverse da loro. Stiamo progettando robot che riflettono i nostri pregiudizi.
Con gli esseri umani, del resto, succede la stessa cosa. La nostra comprensione del mondo si basa sul linguaggio e sulle storie delle precedenti generazioni. Fin da piccoli, ci insegnano che la parola “uomini” può significare anche “tutti gli esseri umani”, ma questo non vale per la parola “donne”. Essere femmine significa appartenere a una sotto classe di persone. Quando i politici e i nostri genitori parlano di come qualcuno si comporta con la “sua gente”, a volte si riferiscono a “persone dello stesso gruppo razziale”. E quindi finiamo per pensare che chi ha un colore della pelle diverso dal nostro non è uno di “noi”. In inglese esistono i pronomi he e she (lui e lei): questo vuol dire che il genere è una caratteristica decisiva nel definire una persona e non ne esistono più di due. Per questo chi lotta per la giustizia sociale spesso parte dal linguaggio, mentre i difensori dei pregiudizi parlano di “polizia linguistica”, come se l’uso delle parole non avesse a che fare con la realtà che le parole creano.
Gli esseri umani, a differenza delle macchine, sono dotati di facoltà morali: siamo in grado di correggere i nostri pregiudizi e dovremmo farlo. A volte non riusciamo a essere equi come vorremmo. Non perché scegliamo di essere intolleranti e prepotenti, ma perché partiamo da tesi su appartenenza razziale, genere e differenze sociali che ci hanno insegnato quando eravamo piccoli. Abbiamo schemi di comportamento basati su informazioni sbagliate. Questo non ci rende per forza delle cattive persone, ma siamo responsabili del nostro comportamento. *Gli algoritmi dovrebbero aggiornare le loro reazioni sulla base di nuove e più complete informazioni, eil problema morale viene fuori quando le persone si rifiutano di fare lo stesso.*
Se ce la fa un robot, possiamo farcela anche noi.