Sono un programmatore. Scrivo software di intelligenza artificiale e machine learning, non mi sento responsabile di quello che i clienti ne fanno. Ho scoperto che i miei algoritmi sono usati per la valutazione dei lavoratori nella mia azienda. Un sistema opaco verifica i dati di lavoro, analizza le prospettive aziendali e decide di aumentare o ridurre la forza-lavoro in questo o quel settore. Ieri ho ricevuto la lettera di licenziamento. Sono andato a controllare e il mio software ha effettivamente determinato che licenziarmi è conveniente per l'azienda. Dove ho sbagliato?
Idefix72
Caro Idefix72, mi dispiace molto per il tuo licenziamento, ma perché pensi di aver sbagliato? Hai fatto esattamente quello che si voleva da te, raccogliendone i risultati.
Sarai licenziato ma dovresti essere felice, perché il tuo programma ha pienamente raggiunto il suo scopo. Sei un bravo programmatore e troverai sicuramente lavoro altrove.
Tu sei fortunato, c'è una gran richiesta di programmatori e tecnologi. Pensa solo per un attimo ai contabili, ai facchini, agli addetti alle pulizie o al personale della mensa che il tuo algoritmo ha licenziato e che si troveranno a dover competere in un settore con meno opportunità del tuo.
Pensa anche alla signora Mina della mensa, che ha una figlia disabile; pensa al signor Alberto, che faceva di tutto per mantenere la figlia Lina agli studi e dallo scorso mese non ha potuto farlo più, e pensa anche a Michele, che non avrà più soldi per le sue terapie e rimarrà claudicante per il resto della vita.
Il tuo algoritmo non ha mai preso in considerazione le loro vite né quanto, per la loro esistenza, il lavoro fosse importante, perché nessuno ha pensato di introdurvi un parametro che indicasse la semplicità di trovare un successivo lavoro.
Provi orrore a sentirti anche un po' responsabile della loro sorte e quella dei loro cari, vero? Ma non è di questo che voglio parlarti, perché è semplicemente stupido provare a buttare la croce solo su di te.
Sei solo stato lo strumento di un sistema che avrebbe comunque licenziato e abbandonato le persone; forse lo avrebbe fatto con un po' più di umanità, ma il risultato alla fine sarebbe stato simile. Anzi no, forse, invece di Mina, Alberto e Michele, il primo ad andare fuori saresti stato tu, proprio perché avevi maggiori probabilità di sopravvivere.
La lezione di oggi, caro Idefix72, riguarda proprio il tuo lavoro e quell'algoritmo di cui vai tanto fiero. In questo momento stai solo prendendo coscienza che, nel semplificare la realtà per poterla trattare con gli strumenti che ti permettevano di esprimere quell'algoritmo, hai lasciato fuori qualcosa: la vita.
Se andiamo a vedere, avrai anche caricato in quell'algoritmo le preferenze dei tuoi datori di lavoro (meglio evitare le donne fertili vero?) e i pregiudizi della società (meglio preferire i giovani, vero?).
Questa è l'Intelligenza Artificiale oggi, un coacervo di semplificazioni brutali, rappresentazioni superficiali e insufficienti analisi, ma soprattutto la totale mancanza di responsabilità etica nella sua applicazione.
Questa intelligenza artificiale non sta servendo a riconoscere o a risolvere i problemi che affliggono l'umanità, come vogliono farci credere. Invece, automatizzando il pregiudizio, sta contribuendo ad amplificarli.
La buona fede di chi si è arruolato in questo campo di lavoro è indubbia, ma ormai non ci sono neppure dubbi sui risultati del loro impegno. Avranno bisogno di una Norimberga per capirlo?
Si racconta un aneddoto gustoso. Nel 2014, Douglas Hofstadter fu invitato negli uffici di Google per discutere di IA. Non appena introdotto nella sala tutti i giovani e meno giovani ingegneri della società lo accolsero con un applauso e tante lodi, confermando che senza alcun dubbio ciascuno di loro aveva intrapreso la propria carriere nell'intelligenza artificiale grazie al libro, ormai diventato iconico, che Hofstadter aveva scritto negli anni '70, intitolato «GEB, Gödel, Escher, Bach. Un Eterna Ghirlanda Brillante».
Esaltato come padre fondatore del lavoro fatto in Google, gli furono presentati in rassegna uno ad uno i risultati del lavoro dell'azienda nel campo delle auto a guida autonoma, del riconoscimento del parlato, della comprensione del linguaggio naturale, della traduzione tra linguaggi e dell'arte generata dal computer.
A dispetto dell'entusiasmo mostrato da tutti, Hofstadter si alzò e fece un discorso molto inatteso. Si dichiarò impaurito da quello che aveva visto in quella stanza e intristito dal modo con cui veniva esposto. Gelò tutti dicendo, letteralmente «Trovo molto spaventoso, molto preoccupante, molto triste, e considero spaventoso, orribile, bizzarro, scioccante, sconcertante, che la gente si precipiti alla cieca e in preda al delirio nel creare queste cose».
Era chiaro che le persone raccolte in quella stanza avevano sì letto GEB, ma invece di comprenderne il messaggio emergente (e l'emergere dei significati era proprio il centro dell'argomentazione del libro), si erano limitati a scimmiottare dei risultati da tirar fuori come da una «borsa di trucchi». I trucchi dell'IA non avvicinano di un millimetro la comprensione di cos'è veramente la mente umana, ma vengono spacciati per risultati fondamentali solo perché vendibili dalle aziende del campo (spesso finanziate in perdita coi capitali di rischio). L'incontro terminò non prima che gli ingegneri di Google esprimessero ad Hofstadter la sicurezza che nell'arco di pochi anni l'intelligenza artificiale generale, una intelligenza artificiale a livello di quella dell'uomo, sarebbe naturalmente emersa da tutto quel paniere di cianfrusaglie tecnologiche. Hofstadter scosse la testa e andò via più triste di quando era arrivato.
In definitiva, caro Idefix72, tu non hai sbagliato in niente, sei solo il prodotto di un ambiente che ti ha fornito strumenti e conoscenze per ottenere ciò che gli hai dato. Non c'è veramente nulla di cui tu ti possa rimproverare. Però puoi evolvere, se lo vuoi (ora che hai un po' di tempo libero).
Sta a te scegliere come.
Potrebbe interessarti
Design comportamentale nell'era dell'iperdigitale: come il design influisce sull'economia dell'attenzione
Daniel Casarin mag 15, 2024
Il diluvio
Alessandro Agrati apr 22, 2024
Adempimenti tecnico-giuridici nell’ambito di una violazione di dati personali
Lorenzo Mulazzi mag 30, 2023