Io ci ho provato tante volte, alcuni anni fa abbiamo bevuto un caffè insieme, a volte se consegnavano all’ora di pranzo anche un panino. Ora non più. Non possono permetterselo.
I dipendenti dei magazzini vengono monitorati tramite telecamere e scanner e le loro prestazioni vengono misurate rispetto a dei benchmark precisi che definiscono, in base a dati aggregati raccolti tra tutti i lavoratori, quanto tempo è necessario per fare qualsiasi attività. Alcuni conducenti in Giappone hanno protestato perché affermano che il software di Amazon li ha inviati su “percorsi impossibili”, portando a “richieste irragionevoli e orari lunghi”. Nonostante questo i lavoratori sono sempre trattati come macchine. Oltre a tracciare i lavoratori attraverso scanner e telecamere, l’anno scorso l’azienda, afferma la rivista Vice, ha richiesto ai conducenti di consegna negli Stati Uniti di firmare un modulo di “consenso biometrico”, concedendo ad Amazon il permesso di utilizzare telecamere aiutate dall’intelligenza artificiale per monitorare i movimenti dei conducenti. Problemi di sicurezza; come evitare di essere troppo distratti, per eccesso di velocità e utilizzare le cinture di sicurezza. Le aspettative a volte impossibili sui tempi di consegna spingono molti conducenti ad adottare misure rischiose per assicurarsi di consegnare il numero di pacchi loro assegnato per la giornata. Ad esempio, il tempo impiegato da qualcuno per allacciare e slacciare la cintura di sicurezza circa 90-300 volte al giorno è sufficiente per accumulare minuti di ritardo preziosi per la propria busta paga. I sindacati temono che il riconoscimento facciale e altri dati biometrici possano essere utilizzati per perfezionare gli strumenti di sorveglianza sui lavoratori o addestrare sempre meglio l’IA, che un giorno potrebbe sostituirli; Amazon in un comunicato ha negato tutto questo. E questo è solo uno dei migliaia di casi in cui ormai c’è una forte relazione tra lavoratori e intelligenza artificiale.
C’è dunque un problema più importante dell’etica del digitale e della IA. Ѐ l’etica del lavoro sotto il controllo della AI. Stare sotto padrone si diceva una volta, ora quel padrone è l’AI. Lo sfruttamento del lavoro non è mai stato, tranne rare eccezioni, centrale nel discorso che circonda lo sviluppo etico e la diffusione dei sistemi di IA.
L’idea di macchine super intelligenti con la propria coscienza e libero arbitrio, vicina solo alla cultura pop, a molti film e qualche libro, non solo è lontana dalla realtà, ma ci distrae dai rischi reali per le vite umane che ogni giorno si trovano davanti l’intelligenza artificiale quando lavorano. Mentre il pubblico è distratto dallo spettro di macchine senzienti e inesistenti, un esercito di lavoratori, spesso precari, guarda l’intelligenza artificiale che spreme loro ogni secondo della loro vita. Ѐ il tempo, il lavoro fantasma, come lo definiscono l’antropologa Mary L. Gray e lo scienziato sociale computazionale Siddharth Suri, che ha creato una nuova sottoclasse globale del lavoro umano ormai ridotto ai minimi termini, fantasma, guidato dall’intelligenza artificiale.
Lontani dall’essere macchine molto intelligenti e senzienti, secondo le ultime dichiarazioni di alcuni scienziati di Google, i presunti sistemi di intelligenza artificiale sono alimentati da milioni di lavoratori sottopagati in tutto il mondo, che svolgono compiti ripetitivi in condizioni di lavoro precarie.
Con l’introduzione nel 2005 di Mechanical Turk, le difficili attività che chiedevano l’organizzazione di grandi quantità di lavoro umano per la raccolta di milioni di dati divennero improvvisamente fattibili; come milioni di immagini taggate automaticamente da migliaia di persone anonime che lavorano in parallelo, ciascuna etichettando solo un migliaio di immagini. Nel 2012 poi arrivò AlexNetha e oggi i modelli che richiedono molti dati, etichettati da lavoratori a basso salario in tutto il mondo, sono decine e di proprietà quasi esclusiva delle grandi multinazionali. Oltre a etichettare i dati prelevati da Internet, alcune piattaforme prevedono che i gig worker forniscano i loro stessi dati, caricando selfie, foto di amici e familiari o immagini degli oggetti che li circondano.
Queste aziende stanno raccogliendo decine, centinaia di milioni di fondi di investimento, mentre molte analisi stimano che i data labelers guadagnino in media 1,80 dollari per attività. Le interfacce delle piattaforma di tag dei dati si sono evolute e trattano i crowdworker come fossero minuscole intelligenze artificiali, ordinando loro compiti altamente ripetitivi, sorvegliandone i movimenti e punendo ogni distrazione. Le grandi aziende che affermano di avere una grande intelligenza artificiale sono alimentate da questo esercito di lavoratori sottopagati, come addetti ai dati, moderatori di contenuti, magazzinieri e autisti delle consegne.
Ogni video di abuso e di violenze di ogni tipo è stato visualizzato e segnalato da un moderatore dei contenuti o da un sistema automatizzato formato dai dati molto probabilmente forniti da un moderatore dei contenuti. Questi lavoratori sono monitorati e puniti se impiegano anche una piccola parte del loro tempo in maniera diversa. Un’ inchiesta del Time ha descritto come i moderatori dei contenuti Sama incaricati da Meta in Kenya siano monitorati tramite un software di sorveglianza per assicurarsi che prendano decisioni sulla violenza nei video entro 50 secondi, indipendentemente dalla lunghezza del video o da quanto sia violento.
Se le aziende che si occupano utilizzando i grandi dati di analisi descrittive, prescrittivi e predittive proponessero condizioni di lavoro diverse per la loro sotto classe di lavoratori, la tecnologia usata forse non crescerebbe in maniera così esponenziale ma restituirebbero dignità e vita al lavoro di queste donne e questi uomini. Non basta la ricerca accademica di un’etica del digitale e della intelligenza artificiale; c’è bisogno di un confronto, un patto tra lavoratori e aziende, non è importante vincere ma è importante che a vincere non sia l’intelligenza artificiale.