AI, lavoro e formazione

di Mario Rasetti, CENTAI Institute, Torino

Iniziamo col ricordare quello che è oggi il contesto socio-ambientaledella rivoluzione digitale tra Big Data e Internet delle Cose (IoT): un’economia globale che vista come sistema dinamico è quello che gli scienziati chiamano un sistema ‘iperbolico’ (cioè tutti i suoi punti di equilibrio sono instabili; si muove come un funambolo che cammina sul filo); due tremendi stressor in azione: uno endogeno (il Covid), l’altro esogeno (la guerra Russia-Ukraina) con le loro drammatiche conseguenze, anche culturali e psicologiche; la sostenibilità a rischio in tutti i settori chiave: ambiente, risorse, clima, geo-politica In questo quadro così cupo, l’unico elemento positivo è la crescita tumultuosa dell’intelligenza artificiale (AI), che sola può aiutarci a trovare soluzioni.

La premessa obbligatoria infatti è che comunque vadano le cose ci sarà moltissima AI nel nostro futuro. Ed è quella che ci farà cambiare il modo di vivere, di lavorare, di curarci, di divertirci, di rapportarci con gli altri esseri umani cui siamo abituati. Già oggi alcune applicazioni si stanno rivelando cruciali. Nel settore della salute – ad esempio – abbiamo imboccato, in modo ormai irreversibile, la strada verso una medicina ‘di precisione’. Con una AI capace di diagnosi raffinate (con software di grande duttilità ed efficacia, basati sulla conoscenza di praticamente tutta la letteratura medica rilevante degli ultimi decenni e sul profilo digitale dei pazienti) essa fornirà ai medici del futuro con uno strumento diagnostico senza precedenti. Nella difesa dell’ambiente l’AI ci darà metodi di analisi e di intervento straordinari. Alcuni esempi significativi: l’ “atlante degli alberi” messo a punto dall’Istituto Svedese per l’Ambiente, che censisce tutti gli alberi esistenti sulle terre emerse del pianeta e ne determina la specie e lo stato di salute, su una scala di poche decine di metri; nell’economia e nella finanza le macchine intelligenti che ci fanno penetrare le ‘scatole nere’ dei processi e conoscere i complessi, non facilmente immaginabili intrecci fra i numerosissimi fattori che ne determinano la dinamica, fornendo ai decisori una conoscenza fedele e accuratissima del sistema socio-economico, che permetterà loro di fare scelte razionali e informate, col massimo beneficio per tutti.

Nel sistema della formazione consentirà di realizzare nuove metodologie di insegnamento (multi-mediali, fruibili a tempo pieno, ‘su misura’ dei singoli allievi) in grado di adattarsi alle capacità di apprendimento degli studenti e di ottimizzare l’efficacia dei loro percorsi individuali. Ma la troveremo anche dove non pensiamo: la creatività, in una forma che non sarà soltanto la capacità di riprodurre le cose che l’uomo sa fare ma avrà una (tante) sua specificità in campo sia artistico come industriale; e la qualità della vita: dalla domotica ai trasporti, dai viaggi e il turismo alla cultura e al training fisico e chissà quanto altro, ma soprattutto al lavoro. L’imperativo che ci confronta è di farla evolvere in modi e forme che da un lato siano coerenti con quei principi etici cui la nostra società non può (e non deve) non aderire se vuole avere un futuro accettabile, dall’altro ci aiutino a realizzare un nuovo modello di società, che di tutto questo faccia un motore di evoluzione e di vero progresso.   

In questo quadro di futuro (un futuro in parte di fatto già presente ora), l’AI giocherà un ruolo cruciale nel ridare forma all’intera complessa catena di relazioni che lega il mondo della produzione al mercato, le aziende ai clienti, gli individui al mondo in cui vivono, sia esso l’ambiente naturale o la società. Un vero e proprio ventaglio di compiti, ad un estremo del quale vedremo sempre più modificati dall’intervento di macchine ‘intelligenti’ i processi col controllo dell’AI di approvvigionamento e di produzione, tramite nuove tecnologie sofisticate che richiedono esse stesse nuove razionalità e ‘skill’ operativi; nel centro le procedure, ad esempio nel commercio, di interazione con l’utente per guidarlo nell’imparare a scegliere e far funzionare ciò che fa o acquista  – soprattutto nella direzione di rendere i processi sempre più ‘ad personam’; all’altro estremo i meccanismi di quella complessa catena di relazioni che legano in un unico groviglio conoscitivo e comunicativo i processi cognitivi, produttivi e commerciali (il marketing).

Due esempi, interessanti ed inquietanti: non molti mesi fa la invasiva Amazon ha brevettato un algoritmo capace di valutare – attraverso il monitoraggio delle attività in rete delle persone – il momento in cui un singolo potenziale cliente è ‘maturo’ per un acquisto ed esattamente in quel momento gli consegna l’articolo desiderato. Nei primi mesi di funzionamento solo una esigua percentuale dei clienti interessati ha rifiutato la consegna di un articolo che non aveva ancora ordinato, mentre la stragrande maggioranza ha accettato di ritirare (e pagare) un acquisto mai deciso.

L’altro esempio riguarda JP Morgan una delle prime banche al mondo, ha messo in opera una macchina AI – si chiama COIN, che sta per ‘COntract INtelligence’ – per gestire i contratti che la banca conclude. Nei primi tre anni di funzionamento, confrontando i risultati con quelli del passato recente o con quelli gestiti per via ordinaria, è risultato che mentre i contratti chiusi dalla macchina sono stati in stragrande maggioranza più favorevoli sia per la banca che per i clienti (COIN sa esplorare soluzioni che un essere umano non riesce a considerare, perché troppo complessi da analizzare), rispetto alle risorse umane necessarie per portare a conclusione un contratto – che JP Morgan stima in trenta ore/uomo – la macchina ha dato performance efficienti in misura inquietante: circa tre millesimi di secondo in media, che contro le 30 ore/uomo sono in un rapporto uno a quaranta milioni!

Dunque è il lavoro il vero nodo chiave che dobbiamo sciogliere.

AI e automazione (che ne è la diretta conseguenza) non diminuiscono la richiesta di lavoro: anche questa tecnologia, infatti, come tutte le nuove tecnologie nel corso dell’intera storia dell’umanità, crea più posti di lavoro di quanti ne distrugga, però fa questo al costo della richiesta ai nuovi lavoratori di competenze molto più impegnative: alza l’asticella degli skill necessari. Il problema lavoro porta così con sé in modo naturale e inevitabile un’altra questione cruciale ad esso strettamente accoppiata: la formazione; sia quella che ha luogo nel sistema scolastico/universitario sia quella permanente. La durata media degli studi diventerà presto (forse già lo è) maggiore della durata del ciclo di rinnovo dei tipi di lavoro (oggi di circa otto anni, ma diminuisce rapidamente), e il nostro sistema scolastico rischia di preparare i giovani studenti a saper eseguire lavori che quando loro si proporranno sul mercato esisteranno più. Per questo la prima domanda che ci si deve porre è: come interagirà l’AI con quella umana? Rischiamo un conflitto impari il cui effetto sia che le macchine si approprino del controllo e da cui gli esseri umani rischino di uscire sconfitti, addirittura asserviti?           

In una delle sue ‘Bustine di Minerva’ del 1991, dal significativo titolo “Perché i libri allungano la vita”, Umberto Eco scriveva: «Quando oggi si leggono articoli preoccupati per l’avvenire dell’intelligenza umana di fronte a nuove macchine che si apprestano a sostituire la nostra memoria, si avverte un’aria di famiglia. Chi ne sa qualcosa riconosce subito quel passo del Fedro platonico, … in cui il faraone, al dio Toth inventore della scrittura, chiede preoccupato se quel diabolico dispositivo non renderà l’uomo disadatto a ricordare e quindi a pensare.   Lo stesso moto di terrore deve aver colto chi ha visto per la prima volta la ruota. Avrà pensato che avremmo disimparato a camminare».

Naturalmente le macchine cui Eco faceva riferimento erano i computer, la cui principale capacità era di offrire una capienza di memoria mai vista prima, una memoria che variava fra i 64 e i 512 kilo-Byte. Un ‘Byte’ corrisponde essenzialmente a un carattere. Oggi i nostri laptop arrivano facilmente a numerosi tera-Byte (un ‘tera’ è uguale a 1000 giga! … due milioni di volte più delle macchine che meravigliavano Eco).

Qualche anno prima, nel 1983, aveva fatto epoca un’opera – che Eco conosceva molto bene – la seconda edizione della monumentale “Printing and the Mind of Man”, curata da J. Carter e P.H. Muir, che di fatto identificava nella stampa un passaggio critico nell’evoluzione dell’uomo, tramite la creazione di uno strumento che permetteva di consegnare a tutti gli esseri umani il patrimonio prezioso della loro cultura e preservarlo nella memoria, conservandolo e trasmettendolo sì da farne appunto strumento di evoluzione, radicato nella capacità di muoversi nel labirinto di tutto quell’immenso sapere. Quel libro (il riferimento al quale, abbreviato in PMM, è oggi la referenza in assoluto più usata nella tassonomia delle opere a stampa) era una fonte stupefacente per le memorie dei mirabolanti computer di Eco. Oggi quel testo è parte quasi infinitesime di Wikipedia!

Gli scienziati da sempre considerano i ‘dati’ (in inglese – in realtà latino! – ‘data’ è il nome che viene usato) come strumento chiave del loro lavoro; quelle sequenze di numeri, grafici, tabelle, immagini che riescono a rappresentare i risultati degli esperimenti, vuoi in laboratorio che sul campo, così bene da permettere loro di formulare teorie. Con l’inatteso progresso mozzafiato e inarrestabile della potenza della tecnologia digitale, del calcolo HPC (high performance computing, il calcolo ad altissime prestazioni), la parola ‘data’ (spesso ‘big data’) come è intesa oggi, si riferisce ormai non più soltanto a quegli strumenti rigorosi di indagine della natura e delle sue leggi che la scienza ha costruito nei secoli, ma a tutti quelli (testi, immagini, filmati, … ) che nel mondo contemporaneo sono veicoli della comunicazione, che ci aiutano a condividere, elaborare, trasmettere informazioni in forma digitale nella società. Non è naturalmente un travisamento del concetto; la differenza, di fatto irrilevante, è che in questa nuova accezione questi dati non sono generati a partire da un processo a priori ben progettato, controllato e ripetibile, l’esperimento scientifico, ma da quel complesso intreccio di fatti, di eventi, di relazioni individuali intorno a cui ruota la società degli uomini. Obiettivo della scienza dei dati è quello di riuscire ad estrarre da questa immensa collezione di Byte (i Byte, che come abbiamo detto non sono che le piccole unità con le quali, come se fossero lettere dell’alfabeto, è scritto in forma di codice il grande diario quotidiano della società degli umani) la preziosa informazione che essi contengono, specchio di come funziona l’intero sistema socio-economico-ambientale del pianeta Terra e darne una rappresentazione il più possibile fedele.

Usiamo l’espressione ‘Big Data’ perché la massa di dati oggi prodotta è incredibilmente grande, un vero e proprio tsunami che si abbatte ogni giorno con enorme forza d’impatto su di noi. Soltanto due numeri (dal rapporto annuale Cisco) per darne una idea più concreta. Nell’anno fra l’inizio di ottobre del 2021 e la fine di settembre 2022 sono stati prodotti dati per una quantità di circa 120 mila miliardi di giga-Byte (credo sia più rappresentativo far notare che 1000 miliardi di giga-Byte equivalgono più o meno, identificando un Byte con un carattere di stampa, a 360 miliardi di volte ‘Guerra e Pace’ di Tolstoj e noi umani abbiamo generato e distribuito via etere più di cento volte questo incommensurabile messaggio in un anno!). L’altro numero significativo per caratterizzare i big data è il cosiddetto tempo di raddoppio: il tempo nel quale viene prodotta una quantità di dati uguale a quella di tutta la storia dell’umanità fino a quel momento. Il tempo di raddoppio è ora di circa nove mesi. Stanno tuttavia entrando in gioco, frenetici generatori di dati, i dispositivi dell’Internet delle Cose (IoT), cioè quella miriade di sensori e macchine elettroniche che si inseriscono nella grande rete delle comunicazioni (si valuta 150 miliardi nei prossimi cinque anni; dalla domotica ai trasporti, dal sistema sanitario a quello energetico) e quel tempo in una manciata di anni si ridurrà a 12 ore: in mezza giornata produrremo tanti dati quanti in tutta la nostra storia fino al giorno prima! … con una connettività resa molto più complessa, perché tramite la enorme rete che ne risulterà gli uomini comunicheranno sì con altri uomini, ma anche con le macchine e le macchine con gli uomini, ma in più le macchine con le macchine.

Questi dati sono ricchi di valore intrinseco perché permettono una profonda analisi strutturale della società, delle sue fragilità e delle sue risorse, in tutti gli aspetti: economico, sociale, ambientale, climatico, ecc.; tutti così difficili da decifrare che l’uomo pur con le capacità straordinarie del suo cervello non ci riesce. È l’Intelligenza Artificiale l’unico strumento che ci può aiutare a districarci in questo labirinto, eliminando il rumore che tipicamente lo caratterizza; a muoverci senza troppe difficoltà in un mondo virtuale con un altissimo numero di dimensioni e uscirne avendone distillati i contenuti utili alla società.

L’intelligenza artificiale (sarebbe più corretto chiamarla, l’intelligenza delle macchine) non è o non è ancora una scienza nel senso stretto del temine: si può dire che assomiglia di più alla Wissenschaft di Feyerabend che non a quel processo creativo/conoscitivo così rigorosamente descritto da Popper e Kuhn che chiamiamo Scienza; uno straordinario ricettario che però è tanto più efficace quanto più bravo è lo chef che lo utilizza e che dà risultati diversi a seconda di chi è lo chef. Nella comunità scientifica dell’AI, dei sistemi complessi, dei big data, c’è in atto un crescente impegno di ricerca e di pensiero mirati a rendere sempre più l’AI una vera scienza, con rigorose basi metodologiche e concettuali.

Già facendo una fotografia dell’AI oggi, l’immagine che ne emerge è peraltro già talmente complessa e articolata che è necessario, per procedere, sapere molto bene che cosa essa sia e che cosa faccia, o sia in grado di fare, per noi.

Per quanto riguarda la formazione, è evidente che non basta insegnare i metodi, le tecniche, il linguaggio (che tale è: un sistema codificato di simboli con regole semantiche che li connettono) del digitale, perché non vogliamo creare con il digitale una società di computer scientist, bensì un nuovo umanesimo, come fece scrittura con la stampa a caratteri mobili dopo la storica invenzione di Gutenberg. Di fatto occorre cambiare i paradigmi dell’insegnamento. Siamo come nel Pleistocene/Olocene, quando i nostri antenati lontani che non erano ancora ma stavano iniziando a diventare homo sapiens sapevano che ai bambini si doveva insegnare soprattutto (anzi solo) a trasmettere abilità apprese per caso ma utili; venivano inferte punizioni a chi generava nuove idee, tant’è che il cervello è evoluto come organo di difesa dell’organismo, non di pensiero razionale. Ma poi lentamente quel cervello ha sviluppato la ‘Mente’: il pensiero razionale e l’autocoscienza. Che accadrà nell’Antropocene? Io credo che una mente ‘collettiva’ (integrata dall’AI) sarà il tratto caratteristico e il potente strumento di sopravvivenza dell’homo sapiens-sapiens-sapiens. Dovremo dunque iniziare creando nuovi oggetti di insegnamento:

  • la creatività – la capacità di portare ad esistere ‘cose’ nuove; con curiosità, libertà, intuizione, visione, coraggio, etica;
  • il lavoro collettivo – fondato su scambio e stimolo di nuovo pensiero: inter- e multi-disciplinarità; radicato nel pensiero collettivo;
  • la ridefinizione dei confini fra lavoro e tempo libero e dei modelli sociali.

L’AI ormai è così progredita che si possono individuare livelli diversi nelle modalità con cui opera, per classificare le quali oggi parliamo di AI bassa, forte, generale per caratterizzare che cosa fa una ‘macchina intelligente’:

  • Low AI: sostanzialmente sistemi esperti che usano la grandissima potenza della tecnologia digitale per affrontare scale di tempo e dimensione degli insiemi di dati trattati in pratica inaccessibili per l’uomo. Genera realtà virtuale, realtà aumentata e, più in genere, sistemi esperti in poche ma raffinate operazioni (esempi stupefacenti si trovano nella chirurgia, nella diagnostica medica e anche nei processi della scuola e della formazione);
  • Strong AI: in questo caso l’AI utilizza tecniche avanzate di logica formale, di teoria dei giochi, di teoria delle probabilità per sostenerci in processi decisionali complessi, nel definire strategie ottimali, nel generare soluzioni creative cui un essere umano non potrebbe arrivare in tempi limitati. Dunque opera in modalità multitasking; crea famiglie di modelli neurali di linguaggio conversazionale (quali il famoso LaMDA, Language Model for Dialogue Applications); esplora la capacità della comprensione automatizzata della causazione, dove le relazioni di prossimità sono relazioni di causa/effetto; inoltre sa realizzare lettura, interpretazione e sintesi di testi e schemi concettuali; il tutto come ausilio a processi decisionali, strategie ottimali, gestione di sistemi complessi. Persegue la rappresentazione dello ‘Human Behavior’ (il comportamento umano);
  • General AI: rappresenta e mira a riprodurre emozioni, sentimenti, etica intrinseca, estetica condivisibile, … auto-coscienza (cioè quelle funzioni della corteccia cerebrale che chiamiamo Mente). È onnicomprensiva: è il livello più ambizioso di tutti, nel quale la sfida finale è di arrivare a costruire una macchina capace di compiere almeno alcune fra quelle funzioni alte del cervello. Io credo che non ci arriveremo mai, ma arriveremo gradualmente ad approssimazioni sempre più accurate ma non mai complete: il cervello tuttavia è irripetibile!             

L’AI ha strumenti caratteristici – generatori di dati – che l’alimentano: sensori, sonde in grado di esplorare tutto il sistema che ci interessa e rappresentarlo: con numeri, con linguaggi naturali scritti o parlati, con immagini statiche o in movimento, con l’output di qualsiasi strumento capace reagire al mondo circostante fornendone alla macchina una misura o valutazione di qualche genere e dunque facendo ricorso anche alla chimica, alla biologia, alla psicologia…

In altre parole l’AI è come un grande polpo che esplora il mondo con i suoi numerosi tentacoli (ben più di otto!), per estrarne dati. Su questi dati la macchina intelligente compie una serie di operazioni che sono sempre le stesse qualunque sia la natura del sistema analizzato. Innanzitutto, primo passo, cercare quelle trame di relazioni (ad esempio di causa-effetto, ma non solo) che sono di fatto i sotto-insiemi in cui è codificata l’informazione, la quale proprio quello è: dati correlati. Tale operazione viene eseguita con tecniche diverse, spesso identificate con l’AI stessa, anche se ne rappresentano solo uno strumento parziale: il ‘machine learning’ (dove la macchina impara a trovare le correlazioni su di un piccolo sottoinsieme di dati, il ‘training set’, e poi estende le regole così individuate all’intero insieme, operando aggiustamenti se trova contraddizioni o irregolarità); il ‘deep learning’, che altro non è che un machine learning iterato più volte, dove ad ogni passo il processo opera sui risultati del passo precedente, raffinandoli con un sistema di incentivi/punizioni per renderlo più efficiente; l’analisi topologica dei dati, che persegue l’ambizioso obiettivo di estrarre dai dati non solo la risposta alle domande formulate dallo ‘chef’ (l’ontologia) ma indicazioni sulle domande da porre. Il secondo passo è formalmente simile al primo: gli stessi metodi e tecniche che invece di operare sui dati iniziali lavorano sulle trame di informazione individuate dal passo precedente, per acquisire una conoscenza fedele del sistema. Di fatto, quella che chiamiamo conoscenza altro non è che informazioni correlate: dunque acquisiamo la conoscenza di quel sistema che i dati ci raccontano. Il terzo passo del processo non è più di pura analisi ma di sintesi. Da quella rappresentazione virtuale fedele del sistema che abbiamo costruito con i primi due passi si ottiene – tipicamente in forma di algoritmo, non di equazione, per l’ingestibile complessità e il numero enorme dei gradi di libertà necessari per descriverlo – un modello matematico del sistema stesso, capace di rappresentarne il complicato intreccio di relazioni che lo caratterizzano, che però ora conosciamo. Tale modello ci consente altresì di creare scenari di risposta a quegli interventi che volessimo sperimentare, fornendo ai decisori di ogni genere uno strumento prezioso di guida e sostegno nel prendere le decisioni.

Dunque, l’AI è una metodologia digitale che basandosi sui dati sa percepire, apprendere, ragionare, prevedere, operare sulla realtà. È grazie a queste sue capacità ‘quasi umane’ che l’AI riesce a fare per noi due cose importanti: i) ci aiuta ad automatizzare operazioni complesse, che noi in linea di principio sapremmo affrontare usando il nostro cervello di esseri umani, la più straordinaria macchina che esista nell’universo conosciuto. La macchina intelligente però sa eseguirle su scale – in termini di numero di dati – enormemente più grandi e in tempi inimmaginabilmente più brevi, valutando situazioni, ottimizzando processi, operando sistemi esperti; e dunque ii) aumenta e potenzia le nostre capacità, dandoci una molto maggiore efficienza, creatività, sicurezza e, soprattutto, coerenza etica.         

È, quest’ultimo, un tema davvero delicato, che tocca gli aspetti più profondi del concetto di libertà da una parte e della nozione di riservatezza dall’altra e che ha risvolti di una portata che va addirittura oltre a questi, mettendo in discussione la definizione stessa di democrazia. Non dobbiamo mai dimenticare il dovere di vigilare su questi aspetti.