Intelligenze alleate

Stefano Donati
Dottore in BioMolecular Nanotechnologies, Università del Salento e Istituto Italiano di Tecnologia

«L’Intelligenza Artificiale avrà sulle nostre società l’impatto che ebbe l’energia elettrica» così si è espresso recentemente il CEO di Google Sundar Pichai. Nonostante gli ultimi venti anni ci abbiano portato in tempi brevissimi alla nascita di Internet e all'ubiquità di computer un tempo inimmaginabilmente potenti con una profonda trasformazione della nostra economia e della nostra società, i cambiamenti che ci attendono potrebbero essere ancora più impattanti.

 

Partiamo dall’inizio. In piena seconda guerra mondiale i pionieristici Norbert Wiener e Alan Turing partoriscono l’idea di macchine autocontrollate e pensanti, ma bisogna aspettare gli anni ’50 perché si incominci a parlare di intelligenza artificiale vera e propria. Con il passare degli anni i campi coinvolti diventano sempre più ampi: si va dalla matematica alla filosofia, dalle neuroscienze alla linguistica. Da semplici elaboratori per calcoli aritmetici, i computer iniziano a gestire algoritmi per l’autoapprendimento e a giocare a scacchi. Oggi parlare di intelligenza artificiale equivale a parlare di machine learning, deep learning, reti neurali, reti semantiche, algoritmi genetici, computer vision, sistemi multiagente e sistemi esperti.

 

Fin dall’inizio ci si domandava se queste macchine cognitive avrebbero potuto simulare completamente le facoltà mentali umane (AI forte) o se ne avrebbero emulato semplicemente il comportamento (AI debole). Porsi questi interrogativi è in realtà un modo indiretto per riflettere sull’uomo. Premesso che non c’è attualmente ancora una teoria quantitativa dell’intelligenza, il rischio in agguato nella soggettivazione della macchina è quello di una conseguente oggettivazione dell’umano. Detto ciò, le obiezioni più profonde sono di natura matematica e filosofica. Le critiche fanno leva sull’incapacità delle macchine, anche quelle quantistico non-lineari o con feedback hardware-software, di tematizzare la loro presenza nel mondo mettendosi in discussione fino al punto di poter arrivare a superare il proprio contesto di partenza per collocarsi comunque in altri contesti di realtà che contengano eventualmente il primo. In sostanza si tratta di ammettere l'effettiva capacità del pensiero umano di superare i propri limiti pur conservando elementi permanenti.

 

Uno dei primi settori a venire trasformato sarà quello professionale. Potrebbero scomparire non solo i lavori di routine, la manodopera di basso livello per intenderci, già messi a rischio dai robot di prima generazione, ma soprattutto quelli creativi di medio-alto livello, i cosiddetti “colletti bianchi”: bancari, impiegati, radiologi, fisioterapisti. Prendere consapevolezza di questo in tempo può consentire di attuare adeguate politiche per la redistribuzione non solo del reddito, ma anche del lavoro stesso. Anche l’ingresso nel mondo del lavoro rischia di essere sempre più gestito da sofisticati algoritmi che selezionano le persone più idonee solo su una magra analisi dei curriculum trascurando le soft-skill. Capacità, quest’ultime, invece sempre più preziose per i lavori creativi. Più in generale l’industria 4.0 porterà ad una radicale innovazione organizzativa abbandonando l’obsoleto modello ford-taylorista basato sulla gerarchia e l’iper-specializzazione delle mansioni. In una società della conoscenza si valorizzeranno sempre più i comportamenti cooperativi e una cultura partecipativa tra coloro che operano all’interno della stessa azienda altrimenti le nuove macchine e piattaforme tecnologiche serviranno a ben poco. Già si impongono nuove figure intermedie come il facilitatore dell’innovazione, il responsabile per la protezione dei dati e l’esperto digitale. Rimane dunque fondamentale per le imprese investire in una re-ingegnerizzazione delle competenze combinando da un lato la tecnologia e dall’altro la dimensione sempre più relazionale, recuperare cioè l’idea di lavoro come occasione di trasformazione e di senso della persona.

 

La tele-riabilitazione eviterà di far spostare le persone fragili, mentre in ambito della prevenzione con marcatori e l’analisi del movimento le diagnosi saranno sempre più precoci. L’obiettivo non può essere aumentare la produttività del servizio, ma migliorarne la qualità. Una conseguenza importante della polifarmacia per un paziente è un rischio molto più elevato di effetti collaterali che sono causa di interazioni farmacologiche. Un sistema di intelligenza artificiale sarà in grado di predire, non semplicemente monitorare, i potenziali effetti collaterali delle combinazioni di farmaci. La prima domanda che dobbiamo farci è cosa comporti l'utilizzo di queste tecnologie nel criterio di autorità diagnostica: è il medico o la macchina che fa la diagnosi e prescrive la terapia?

 

I robot usciranno dalle fabbriche e verranno ad abitare nelle nostre case, nel nostro stesso corpo. A conclusione del prossimo anno saranno 42 milioni i robot di servizio e assistenza domestica venduti nel mondo. Secondo Maria Chiara Carozza, ex-rettore della Scuola Superiore Sant'Anna di Pisa, «i robot per l’assistenza di anziani e persone con disabilità sono uno dei mercati più promettenti dei prossimi vent’anni». Non sono quegli assistenti umanoidi che ci si immagina, saranno più probabilmente robot da tavolo con meno capacità motorie, ma più capacità cognitive e di ascolto in grado di suggerire ricette, ricordare l’ora delle medicine, controllare la domotica dell’abitazione. Sarà una robotica di consumo. Da un lato robot collaborativi e dall’altra robot indossabili. Esoscheletri e tute potranno alleviare la fatica e contrastare le malattie usuranti. L’importante è non pensare che si possa delegare interamente il mondo della cura alla tecnica, ne seguirebbe una sua svalutazione.

 

Con l’intelligenza artificiale da un paradigma deterministico del tipo “if this, then that”, si è passati ad uno più complesso dove si pone un problema alla macchina e la macchina offre la soluzione per la quale è stata addestrata. Questa dimensione autonoma della macchina rappresenta la relativa novità della questione tecnologica e fa sorgere numerosi problemi etici: cosa possiamo affidare alla macchina? E che cosa accade se la macchina fa una scelta sbagliata? Può un’AI fare una scelta perfetta? Il tema etico si condensa quindi proprio su questa non prevedibilità a priori delle scelte della macchina e su come e in che misura saremo disposti a tollerare gli eventuali errori della macchina. Molti data-scientist della Silicon Valley ritengono che sia solo questione di dati, ossia quando ne avremo un numero sufficiente la scelta della macchina sarà perfetta. Tuttavia quando vengono fatte queste affermazioni si trascura il fatto che si sta operando con mappe a priori, cioè rappresentazioni della realtà, non è quindi possibile eliminare la possibilità di sbaglio. Tutto ciò fa emergere il bisogno di un nuovo paradigma per un’etica ai tempi degli algoritmi intelligenti. La macchina lavora su valori numerici, il valore etico no; quindi c’è bisogno di far incontrare il valore morale con il valore numerico. Un primo passo potrebbe essere quello di dotarsi di ethical manager nel settore dell’AI in questo modo l’etica entrerebbe a far parte della progettazione fin dall’inizio. Un ulteriore passo potrebbe essere quello di dare alla macchina un senso dell’incertezza mediante delle librerie statistiche e se questa certezza non fosse piena allora dovrà coinvolgere l’uomo per validare la sua decisione, così facendo stiamo creando un human-centered design, un progetto con l’uomo al centro.

 

Se l'intelligenza artificiale sarà il grande progresso tecnologico generale del nostro tempo, potrà aiutarci a risolvere i problemi globali o rimarrà confinata in un ambiente industriale commerciale come strumento di business? L’AI ha il potenziale per far compiere all'umanità passi in avanti nel risolvere le maggiori sfide della nostra civiltà, dai cambiamenti climatici alla salute pubblica, dai conflitti armati fino alla povertà. Per tutelare questa possibile vocazione filantropica è bene tener presente alcuni punti. Innanzitutto affiancarci non delle macchine che pensano come noi o fanno ciò che noi facciamo, ma macchine che pensano in modi che non possiamo concepire e fanno ciò che noi non possiamo fare.

 

Dunque costruire un'AI per amplificare non per sostituire l’uomo, per renderci cioè più umani. Quindi non in competizione ma in collaborazione. In un ambiente misto uomo-robot per cooperare alle AI serve intuizione. Solo se le macchine sapranno capire l’uomo e assecondare il suo agire potremo veder rispettati l’ingegno e la duttilità umana dove è la macchina ad adattarsi all’uomo e non viceversa. Inoltre è richiesta intellegibilità e adattabilità, la persona che condivide lo stesso ambiente deve sempre essere in grado di intuire qual è l’azione che la macchina sta per compiere. L’uomo non essendo solo un essere razionale, ma anche emotivo, necessita di poter interagire con macchine che sappiano adattarsi alla sua personalità. Pertanto la più importante finalità che deve caratterizzare gli algoritmi non è l’ottimizzazione dell’azione della macchina, bensì il rispetto dell’uomo che la affianca. In altre parole, la macchina deve possedere una sorta di umiltà artificiale. Su un altro versante, l'AI sta dando forma a decisioni in cui sono in gioco vite e mezzi di sussistenza: condanne penali, affidabilità per ricevere un prestito, assunzioni, licenziamenti, investimenti finanziari, diagnosi mediche e trasporti autonomi. L’UE fa fronte in anticipo a questo garantendo ai suoi cittadini un “diritto alla spiegazione”, il diritto cioè di non essere soggetti a decisioni prese da sistemi automatizzati. Tuttavia come attuali e futuri consumatori possiamo esigere dalle case produttrici algoritmi trasparenti interpretabili in tempo reale. Per fare questo servono algoritmi valutativi indipendenti e affidati ad enti terzi certificatori che si facciano garanti di questo, un po’ come già avviene con i requisiti di conformità per un prodotto commerciale.

 

Ultimo aspetto, gli algoritmi addestrandosi su un campione di dati scelto dagli sviluppatori possono alla lunga codificare e includere i pregiudizi dei loro creatori. A questo si affianca il crescente monopolio delle più grandi aziende tecnologiche, le cosiddette sei sorelle del Big-Tech, che tentano di accaparrarsi buona parte del settore dell’AI. Il rischio in questo caso è in termini di democraticità oltre che di biodiversità culturale. Di buon auspicio potrebbe essere la creazione di un grande centro di ricerca intracomunitario europeo sull’AI in grado di competere con gli investimenti di Stati Uniti e Cina.