Intelligenza Artificiale: innovazione tecnologica e interrogativi etici

Giuseppe Tanzella-Nitti
In pillole
  • L’espressione "Intelligenza artificiale" (IA) viene usata per la prima volta nel 1956 dall’informatico statunitense John McCarthy.
  • Chi sostiene l’equivalenza fra intelligenza umana e processi eseguibili da macchine parte da un’assunzione filosofica a priori: tutte le attività del cervello umano sono riducibili ad una quantificazione fisico-matematica.
  • Nella IA non vi è un effettivo esercizio di intelligenza umana bensì capacità di svolgere operazioni a partire da dati quantitativi.
  • La forza dell'IA sta nella possibilità di analizzare dati e conoscenze in tempi rapidissimi.
  • Tale funzionamento è anche la sua debolezza perché, a differenza dell’intelligenza umana, l’IA non si interroga sulle cause che danno origine a determinati effetti, ma soltanto esamina degli eventi statisticamente associati fra loro.
  • L’intelligenza umana può operare mediante fini autonomi, mentre l’IA opera sempre mediante fini eteronomi.
  • Conoscendo il modo di operare dell’IA capiamo non solo che essa non può rimpiazzare la mente umana, ma anche la necessità che la mente umana, ovvero la libertà e la responsabilità del soggetto, debbano sempre affiancarla. 
  • Per una grande quantità di mansioni, l'IA offre un valido aiuto e soluzioni di grande efficienza che possono sensibilmente migliorare la qualità della vita umana.
  • Il diffuso impiego dell'IA ci obbliga a digitalizzare e a formalizzare una grande quantità di conoscenze, prima affidate a linguaggi analogici e non formali, causando una notevole trasformazione della nostra società e delle nostre relazioni.

L’espressione Intelligenza artificiale (IA) viene usata per la prima volta nel 1956 dall’informatico statunitense John McCarthy, in un convegno a Dartmouth (USA). In questo Convegno si stabilì di avviare un programma di ricerca volto a riprodurre facoltà umane come l’apprendimento, la memorizzazione e il processo decisionale a partire da algoritmi implementati su macchine calcolatrici.

L’esistenza di macchine programmabili e la stessa idea di automazione come “macchina che controlla altre macchine”, risalgono alla prima metà del Novecento, sebbene l’archetipo meccanico del moderno calcolatore elettronico nasca già a metà Ottocento, con il fisico inglese Charles Babbage (1791-1871). Le prime riflessioni che accostano i computer all’intelligenza umana furono invece proposte da Alan Turing in un noto articolo del 1950 intitolato Computing machinery and Intelligence. In seguito, nella seconda metà del Novecento fino ai nostri giorni, si avvicenderanno autori che oscilleranno fra posizioni scettiche e posizioni entusiastiche circa il fatto che l’IA risulti in grado di sostituire o superare l’intelligenza umana.

Coloro che sostengono a tutti costi l’equivalenza fra intelligenza umana e processi eseguibili da macchine automatiche, tirandone tutte le conseguenze del caso, partono da un’assunzione filosofica a priori: tutte le attività del cervello umano, ovvero il pensiero, sono riproducibili mediante sequenze di passi logico-formali, digitalizzabili, e dunque riproducibili da una macchina. Si tratta di una visione di carattere monista-materialista, che fa coincidere la mente dell’essere umano con il suo cervello e considera la biologia del cervello del tutto riducibile ad una quantificazione fisico-matematica.

È facile comprendere come l’accostamento fra attività umana e attività delle macchine si basa su una visione piuttosto riduttiva della nozione di intelligenza. Non è un caso che, secondo la definizione associata al Test di Turing, una macchina è detta “intelligente” se un essere umano è incapace di distinguere tra il suo comportamento e il comportamento di un essere umano ordinario. Si badi bene che con il termine “comportamento” non si indica qui la fenomenologia globale di un essere umano – come i suoi sentimenti, la sua creatività, o il suo senso religioso, per fare solo degli esempi – ma solo gli aspetti intellettuali formalizzabili e riproducibili da una macchina, come: tradurre una frase in una lingua straniera, riconoscere un’immagine, risolvere un’equazione matematica, ecc.

Chi oggi lavora nell’ambito dell’IA e ne arricchisce le potenzialità, non è tuttavia interessato a sottoscrivere o a dimostrare un’impostazione filosofica materialista o riduzionista della mente umana. Chi sviluppa l’IA studia l’apprendimento umano, il nostro modo di fare esperienza, le reti neurali e il funzionamento cervello in genere, al solo scopo di imitare questi processi nelle macchine. Ciò viene fatto per fini pragmatici, ovvero risolvere problemi e prendere decisioni. Chi parla di “intelligenza artificiale” non è interessato ad una gara fra l’uomo e la macchina, ma solo a far funzionare al meglio le macchine imitando il più possibile ciò che farebbe l’essere umano. Esistono certamente delle gare fra l’uomo e la macchina, come le partite di scacchi, ma il motivo per cui queste gare le vincono quasi sempre le macchine è perché si possono giocare solo quelle gare adatte a una macchina. Gareggiare a comporre la Divina commedia o ad affrescare la Cappella Sistina, con tutto ciò che queste opere significano e sottendono, non sarebbe possibile.

Il sintagma “intelligenza artificiale”, sebbene ormai consolidato, dal punto di vista linguistico potrebbe essere fuorviante. In realtà, nelle varie forme di IA non vi è alcun esercizio di intelligenza umana (senso critico, immaginazione, genialità dell’intuizione, maturazione di un’autocoscienza), ma solo capacità di svolgere operazioni, acquisire obiettivi, fare esperienza o anche prendere decisioni a partire da dati quantitativi e mediante una logica di tipo formale e computazionale. L’IA possiede delle straordinarie e sofisticate capacità di agire, ma non la capacità di pensare in maniera critica. Se gli esseri umani hanno potuto dare origine ad una rivoluzione digitale è perché sono riusciti ad affidare alle macchine compiti che, per essere eseguiti, non avevano bisogno di capacità critica o di astrazione, cioè non avevano bisogno di essere “umanamente intelligenti”.

Grazie all’intelligenza artificiale siamo in grado di gestire delle macchine assai complesse, far loro apprendere delle informazioni dall’ambiente e interagire con esso. Ciò accade ormai con robot e androidi impiegati per vari scopi: trasporti, servizi, industria, sanità, logistica, addestramento, ma anche intrattenimento e compagnia.

Come già osservato, l’IA soddisfa il nostro desiderio di gestire in modo automatico, semplificandoli, numerosi processi prima affidati all’elaborazione responsabile dell’intelligenza umana. L’IA consente anche di ottenere risposte e prendere decisioni in tempi rapidissimi. Grazie all’IA, infatti, si può giungere a decisioni operative anche quando non si posseggono conoscenze di nessi causali, né di leggi teoretiche fondate. L’IA, infatti, lo fa semplicemente studiando le correlazioni presenti fra i dati e cercando la ricorrenza di forme (pattern) regolari.

Questo modo di procedere rappresenta al tempo stesso la forza e la debolezza dell’IA. È la sua forza perché, a differenza della mente umana, l’IA può analizzare molti più dati e conoscenze; è la sua debolezza perché, a differenza dell’intelligenza umana, l’IA non si interroga sulle cause che danno origine a determinati effetti, ma soltanto esamina degli eventi statisticamente associati fra loro, oppure valuta le probabilità di successo di una certa operazione.

I fini per i quali vengono oggi impiegate le risorse dell’IA e i loro campi di applicazione sono molteplici, consentendoci di svolgere attività che solo pochi decenni fa non avremmo mai potuto realizzare, né ipotizzare. Ne elenchiamo a mo’ di esempio alcune, fra le più rappresentative. Grazie all’IA, noi oggi possiamo:

– gestire in modo automatico molti processi prima affidati all’elaborazione di agenti umani (pubblica amministrazione; transazioni economico-finanziarie, centri di informazione; servizi in genere);

– prevedere il comportamento di sistemi fisici e sociali complessi, nei quali operano molti individui (sondaggi e proiezioni, trend sociali, previsioni economiche);

– incrociare un enorme numero di dati personali e di comportamenti per generare i profili di un gran numero di utenti e di consumatori (marketing mirato);

– monitorare i sintomi di un gran numero di pazienti, elaborare il risultato di screening massicci, fare previsioni sull’andamento di una malattia o il sorgere di un’epidemia;

– dare origine a modalità innovative di training e di apprendimento, sia in ambito cognitivo che pragmatico (istruzione scolastica, addestramento, ecc.)

– gestire la complessa logistica di operazioni di mercato a livello internazionale e globalizzato (consegna a domicilio in tutto il mondo);

- studiare l’andamento e le proiezioni dei mercati finanziari, ricevendo proposte di scelta per le nuove operazioni di compravendita;

– trattare testi digitali, controllare la loro correttezza grammaticale e sintattica, estrarre abstract, redigere rapporti, cercare dati pertinenti in enormi banche di dati, proporre traduzioni in decine di lingue diverse;

– gestire in remoto la conduzione di una casa (domotica);

– fornire previsioni sull’accadimento di attività geovulcaniche (terremoti ed eruzioni) e quello di fenomeni metereologici estremi;

– spostarci rapidamente sulla superficie terrestre lasciando che l’IA scelga i percorsi più rapidi e i mezzi più adatti alle nostre possibilità, fornendoci tutte le indicazioni del caso (Google maps).

Fra le finalità di progettazione dell’IA vanno inclusi scopi di sicurezza, come la lotta al terrorismo; ma anche scopi di carattere militare, di difesa come di offesa. Molti armamenti innovativi sono guidati da forme di IA ed è ancora all’IA che si chiede di prendere decisioni in merito a realizzare o meno una determinata operazione bellica.

I settori in cuil’IA viene oggi applicata, e lo sarà sempre di più in futuro, sono assai diversificati. In sostanza, ogniqualvolta vi è la necessità di gestire una grande mole di informazioni e di studiarne le caratteristiche al fine di formulare delle scelte, si mettono oggi in campo algoritmi che danno origine a processi automatici.

Tutto ciò viene senza dubbio in aiuto alla vita umana, offrendole nuove conoscenze e innumerevoli servizi, ma anche la condiziona fortemente, sia a livello individuale che sociale. Fra questi condizionamenti è oggi vivace il dibattito circa le conseguenze che lo sviluppo dell’IA potrebbe avere sugli attuali posti di lavoro e sulle nuove forme che il lavoro assumerà.

Le macchine non funzionano solo per le istruzioni che noi diamo loro (top-down), ma anche per l’esperienza che esse fanno e per una certa dose di iniziativa (bottom-up). Questa esperienza e questa iniziativa sono dovute alla loro capacità di apprendimento (machine learning), all’architettura delle loro reti neurali (deep learning) e alla presenza di algoritmi genetici o evolutivi (evolutionary algorithms). La macchina impara dai propri errori e raffina la sua ricerca; le reti neurali sono capaci di fare scelte innovative; gli algoritmi evolutivi imitano una sorta di selezione naturale che favorisce gli elementi e i processi di calcolo che hanno maggiore successo. In questo modo la macchina può adattarsi a nuove situazioni, fornire soluzioni a problemi inediti non previsti dal programmatore.

L’IA non è guidata solo dai processi logici formulati dal programmatore, ma soprattutto dai dati che essa cerca, esplora ed esamina (data driven). Questa IA “guidata dai dati” opera, fa esperienza e sceglie servendosi di enormi quantità di dati disponibili, che esamina statisticamente e impiega per prendere decisioni. Una differenza importante è che mentre una IA che lavora in modalità top-down consente di “saper spiegare” cosa la macchina fa e perché lo fa, una IA che lavora in modo bottom-up non è sempre in grado di farlo, perché costruisce essa stessa i suoi flussi logico-computazionali, lo fa lungo il tempo e in base ai processi che svolge.

Conoscendo il modo di operare dell’IA capiamo non solo che essa non può rimpiazzare la mente umana, ma anche la necessità che la mente umana, ovvero la libertà e la responsabilità del soggetto, debbano sempre affiancarla. Sono proprio le differenze rispetto alla mente umana, insieme ai limiti della logica computazionale e alla mancanza di trasparenza dei processi bottom-up a suggerire che una riflessione sulla IA non potrebbe mai limitarsi a studiare cosa l’IA può fare o cosa non può fare, ma deve anche riguardare cosa l’IA non deve fare.

Uno studio sul fenomeno dell’IA deve anche prendere in esame le implicazioni e le novità generate dalla “rivoluzione digitale” tuttora in corso.

In primo luogo, per nutrire l’IA occorre trasformare le conoscenze, le relazioni e i fini in informazioni quantitative; i colori diventano numeri, il valore di una relazione viene misurato da un indice numerico, il grado di verità di un’affermazione è stabilito dal numero di volte che un certo evento accade. Questa trasformazione è in certo modo una “riduzione”. Come ogni riduzione, essa mette fra parentesi qualcosa. Conoscenze e giudizi di ordine sintetico e analogico, abitualmente impiegati dalla mente umana, vengono progressivamente sostituiti da informazioni e da conoscenze di ordine formale-digitale. Qualcosa di simile avvenne nella rivoluzione scientifica del Seicento: per consentire al metodo scientifico di svilupparsi, le qualità vennero messe fra parentesi e si scelse di operare esclusivamente sulle quantità.

In secondo luogo, esiste uno stretto rapporto fra IA, organizzazione sociale e antropologia. Da alcuni decenni l’organizzazione sociale ha subito una fortissima spinta alla digitalizzazione e alla formalizzazione dei processi, delle relazioni e delle comunicazioni, perché questo è l’unico modo di poter demandare il nostro lavoro alle macchine. Di fatto, è il mondo che si sta adattando alle IA e non viceversa. Secondo alcuni autori, da alcuni decenni l’IA ha dato origine ad una “infosfera”, cioè un ambiente costituito da un numero enorme di informazioni che avvolgono la società umana e accompagnano le nostre vite.

In terzo luogo, stanno ormai sorgendo implicazioni sul nostro modo di intendere la conoscenza. Il paradigma classico della scienza, basato su osservazione, formulazione di modelli e teorie e loro verifica sperimentale, potrebbe venire soppiantato da un impiego diffuso dell’IA che privilegiasse analisi statistiche e simulazioni digitali. Secondo il nuovo paradigma del data science, sarebbe sempre possibile estrarre leggi e modelli di validità generale senza fare lo sforzo di ipotizzare o dedurre teorie (metodo ipotetico-deduttivo), ma solo giovandosi della disponibilità di enormi quantità di dati da analizzare statisticamente (inferenza statistica) e dell’impiego di algoritmi di apprendimento.

In tutte le questioni inerenti l’IA, la dimensione etica è intrinsecamente posta dal fatto che è sempre l’essere umano, non l’operare dell’IA, a stabilire i fini dei processi per cui le macchine vengono fatte funzionare. Mentre l’intelligenza umana, e in certo modo anche l’intelligenza animale, operano mediante fini autonomi, rispettivamente liberi oppure istintivi, l’IA opera sempre mediante fini eteronomi. I fini che regolano e dirigono i processi delle varie forme di IA sono fini che, in ultima analisi, le macchine non si sono date da sé ma hanno ricevuto da chi le ha progettate e programmate, anche se, per raggiungerli, si servono di meccanismi di apprendimento autonomo, talvolta seguendo strade, come abbiamo visto, che l’essere umano non è in grado di ricostruire.

Un gran numero di Aziende sta investendo moltissime risorse nello sviluppo della IA. Ciò ha fatto sì che la comunità internazionale si attrezzasse per regolamentare questo fenomeno, mossa dalla necessità di fornire regole chiare alle industrie e al mercato, e allo scopo di favorire rapporti trasparenti fra gli Stati, le Istituzioni e le Aziende. Esiste anche una riflessione internazionale sui principi etici da applicare all’impiego e allo sviluppo dell’IA, con tutti i limiti che derivano dal dover regolamentare un campo in rapida evoluzione. Le Nazioni Unite (ONU) hanno affidato ad un Comitato di esperti la preparazione di un Documento sull’IA (2024); la Commissione Europea ha pubblicato una Proposta quadro di regolamentazione sull'intelligenza artificiale (2023); gli Stati membri dell’Unesco hanno firmato una Raccomandazione sull’etica dell’intelligenza artificiale (2021).

Tracce di lavoro: 

Laboratorio interdisciplinare: insegnanti di diverse discipline – che includano filosofia, matematica, eventualmente informatica, diritto, religione – organizzino una tavola rotonda sulle maggiori differenze tra il modo di operare in maniera critica della mente umana e le modalità di funzionamento dell’Intelligenza Artificiale. Alla luce di queste differenze, si discuta su quali ambiti della vita politica e sociale non devono essere totalmente delegati a forme di Intelligenza Artificiale.

Discutiamone insieme: l’insegnante valuti insieme agli studenti quali sono gli aspetti della vita sociale e lavorativa che nei prossimi anni subiranno le maggiori trasformazioni a causa dell’Intelligenza Artificiale. In particolare si prendano in esame i casi in cui l'Intelligenza Artificiale si propone come alternativa alle interazioni reali tra le persone.

Approfondisci e rifletti: oltre a quelle citate nel Percorso tematico, lo studente faccia una ricerca sulle principali dichiarazioni e raccomandazioni sull’Intelligenza Artificiale pubblicate da organismi internazionali. Segnali poi il rapporto tra gli aspetti teorici (descrittivi) e gli aspetti pratici (normativi).

Per approfondire
Dal Dizionario Interdisciplinare: 
voci tratte da DISF e INTERS