Etica dell’intelligenza artificiale. Sviluppi, opportunità, sfide

tit. or.: The Ethics of Artificial Intelligence. Principles, Challenges, and Opportunities, Oxford University Press, Oxford 2022

 

L’Autore

Luciano Floridi, nato a Roma nel 1964, è fra gli autori che hanno dato origine, con le loro ricerche, ad un nuovo ambito di studi che applica la riflessione filosofica al trattamento dell’informazione e dei processi informatici. Viene infatti considerato fra i fondatori della contemporanea filosofia dell’informazione e dell’etica informatica. Laureatosi alla Sapienza a Roma e conseguito un dottorato di ricerca a Warwick (Coventry, UK), ha inizialmente insegnato a Bari, per spostare poi la sua principale sede di lavoro in Inghilterra. Nominato professore ordinario di Filosofia ed Etica dell’Informazione

all’Università di Oxford, nella stessa città inglese ha diretto il Digital Ethics Laboratory. Nel 2024 lascia Oxford per trasferirsi a Yale, per dirigere un analogo centro di studi di etica digitale. Attualmente insegna anche Sociologia della Cultura e della Comunicazione all’Università di Bologna. Floridi giunge all’etica e alla filosofia dell’informazione provenendo da un percorso di Logica e di Filosofia della scienza, durante il quale si è intrattenuto anche sul concetto di forma e di causa formale nei fenomeni studiati dalle scienze naturali. La sua riflessione filosofica sull’IA, però, è soprattutto guidata dal dialogo con la filosofia del diritto e la filosofia politica, mentre in altri autori prende di solito le mosse dalla logica e dalle questioni legate alla computabilità. L’impostazione prescelta e la sua opzione per il diritto e le questioni di governance hanno probabilmente fatto sì che il nostro A. divenisse in pochi anni fra i maggiori esperti al mondo di etica dell’IA. Insieme al filosofo della scienza Thomas Nagel, Floridi è al momento attuale (2024) il filosofo più citato nella letteratura scientifica e saggistica. Nella stessa collana di Raffaello Cortina, aveva pubblicato altri saggi su temi analoghi, in continuità con il presente: La quarta rivoluzione. Come l’infosfera sta trasformando il mondo (2017); Pensare l’infosfera. La filosofia come design concettuale (2020); Il verde e il blu. Idee ingenue per migliorare la politica (2020).

 

L’opera e i suoi contenuti

Il volume Etica dell’Intelligenza Artificiale è la traduzione italiana ridotta di un più corposo originale in lingua inglese, pubblicato anch’esso nel 2022, pochi mesi prima dell’edizione uscita nel nostro Paese. Il volume è fruibile da chi debba occuparsi di IA in qualche ambito dell’insegnamento, oppure come studente universitario, ma sarà apprezzato anche da tutti quei lettori  che sono al corrente dei problemi associati a questo argomento di grande attualità e ne seguono il dibattito pubblico. L’A. indirizza il lettore verso i capitoli essenziali dell’opera, guidandone lo studio e mostrandone l’articolazione interna. L’opera non contiene tecnicismi né formule, lavorando soprattutto attraverso un’ingente e documentatissima bibliografia e impiegando, quando necessario, schemi sinottici o flussi concettuali. Inoltre, ciascuno dei suoi 14 capitoli è introdotto da un Sommario rivolto anche ai non specialisti, che ne riepiloga i contenuti principali. L’A. stesso ne consiglia la lettura a coloro che non intendano avventurarsi lungo l’intero corpo del capitolo. La Prima Parte, intitolata “Comprendere l’Intelligenza artificiale”, consta di tre capitoli ed è essenziale per capire le considerazioni sviluppate nella Seconda Parte; quest’ultima, intitolata “Valutare l’Intelligenza Artificiale”, contiene i restanti undici capitoli. Va osservato che la Prima Parte, dallo stile espositivo lineare e di facile lettura, può da sola rappresentare una breve e interessante Introduzione al tema generale dell’IA. Il volume è corredato da quasi 40 pagine di bibliografia finale (pp. 347-384), che fa risparmiare allo studioso l’oneroso compito di raccogliere e scoprire quanto di importate sia stato detto sul tema. Siamo di fronte ad un’opera di lettura non immediata, ma scritta seriamente, ben strutturata, estremamente utile a chiunque debba insegnare o anche solo informarsi o informare su questa tema.

Come ben descritto dal titolo, la prospettiva entro la quale l’opera si muove è essenzialmente etica. Se il lettore apprenderà come l’IA lavora e le logiche che vi soggiacciono, lo farà perché l’A. desidera condurlo a considerare, appunto, quali siano le dimensioni etiche di questa fondamentale branca dell’informatica. Queste emergono con facilità quando si passa dalla domanda più comune, ovvero “come funziona?”, a quella umanamente più importante: “chi è responsabile del modo in cui funziona?”. Per questa ragione Floridi dedica un’attenzione tutta particolare a quello che va forse considerato il tema più delicato di tutta la riflessione etica sull’IA ovvero l’accountability, chi è responsabile di un determinato processo computazionale e delle conseguenze alle quali esso può condurre.

Dell’opera di Floridi si apprezza soprattutto l’equilibrio, in certo modo riflesso dal sottotitolo “sviluppi, opportunità, sfide”. La sua non è una trattazione ingenuamente ottimista ma neanche catastrofista. Coloro che sono preposti alla valutazione dei sistemi di IA, comprese le organizzazioni internazionali e i governi, sono giustamente posti in guardia, ma la comunità internazionale viene anche incoraggiata a conoscere più da vicino le potenzialità che emergono dall’impiego di questa nuova frontiera della tecnologia. Si sottolinea il divario incolmabile esistente fra l’intelligenza umana – intelligenza critica, riflessiva e deduttiva – e l’operatività tecnica delle macchine, ma al tempo stesso vengono illustrati i numerosissimi compiti che la macchina fa meglio di noi e prima di noi.

 

Le due tesi centrali di Floridi

L’idea che sostiene tutta l’opera viene così formulata da Floridi fin dalle sue prime battute: «la tesi centrale che sviluppo nel libro consiste nel dire che l’IA costituisce un divorzio senza precedenti fra l’intelligenza e la capacità di agire» (p. 13). Qui l’A. per “intelligenza” intende “intelligenza umana” e per “capacità di agire” intende l’operatività tipica della nostra specie, guidata da una riflessione fondata sul giudizio critico. Detto in altre parole: «Nell’IA, è il risultato che conta, non se l’agente o il suo comportamento sia intelligente. Per questo l’IA non concerne la capacità di riprodurre l’intelligenza umana, ma in realtà la capacità di farne a meno» (p. 52).

Per dimostrare questa tesi, Floridi dedica la prima parte del volume ad illustrare con precisione cosa sia l’IA e come essa lavori, per passare poi, nella seconda parte, a giudicare e valutare cosa l’IA possa fare (quasi tutto), cosa è conveniente e bene che faccia (cooperare alla costruzione di una società orientata al bene sociale) e cosa non debba invece fare (tutte le questioni necessariamente riservate a noi esseri umani). Sebbene l’espressione “IA” indichi una realtà ormai assai vasta, che va dai semplici dispositivi di uso personale a software capaci di gestire grandi aziende e orientare le loro scelte strategiche, il suo funzionamento è in fondo sempre lo stesso: elaborare mediante una logica quantitativo-computazionale le informazioni che l’essere umano gli fornisce o quelle che la macchina impara a procurarsi perché a ciò addestrata dall’uomo. Per quanto grandi siano i dati a disposizione (big data) e per quanto rapide ed efficienti siano le capacità di calcolo, l’IA opera sempre per inferenze statistiche e mai per deduzioni logiche fondate su astrazione. Per quanto complesse e articolate siano le sintassi che essa tratta e mediante le quali funziona, una macchina non produrrà mai una semantica, cioè dei significati. Così lo spiega il nostro A.: «Abbiamo strumenti statistici così sofisticati che tecnologie puramente sintattiche possono aggirare i problemi di significato, pertinenza, comprensione, verità, intelligenza, intuizione, esperienza e così via, e fornire comunque ciò di cui abbiamo bisogno: una traduzione, la giusta immagine di un luogo, il ristorante preferito, un libro interessante, un biglietto a un prezzo migliore, un affare decisamente scontato, la canzone adatta alle nostre preferenze musicali, un film che ci piace, una soluzione più economica, una strategia più efficace, informazioni essenziali per nuovi progetti, il design per nuovi prodotti, la lungimiranza necessaria per anticipare i problemi, una migliore diagnosi, l’elemento inaspettato di cui non sapevamo neppure di aver bisogno…» (p. 58). In sostanza rinunciamo ai significati (che la macchina non può fornire), o li mettiamo fra parentesi, per puntare tutto sulle informazioni necessarie per procedere (che la macchina ci fornisce con dovizia di particolari).

Il vasto impiego dell’IA, spiega Floridi, reca due importanti implicazioni. La prima è che, per far funzionare le macchine, noi uomini dobbiamo arretrare; dobbiamo cioè rinunciare a svolgere con intelligenza umana (creativa, responsabile, critica) le operazioni che intendiamo affidare alle macchine per farci guadagnare tempo (le macchine sono più rapide) oppure per ridurre le nostre fatiche (lavorano in modo automatico). Questo ha condotto, poco alla volta, a generare una “infosfera” formata da tutte le conoscenze che abbiamo dovuto digitalizzare affinché l’IA potesse trattarle. «Il successo dell’IA è in gran parte dovuto al fatto che stiamo costruendo un ambiente adattato a essa, in cui le tecnologie intelligenti si trovano a casa mentre noi siamo più simili a sommozzatori. È il mondo che si sta adattando all’IA e non viceversa» (p. 54). Situazione, va osservato, gravida di contraccolpi, come lo stesso Floridi riconosce: «Le conseguenze dell’avvolgere il mondo per trasformarlo in un luogo adattato all’IA sono molte […]. Ma un esempio in particolare è molto significativo e ricco di conseguenze, e può essere discusso qui a titolo di conclusione: gli esseri umani possono diventare inavvertitamente parte del meccanismo. Questo è proprio ciò che Kant raccomandata di non fare mai: trattare gli esseri umani solo come mezzi anziché come fini» (p. 59).

La seconda implicazione è che, per la soluzione dei problemi che noi affidiamo all’IA, la macchina non impiegherà una logica umana, critica e creativa, ma dovrà servirsi essenzialmente di correlazioni statistiche e di previsioni. In un gran numero di casi ciò risulta assai utile ed efficace, ma occorre riconoscere che presenta anche dei limiti. «L’IA non dovrebbe essere interpretata come un matrimonio tra un’intelligenza di tipo biologico e artefatti ingegnerizzati, ma come un divorzio tra l’agire e l’intelligenza, cioè una scissione tra la capacità di affrontare problemi e compiti con successo in vista di uno scopo e l’esigenza di essere intelligenti nel farlo» (p. 65).

Accanto alla “tesi del divorzio” fra intelligenza umana e tecnica va però riconosciuta una seconda tesi, anch’essa ben presente nel volume di Floridi: una volta compreso che l’IA non ci sostituisce, ma può aiutarci, e molto efficacemente, conviene allora concentrare i nostri sforzi verso un suo impiego saggio e ponderato. «Non ho mai sostenuto che le tecnologie digitali pensino meglio di noi, ma che possano fare sempre più cose meglio di come le facciamo noi senza pensare, limitandosi a elaborare quantità crescenti di dati in modo sempre più efficiente ed efficace» (p. 275). È questa potenzialità, innegabile, che va valorizzata, dando così origine a quella prospettiva oggi chiamata “AI4SG”, ovvero “intelligenza artificiale per un bene sociale”. L’IA, osserva opportunamente Luciano Floridi, «offre opportunità senza precedenti in molti ambiti e potrebbe rivelarsi di grande importanza, in un momento in cui i problemi sono sempre più globali, complessi, interconnessi» (p. 222). Dunque, non solo capacità di esaminare una gran mole di dati, ma anche capacità di gestire una grande quantità di relazioni e di implicazioni. Quest’ultima caratteristica rende i sistemi di IA particolarmente utili nella società globalizzata in cui viviamo. Sulla necessità di affrontare in modo interconnesso e responsabile i problemi complessi di portata planetaria ha negli scorsi decenni insistito anche la filosofia di Edgar Morin e, in Italia, la scuola che si rifà a Mauro Ceruti (cf. M. Ceruti, F. Bellusci, Umanizzare la modernità. Un nuovo modo di pensare il futuro, Raffaello Cortina, Milano 2023). Floridi si colloca nella medesima prospettiva, ricordando però che il valore delle applicazioni tecnologiche e informatiche volte alla soluzione dei complessi problemi planetari non potrà essere misurato sulla base degli abituali criteri quantitativi, come ad esempio criteri finanziari, di profitto o di prodotto interno lordo (PIL); le soluzioni vanno invece cercate e valutate adottando metriche basate sui beni relazionali, sul benessere ambientale, sulla qualità della vita.

 

Buone pratiche: uso dell’IA per il bene sociale

Floridi ritiene che la riflessione filosofica sull’IA debba operare principalmente sul piano etico, in particolare negli ambiti della filosofia e della politica del diritto. Egli non confina mai il ruolo della “filosofia del digitale” a questioni di logica o di critica della conoscenza. Ciò gli consente di dedicare i capitoli della seconda parte del volume a discutere i principi etici che dovrebbero guidare un corretto impiego dell’IA, tenendo conto di quanto già fatto dalle organizzazioni internazionali e di quanto resta ancora da fare. Egli affronta pertanto modalità e scenari della governance dell’IA, distinguendo con intelligenza le “cattive pratiche” dell’IA, che ne fanno un uso improprio, dalle “buone pratiche”, che si adoperano invece per studiare e progettare l’IA in favore del bene sociale. Floridi è persuaso che l’IA debba essere impiegata per migliorare l’agire umano senza rimuovere la responsabilità umana. Occorre impiegare l’IA per incrementare le capacità della società senza ridurre il controllo umano, anzi facendo in modo che essa favorisca la coesione sociale senza erodere l’autodeterminazione umana.

Confrontando fra loro le diverse Carte di principi etici sull’IA pubblicati dai più importanti organismi internazionali, ed unendovi il proprio contributo, il nostro A. propone un conciso riepilogo di quali dovrebbero essere, a suo giudizio, i cinque principi etici chiamati a guidare l’uso dei sistemi di IA (cf. pp. 92-101). Questi possono essere così richiamati: 1. Principio di beneficienza, che chiede alle applicazioni dell’IA di promuovere il benessere, rispettare la dignità della persona e sostenere il pianeta terra. 2. Principio di non maleficenza, che ha come prescrizioni rispettare la privacy, difendere la sicurezza dei singoli e della comunità e agire con cautela in previsione degli effetti dell’impiego dell’IA. 3. Principio di autonomia, che chiede che sia sempre l’essere umano a “decidere di decidere”, con libertà e responsabilità, senza lasciare che i processi automatici godano di un’autonomia incontrollata. 4. Principio di giustizia, in base al quale l’impiego dell’IA deve promuovere la prosperità e la solidarietà, deve evitare le disparità e l’iniquità. 5. Principio di esplicabilità o di trasparenza, un principio propriamente coniato per l’IA, che ha come fine rendere possibile l’analisi di tutti i passi che conducono l’IA ad operare una certa azione o formulare una certa decisione.

Il rispetto di quest’ultimo principio risulta essere assai delicato ed imporrebbe dei limiti significativi sia alla programmazione delle macchine, sia alla scelta dei processi che le fanno funzionare. Le forme di IA generativa (o “sottosimbolica”, per indicare che opera al di là del formalismo del linguaggio simbolico), come tutte le forme di apprendimento dai propri errori e dalle interazioni con l’ambiente, rendono più difficile soddisfarlo.«L’assenza di trasparenza è anche una caratteristica intrinseca degli algoritmi di autoapprendimento, che alterano la loro logica decisionale (producono nuovi insiemi di regole) durante il processo di apprendimento, rendendo difficile per gli sviluppatori mantenere una comprensione dettagliata del motivo per cui sono state apportate alcune modifiche specifiche» (p. 154). Dunque potremmo non essere più in grado di ricostruire i processi che la macchina ha “scelto” di adottare, costruendo essa stesso qualcosa che va al di là di quanto stabilito dal programmatore.

Una volta fatto lo sforzo di attrezzarci ad un impiego etico dell’IA, uomo e macchina possono lavorare insieme, su basi adeguate. È quanto Floridi fa nel cap. 11 dell’opera, dedicato a descrivere come società umana e IA potrebbero cooperare in modo davvero costruttivo, giungendo a formulare una serie di “Raccomandazioni per una società della Buona IA” (pp. 287-295). Ne vengono elencate 20: riportiamo e commentiamo brevemente alcune fra le più significative.

Una società dovrebbe in primo luogo valutare quali compiti e funzioni decisionali non dovrebbero mai essere delegati all’IA, munendosi nel contempo di strumenti legali per individuare gli errori commessi dall’IA e consentire una loro equa riparazione. Ciò si traduce, inevitabilmente, in vincoli precisi alla progettazione e alla programmazione, affinché sia sempre assicurata la “spiegabilità” (accountability) di quei sistemi di IA ai quali vengono affidate decisioni socialmente rilevanti. Diventa strategico, segnala Floridi, promuovere la fiducia del pubblico nell’IA, ma ciò può avvenire soltanto chiarendo a tutti quali sono i meccanismi di “riparazione dei danni” per gli errori e i torti causati dalla tecnologia, creando ruoli giuridici e nuovi protocolli adeguati a seconda dei casi, condivisi e accettati da tutti a livello internazionale. Quanto viene già fatto in altri campi, come ad esempio dalle agenzie internazionali che controllano le caratteristiche dei farmaci e approvano la loro la messa in commercio, dovrebbe essere in un prossimo futuro fatto anche per i sistemi di IA adibiti a specifiche applicazioni. È in particolare il mondo del lavoro che deve attrezzarsi sviluppando strumenti legali e modelli contrattuali capaci di guidare ed esprimere una collaborazione agile e gratificante fra uomo e macchine, includendo in queste ultime i sistemi di IA.

In secondo luogo, le società, i governi e gli organismi dovrebbero incentivare e finanziare l’impiego di sistemi di IA socialmente utili e capaci di essere valutati, nonché la promozione di ricerche interdisciplinari che studino come regolarne l’impiego. I governi e le organizzazioni internazionali dovrebbero inoltre sostenere lo sviluppo di codici e protocolli di condotta per quelle professioni che fanno uso massivo di big data, esplicitando quali doveri etici ne risultano collegati. Andrebbe sostenuta e incoraggiata la capacità dei consigli di amministrazione delle aziende di assumersi la responsabilità delle implicazioni etiche delle società tecnologiche che lavorano con IA. Questa crescita collettiva nella responsabilità dell’uso retto dell’IA diviene però possibile – osserva opportunamente l’A. nella ventesima e ultima raccomandazione – se verrà impartita una corrispondente istruzione e formazione a livello scolastico, universitario e professionale. Ciò può concretizzarsi nell’introduzione dell’informatica come disciplina di base obbligatoria per le scuole, nel promuovere programmi di qualificazione e aggiornamento per i dipendenti di aziende che si occupano di IA, nello sviluppare corsi per coloro che sono coinvolti in qualche fase della gestione della tecnologia, dai funzionari pubblici ai politici. È infine auspicabile, conclude Floridi, che si formulino autorevoli raccomandazioni per includere insegnamenti di etica e di diritti umani nella formazione dei data scientists e di tutti coloro che si occupano di sistemi computazionali e di IA.

 

Il matrimonio fra il Verde e il Blu, risposta al divorzio fra intelligenza e capacità di agire

Il capitolo conclusivo, intitolato “Il verde e il blu” ipotizza un matrimonio fra la sensibilità per la vita umana sull’intero pianeta guidata dalla necessità di politiche globali (verde) e le potenzialità dell’IA socialmente bene applicate (blu). Tale “matrimonio” rappresenterebbe la risposta al “divorzio” fra intelligenza ed agire, causato quando l’IA viene impiegata senza tener conto che le sue caratteristiche sono essenzialmente logico-computazionali. Ecco come l’A. spiega la logica di questo “matrimonio”: « L'IA per il bene sociale è parte integrante di un nuovo matrimonio, tra il verde di tutti i nostri habitat – naturali, sintetici e artificiali, dalla biosfera all'infosfera, da ambienti urbani a contesti economici, sociali e politici – e il blu delle nostre tecnologie digitali – dai cellulari alle piattaforme sociali, dall'Internet delle Cose ai Big Data, dall'IA ai futuri computer quantistici. Il matrimonio tra il verde e il blu, con i suoi vantaggi, controbilancia il divorzio tra l'agire e l'intelligenza, con i suoi rischi. Siamo noi che abbiamo la responsabilità di disegnare e gestire entrambi con successo» (p. 333). La tesi è in fondo la medesima di quella sostenuta lungo tutto il volume: se non saremo noi a gettare la spugna rassegnandoci ad abbandonare il pensiero critico e riflessivo, l’IA non sostituirà mai l’intelligenza umana, ma la potrà aiutare in cosa importanti. E qual è la cosa più importante, o almeno quella per cui oggi cresce la sensibilità di tutti, se non la custodia e la difesa del nostro pianeta e delle sue risorse?

Per Floridi la questione più importante suscitata dall’IA resta sempre la gestione umana di questa nuova frontiera tecnologica. Essa è una forza potente e positiva capace di prevedere e di aiutare, di operare in modo globale e coordinato. Numerosi i contributi che essa può dare per combattere la povertà, distribuire conoscenze, aumentare la qualità della vita, prevenire emergenze. Essa deve essere gestita e controllata in maniera equa e sostenibile: l’IA non è un problema, ma resta piuttosto il modo per giungere alle soluzioni. L’importanza della “gestione” dell’IA è proposta da Floridi anche da un’altra prospettiva, quella dei cambiamenti che essa indurrà nella sfera sociale, segnalando i mestieri e i lavori che scompariranno o saranno gestiti in maniera diversa, per giungere fino a un’analisi dei comportamenti umani che saranno messi alla prova dalla prevedibilità e manipolabilità delle nostre scelte affidate all’infosfera. Eppure, sostiene l’A., la perdita di lavori e competenze che l’IA determina sostituendo il lavoro dell’essere in non pochi campi, potrà essere compensata dai nuovi lavori che essa genererà. «Molti compiti che scompariranno non faranno sparire i lavori corrispondenti: i giardinieri assistiti da uno dei tanti robot tosaerba esistenti avranno semplicemente più tempo per fare altre cose, diverse dal tagliare l'erba. Nessun robot li sostituirà. E molti compiti non scompariranno, verranno semplicemente riaffidati a noi come utenti: premiamo già i pulsanti dell'ascensore (quel lavoro non esiste più), siamo sempre più abituati a scansionare la merce al supermercato (anche il lavoro di cassa sta per sparire) e faremo certamente più lavori in prima persona in futuro» (p. 338). Floridi, pertanto, ritiene che lo sviluppo dell’IA non darà luogo ad alcuna allarmante creazione di scenari fantascientifici. Non è in vista alcun Terminator. Vi è solo bisogno di maggiore saggezza. L’IA ci invita in fondo a riflettere su chi siamo, chi possiamo essere e chi vogliamo diventare, dandoci l’opportunità di realizzare anche un profondo lavoro su noi stessi.

Ci sia concessa, in conclusione, un’ultima riflessione. Non sfugge a nessuno che una gestione responsabile dell’IA abbia come ricadute non solo il miglioramento della sostenibilità e della qualità della nostra vita, ma anche lo sviluppo di autentici beni relazionali – istruzione, formazione, comunicazione – e, in modo ancor più determinante, una più equa distribuzione delle risorse, e dunque una più pacifica convivenza dei popoli. Ce n’è abbastanza per ipotizzare che la Dottrina Sociale della Chiesa, una volta conosciuti con profondità e competenza i dinamismi dell’IA, possa includerla nella sua riflessione sulla promozione umana, sulla solidarietà e sulla pace. Se la prospettiva ebraico-cristiana ha da sempre indicato nell’intelligenza umana il segno dell’immagine di Dio presente nelle creature razionali, allora anche ciò che sostiene, affianca e potenzia questa intelligenza può venire “attratto” nella logica e nella dignità di questa immagine, divenendo testimonianza della trascendenza del genere umano sulla materia e sulla natura. Come già accaduto nella riflessione filosofica sul rapporto fra l’uomo e la tecnica, anche la riflessione filosofica sull’IA potrà essere oggetto di diverse visioni, anche fra loro contrastanti. Strumento di potere demiurgico, guidato dalla logica del profitto e al servizio di fini totalmente immanenti; oggetto di visioni utopiche o distopiche che finiscono con allontanare l’essere umano dalla realtà e dalla responsabilità di un quotidiano che sta a lui costruire; oppure espressione della dignità dell’intelligenza umana, che contribuisce a rivelargli il ruolo speciale che egli occupa nel cosmo, al cui compimento egli collabora mediante il lavoro e l’attività tecnica.

   

Brani antologici proposti:

L’Intelligenza artificiale non è un terminator, ma una risorsa positiva da gestire

Giuseppe Tanzella-Nitti
Ordinario di Teologia Fondamentale, Pontificia Università della Santa Croce
2024