Intelligenza Artificiale, Innovazione e Trasformazione Digitale

Tag: benanti

Anche la Chiesa Anglicana firma la Rome Call for AI Ethics

L’arcivescovo di Canterbury, Justin Welby, ha firmato a nome della Chiesa d’Inghilterra la Rome Call for AI Ethics, il documento, nato nel 2020, che sta dando un forte contribuito alla riflessione globale su uno dei temi di più stretta attualità: la necessità e l’urgenza di un’etica nello sviluppo e nella realizzazione dell’Intelligenza Artificiale.

La firma dell’arcivescovo Justin Welby, oggi, è benvenuta per molti motivi. Anzitutto perché sottolinea che le questioni etiche che l’AI solleva sono di interesse globale” è il commento di mons. Vincenzo Paglia, Presidente della Pontificia Accademia per la Vita Esse, che aggiunge come questo tema trascenda i confini religiosi e culturali e abbracci principi universali come la dignità dell’uomo e del rispetto per il pianeta in cui vive.

L’adesione alla Rome Call da parte dell’arcivescovo Justin Welbi è importante proprio in quanto elemento capace di rafforzare questi principi perché, continua ancora mons. Paglia, “la Chiesa d’Inghilterra, attraverso la sua autorevolezza nel mondo globalizzato, può avere un ruolo decisivo nel sensibilizzare sulle questioni etiche legate all’Intelligenza Artificiale. Sono convinto che con questa firma crescerà la consapevolezza della responsabilità della società di fronte alla sfida rappresentata dall’Intelligenza Artificiale. E’ uno dei nuovi compiti affidati alla sapienza delle religioni perché in questo mondo ove lo sviluppo tecnologico sia al servizio della persona umana e dello sviluppo sostenibile del pianeta“.

Commentando l’evento, l’arcivescovo Welby, che ha firmato a nome della Chiesa d’Inghilterra, ha dichiarato: “Sono lieto di sostenere la Rome Call for AI Ethics, che sottolinea la dignità di ogni essere umano in mezzo ai cambiamenti tecnologici. Anche se non possiamo prevedere il futuro, sappiamo che continueranno ad esserci rapidi sviluppi nella scienza e nella tecnologia e dobbiamo essere preparati. L’intelligenza artificiale offre un enorme potenziale per migliorare le capacità umane. Deve anche cercare di proteggere, preservare e tutelare la dignità della persona umana. Gli enormi progressi offerti dall’AI non possono essere proprietà esclusiva dei suoi sviluppatori o di una singola parte dell’umanità. Devono essere per tutte le persone, ovunque. Devono essere al servizio del bene comune, del clima e dello sviluppo sostenibile. Il modo in cui comprendiamo l’intelligenza artificiale dipende in gran parte dal modo in cui comprendiamo la natura dell’essere umano. Lavoriamo tutti per garantire che la dignità di ogni essere umano, creato da Dio, non per il profitto o la produttività, sia al centro di tutto ciò che facciamo”.

La Rome Call for AI Ethics è un documento che mira a promuovere un senso di responsabilità condivisa per la dignità umana in un contesto di rapidi progressi tecnologici. Per garantire che ogni individuo, indipendentemente dal proprio background, possa beneficiare di questi progressi, le religioni, le organizzazioni internazionali, i governi, le istituzioni e il settore privato devono lavorare insieme. Il documento chiede uno sviluppo etico dell’Intelligenza Artificiale che sia al servizio dell’umanità piuttosto che del profitto e che contrasti la graduale sostituzione delle persone sul posto di lavoro e che, al tempo stesso, promuova il rispetto per il pianeta Terra.

Dal lancio della Rome Call nel febbraio 2020, molti stakeholder hanno firmato il documento, tra cui rappresentanti delle religioni abramitiche – l’Ebraismo, il Cristianesimo e l’Islam – il governo italiano, nonché player del settore come Microsoft, IBM e Cisco e la Fao a livello di organizzazione internazionale.

Padre Paolo Benanti, Professore Straordinario di Etica delle tecnologie presso la Pontificia Università Gregoriana e direttore scientifico della Fondazione RenAIssance, ha affermato: “Con questa nuova espansione della Rome Call possiamo guardare con rinnovata fiducia all’algoretica, ovvero al contributo positivo dell’approccio etico all’intelligenza artificiale. Non è mai un mero problema di innovazione. Si tratta piuttosto di trasformare quest’ultima in sviluppo umano. È altresì molto importante il fatto che il patrimonio di sapienza umana rappresentata dalle religioni parli all’intera umanità, valorizzando ciò che è condiviso per affrontare le sfide della contemporaneità”.


Iscriviti alla nostra newsletter settimanale per non perdere le ultime notizie sull’Intelligenza Artificiale.

[newsletter_form type=”minimal”]

Padre Paolo Benanti: una guida etica per il futuro dell’Intelligenza Artificiale. Rome Call al G7

In un momento in cui la complessità dello scenario, legato all’evoluzione tecnologica, mostra che non c’è un tipo di conoscenza che da sola risolve tutti i problemi, la Rome Call“, il documento del Vaticano che chiede l’applicazione dei principi dell’etica all’Intelligenza Artificiale, “mostra la sapienza delle religioni sul tema, affinché si possa assicurare un domani all’umanità di pace e prosperità. In questo contesto la partecipazione del Papa al G7 in Puglia è di grande rilevanza“.

Sono le parole di padre Paolo Benanti, consigliere di Papa Francesco sull’Intelligenza Artificiale, docente della Pontificia Università Gregoriana, membro del Comitato AI presso le Nazioni Unite e presidente della Commissione sull’Intelligenza Artificiale di Palazzo Chigi.

È proprio lui il punto di contatto tra le due sponde del Tevere e la sua attenzione per una tecnologia al servizio dell’uomo, tanto presente nei documenti vaticani, sta facendo il giro del mondo. È sempre lui ad aver convinto le grandi aziende tecnologiche, Università e organizzazioni internazionali com la Fao a sottoscrivere il documento.

La Rome Call non è tanto “un insieme di regole ma la volontà di mettere in primo piano secoli di sapienza umana” ha avuto modo di spiegare padre Benanti e proprio per questo il documento vaticano arriverà fino in Giappone, dove nel mese di luglio sarà essere fatto proprio anche dai leader delle religioni orientali (dopo quelle abramitiche).

Andremo ad Hiroshima, un luogo dalla forte valenza simbolica, per dire che la tecnologia mai più sia uno strumento di distruzione” continua ancora Benanti che ritiene, questa della tecnologia e dell’Intelligenza Artificiale in particolare, una sfida “di oggi, non del futuro“.

Per Benanti “ci sono elementi fondamentali per affrontare le trasformazioni dell’AI e tra questi c’è l’abilitazione delle sue capacità, che stanno rapidamente avanzando e stanno trasformando molti settori. Per abilitare le capacità di AI in modo etico, è necessario agire in più direzioni: sviluppare data set di grandi dimensioni, di alta qualità e imparziali per addestrare i modelli di IA; dare accesso alle infrastrutture informatiche; costruire competenze di AI; stabilire quadri di governance per gestire lo sviluppo dell’AI; e che i sistemi di AI siano trasparenti, responsabili e allineati con i valori umani“.


Iscriviti alla nostra newsletter settimanale per non perdere le ultime notizie sull’Intelligenza Artificiale.

[newsletter_form type=”minimal”]

IA, siamo vicini a una democrazia computazionale?

La democrazia e le tecnologie informatiche hanno una relazione complessa e in continua evoluzione. Le tecnologie informatiche, in particolare Internet e le piattaforme digitali, hanno la potenzialità di rendere la partecipazione dei cittadini alle decisioni pubbliche più efficace e inclusiva. Questo è stato particolarmente evidente nel primo decennio del secolo, quando c’era una grande speranza che il digitale connesso potesse essere lo spazio in cui la democrazia liberale si sarebbe diffusa e rafforzata.

Tuttavia, la fine del secondo decennio ha portato con sé nuove preoccupazioni. Mentre le tecnologie digitali e computazionali continuano a evolversi a un ritmo senza precedenti, stiamo iniziando a vedere come possono essere sfruttate per minare i principi democratici. La disinformazione, le fake news, la manipolazione delle elezioni e la violazione della privacy sono solo alcune delle sfide che stiamo affrontando nello spazio digitale-computazionale.

Paolo Benanti, professore straordinario della facoltà di Teologia presso la Pontificia università gregoriana e presidente della Commissione AI per l’informazione, ha analizzato questi problemi :

La democrazia sfrutta le potenzialità delle tecnologie informatiche per rendere più efficace e inclusiva la partecipazione dei cittadini alle decisioni pubbliche. Se il primo decennio del secolo ci ha fatto sperare che il digitale connesso fosse lo spazio dove si sarebbe diffusa e rafforzata la demorazia liberale, la fine del secondo decennio ci ha iniziato a far temere per il futuro nello spazio digitale-computazionale.

Paolo Benanti su formiche.net

Secondo Benanti, è fondamentale che i principi democratici guidino lo sviluppo e l’uso delle tecnologie informatiche.

Inoltre, è necessario un maggiore coinvolgimento dei cittadini nelle decisioni relative all’uso delle tecnologie informatiche nella società.

Mentre le tecnologie informatiche hanno il potenziale per migliorare la democrazia, è fondamentale che siano guidate da principi democratici e che i cittadini siano coinvolti nelle decisioni su come queste tecnologie vengono utilizzate e ne siano pienamente consapevoli.

Analizzando le sue riflessioni mi vengono in mente 2 Teorie :

Teoria della democrazia digitale: Questa teoria esplora come le tecnologie digitali influenzino la partecipazione politica, la trasparenza e l’accessibilità alle istituzioni democratiche.

Teoria della sovranità digitale: Questa teoria affronta questioni di controllo e autonomia nelle infrastrutture digitali e nell’accesso ai dati, considerando l’interdipendenza tra nazioni e la questione della governance globale dell’Internet.

In sostanza, le 2 teorie indicano che l’avvento delle tecnologie digitali hanno trasformato radicalmente il modo in cui i cittadini partecipano alla vita pubblica e alla democrazia.

Il termine “computazionale” si riferisce al fatto che il processo di cittadinanza e partecipazione democratica avviene sempre più attraverso piattaforme digitali e sistemi informatici.

In altre parole, poiché sempre più aspetti della nostra vita quotidiana sono mediati attraverso dispositivi digitali e piattaforme online, la partecipazione alla democrazia avviene anche attraverso questi canali.

Il concetto espresso da Benanti a mia modesta opinione interpretativa riflette una preoccupazione profonda riguardante il potere crescente delle tecnologie dell’intelligenza artificiale (IA) e la loro interazione con la democrazia.

Si evidenzia come i servizi basati sull’IA stiano offuscando i confini tra il potere computazionale personale (Edge-Mobile) e quello centralizzato nel cloud (Continuum). Ciò si verifica poiché sempre più processi e funzionalità vengono spostati online e gestiti da server remoti, con conseguente perdita di trasparenza riguardo a ciò che avviene effettivamente all’interno dei nostri dispositivi.

Questa perdita di trasparenza ha implicazioni significative per la democrazia, poiché il controllo e l’autonomia delle persone sulle proprie azioni e sulle informazioni personali possono essere compromessi.

La centralizzazione del potere computazionale personale nei server cloud può quindi portare a una centralizzazione del potere stesso, poiché le decisioni riguardanti la gestione e l’elaborazione dei dati possono essere prese da entità centralizzate che controllano tali server.

In questo contesto, si pone la domanda critica su come rendere democratico il potere centralizzato associato all’IA e al cloud computing.

Questo implica la necessità di sviluppare meccanismi e strumenti che consentano una partecipazione inclusiva e responsabile dei cittadini nella definizione delle politiche e delle pratiche relative all’utilizzo dell’IA.

È fondamentale garantire che le decisioni riguardanti l’IA siano prese in modo trasparente e responsabile, tenendo conto dei valori democratici come la partecipazione, l’equità e la tutela dei diritti individuali.

Allo stesso tempo, è cruciale evitare che la democrazia computazionale si trasformi in un’oligarchia del cloud, dove il potere decisionale è concentrato nelle mani di poche entità dominanti nel settore tecnologico.

Ciò richiede un’attenzione particolare alla regolamentazione e alla supervisione delle aziende tecnologiche, così come la promozione di un’innovazione etica che tenga conto degli impatti sociali e politici delle tecnologie dell’IA.

Affrontare queste sfide richiede un impegno collettivo per garantire che l’evoluzione dell’IA e del cloud computing avvenga nel rispetto dei principi democratici e nell’interesse del benessere pubblico, piuttosto che nel perseguimento del potere concentrato e dell’oligarchia digitale.

Solo così possiamo sperare di navigare con successo nel futuro digitale-computazionale.

Interessante citare a mio avviso il rapporto “Setting Democratic Ground Rules for AI: Civil Society Strategies” edatto da Beth Kerley dell’International Forum for Democratic Studies,. Questi analizza le priorità, le sfide e le promettenti strategie della società civile per promuovere approcci democratici alla governance dell’intelligenza artificiale (IA).

Esamina gli ostacoli – dai racconti fuorvianti all’opacità del governo : La presenza diffusa di narrazioni fuorvianti o manipolate riguardo all’IA può ostacolare una comprensione accurata e consapevole dei suoi impatti sulla democrazia, la disinformazione può influenzare le percezioni pubbliche e impedire un dibattito informato sui modi per garantire un uso democratico e responsabile dell’IA,

le lacune nell’expertise tecnica – che ostacolano l’impegno democratico sulla governance dell’IA ,

la mancanza di comprensione approfondita delle implicazioni tecnologiche dell’IA da parte dei decisori politici, dei funzionari pubblici e del pubblico in generale può ostacolare la formulazione di politiche e regolamentazioni efficaci. Le lacune nell’expertise tecnica possono portare a decisioni errate o inefficaci che non tengono conto delle sfide e delle opportunità specifiche dell’IA,

l’opacità dei governi e delle aziende, l’assenza di trasparenza da parte dei governi e delle aziende riguardo alla formulazione e all’implementazione delle politiche sull’IA può rendere difficile per i cittadini valutare e influenzare il processo decisionale e esplora come un nuovo pensiero, nuove istituzioni e nuove collaborazioni possano meglio equipaggiare le società per stabilire regole democratiche per le tecnologie dell’IA.

Il rapporto sottolinea che con i recenti progressi nello sviluppo dell’IA, stiamo vivendo un cambiamento sismico nel bilancio di potere tra le persone e i governi, che pone nuove sfide ai principi democratici come la privacy, la trasparenza e la non discriminazione e inclusione.

Sappiamo che l’IA plasmerà il mondo politico in cui viviamo, ma come possiamo garantire che le norme e la “governance” delle istituzioni democratiche plasmino la traiettoria dell’IA.

Lascia un commento


Newsletter AI – non perderti le ultime novità sul mondo dell’Intelligenza Artificiale, i consigli sui tool da provare, i prompt e i corsi di formazione. Iscriviti alla newsletter settimanale e accedi a un mondo di contenuti esclusivi direttamente nella tua casella di posta!

[newsletter_form type=”minimal”]

Padre Paolo Benanti: l’IA, terzo incomodo tra Sinner e Kasparov

L’Intelligenza Artificiale rischia di essere un sistema che si frappone tra l’essere umano e la realtà, diminuendo le nostre capacità di riflessione e discernimento, come dimostrano la nostra tendenza a cedere ai consigli di acquisto generati dalle nostre profilazioni in rete.

È questo il pensiero di padre Paolo Benanti espresso in occasione di una lezione sull’AI al Forum Internazionale della Pontificia Accademia di Teologia dell’Università Lumsa, in occasione del quale cita il premio Nobel Daniel Kahneman, che ha studiato la nostra razionalità. “Lui dice che la nostra razionalità gioca su due livelli, il sistema 1 e il sistema 2” afferma Benanti. “Nel sistema 1 che è attivo il 95% del tempo, l’uomo procede per un tipo di pensiero che è inconscio, veloce, associativo, intuitivo e istintivo. E’ più veloce, una sorta di pilota automatico delle nostre azioni. Quando invece interviene il sistema 2, quello razionale, si richiede molto più sforzo, tanto che è attivo per il 5% del tempo. In questo caso il sistema è più lento e spesso ci lascia indecisi“.

Per chiarire il funzionamento di questo nostro approccio mentale, Benanti ricorre ad una metafora sportiva. “Per semplificare il sistema 1 è Sinner quando risponde a 180 km orari ad un servizio dell’avversario e in modo veloce e diretto piazza la pallina nell’ angolino del campo. Il sistema 2 è invece quello di Kasparov quando pensa all’apertura di scacchi per vincere la partita“, osserva Benanti, “ahimè noi usiamo molto di più il sistema 1 e quando usiamo il sistema 2 non riusciamo a fare altre cose: se vi è mai capitato di camminare con qualcuno chiacchierando e vi siete dovuti fermare per guardare in faccia il vostro interlocutore, allora vuol dire che siete passati dal sistema 1 al sistema 2“.

Insomma, secondo Benanti, Kahneman ci dice che il sistema 1 è un pilota automatico che viene innescato dal tipo di esperienza che viviamo: esperienze ripetute, con un’idea che ne innesca un’altra e procede in automatico. Da questo punto di vista il pericolo, secondo Benanti, risiede proprio li, quando l’interazione con dei sistemi di linguaggio tipo Chat GPT ci portano ad innescare, in modo automatico e senza quasi che ce ne accorgiamo, il Sistema 1, veloce e istintivo. Questo cosa può comportare? Che l’utilizzo di questi strumenti, che si frappongono tra noi e la realtà, può diminuire la nostra capacità di ragionamento, quella riflessione più attenta, che richiede uno sforzo in più e maggiore discernimento. E di questo, avverte Benanti, “se ne sono accorte le agenzie commerciali: l’utilizzo dell’AI nello spazio commerciale a questo serve: questo tipo di pensiero produce un acquisto compulsivo, meno riflesso” riferendosi all’utilizzo di strumenti di profilazione, segmentazione e di analisi predittiva nei tool di marketing per la gestione delle campagne di online advertising.

Giuliano Amato lascia la presidenza della Commissione Algoritmi. Al suo posto padre Paolo Benanti.

L’ex presidente della Corte Costituzionale Giuliano Amato si dimette da presidente della Commissione Algoritmi dopo le critiche di Giorgia Meloni: “sul tema della commissione algoritmi credo si sappia che non è stata una mia iniziativa e ho detto tendenzialmente quello che pensavo, ma al di là di questo non ho nulla da dire nello specifico al professor Amato, sono rimasta francamente basita dalle sue dichiarazioni che riguardano la Corte Costituzionale” ha detto la Premier nella conferenza stampa del 4 gennaio.

Amato spiega che si tratta di “una commissione della presidenza del Consiglio e visto che la mia nomina non risulta essere un’iniziativa della presidente del Consiglio lascio senz’altro l’incarico“.

La nomina a presidente dell’organismo istituito per studiare rischi e opportunità legati all’Intelligenza Artificiale era arrivata lo scorso mese di ottobre, quando il sottosegretario a Palazzo Chigi Alberto Barachini (di Forza Italia) annunciò che Amato avrebbe presieduto il gruppo di studio sull’impatto dell’intelligenza artificiale su informazione e editoria, provocando una certa irritazione da parte della Premier che dichiarò di non saperne nulla, come pure il  sottosegretario plenipotenziario Alfredo Mantovano.

Il nuovo presidente della Commissione sarà il francescano padre Paolo Benanti, personalità di spicco in materia di Intelligenza Artificiale, già componente della commissione e unico italiano membro del Comitato sull’Intelligenza Artificiale delle Nazioni Unite.

CC BY-NC-SA 4.0 DEED | Disclaimer Contenuti | Informativa Privacy | Informativa sui Cookie