
Harold (Hal) Wolf è presidente e amministratore delegato di HIMSS*, un consulente globale e leader di pensiero che sostiene la trasformazione dell’ecosistema sanitario attraverso l’informazione e la tecnologia.

Interviste – (DEI) diversità, equità e inclusione – Impatti Sociali ed Etici – Futuro e Prospettive – Legislazione e Regolamentazione -Educazione e Formazione – Lavoro e Formzione
Harold (Hal) Wolf è presidente e amministratore delegato di HIMSS*, un consulente globale e leader di pensiero che sostiene la trasformazione dell’ecosistema sanitario attraverso l’informazione e la tecnologia.
English Podcast
La Cattedra dei non credenti è stata probabilmente una delle intuizioni più caratterizzanti l’episcopato di Carlo Maria Martini a Milano. L’iniziativa si sviluppò dal 1987 al 2002, lungo 12 edizioni e 50 incontri.
: «… Ciascuno di noi ha dentro di sé un non credente e un credente che ci parlano dentro, che si interrogano a vicenda».
Cardinale Carlo Maria Martini
Questo test viene spesso utilizzato per valutare l’abilità delle sistemi AI di mimare il comportamento umano e determinare se possono distinguersi dagli esseri umani.
Un’intervista recente su Noema con Eric Schmidt, ex CEO di Google, ha stimolato riflessioni importanti sul futuro dell’intelligenza artificiale (IA).
Schmidt prevede che ci troviamo in un momento di rapida evoluzione tecnologica, con nuovi modelli che emergono ogni 12-18 mesi. Secondo lui, nei prossimi tre o quattro anni assisteremo a cambiamenti sostanziali, grazie a una scala di capacità in continua crescita.
Parallelamente, Leopold Aschenbrenner, ex membro del team di sicurezza di OpenAI, ha pubblicato un esteso post di 165 pagine sul futuro dell’IA.
Si prevede che l’incremento delle iniziative legate all’intelligenza artificiale aumenterà significativamente il consumo energetico dei data center entro il 2030, rendendo necessari ingenti investimenti in nuove capacità di generazione di energia.
Molti dei titoli MAG 7, tra cui AWS, Alphabet e Meta Platforms, hanno lavorato tutto l’anno sulle loro offerte di intelligenza artificiale, insieme a Nvidia. Una recente preoccupazione espressa è che nella fretta e nella paura di perdere qualcosa, potrebbero aggiungere offerte che portano nella direzione sbagliata, rompendo ciò che non ha bisogno di essere riparato. Questo è potenzialmente uno spreco di tempo e capitale.
Tiziana Catarci si è laureata in Ingegneria Elettronica nel febbraio 1987 presso l’Università degli Studi di Roma La Sapienza, dove ha conseguito il titolo di Dottore di Ricerca in Informatica nell’ottobre 1992. Dal novembre 2000 è professoressa ordinaria di Sistemi di Elaborazione delle Informazioni (ING-INF/05). Afferisce al Dipartimento di Ingegneria Informatica, Automatica e Gestionale Antonio Ruberti (DIAG, in precedenza Dipartimento di Informatica e Sistemistica), presso la Facoltà di Ingegneria Informatica, Informatica e Statistica della Sapienza Università di Roma, di cui è direttrice dal 2018.
Intervistare una donna che ha eccelso nel suo settore offre un modello positivo non solo per altre donne e uomini, ma anche per ragazze e ragazzi. La rappresentazione è fondamentale per ispirare le nuove generazioni a perseguire i propri sogni e ambizioni. Vedendo una persona simile a loro che ha raggiunto il successo, possono sentirsi più motivate e capaci di fare lo stesso.
Incontrare figure come la Prof.ssa Tiziana Catarci può avere un impatto significativo. Queste donne non solo hanno raggiunto grandi traguardi nei loro rispettivi campi, ma hanno anche influenzato positivamente la società attraverso le loro azioni e parole.
Avere l’oppurtunita’ di conversare con donne di successo è cruciale per molte ragioni: fornisce rappresentazione, ispira nuove generazioni, promuove la diversità, sfata stereotipi di genere e contribuisce alla parità di genere.
Queste storie sono potenti strumenti di cambiamento sociale e culturale, in grado di influenzare positivamente la società a vari livelli.
Redazione Rivista.Ai
Puoi costruire un business che scommette sul fatto che il prossimo modello sarà davvero buono o un modello che scommette su ciò che accadrà e trarrà vantaggio da ciò che accadrà
Sam Altmann
Il giorno dell’annuncio di ChatGPT-4o, Sam Altman si è seduto per condividere i dettagli dietro le quinte del lancio e offrire le sue previsioni sul futuro dell’IA. Altman esplora la visione di OpenAI, discute la tempistica per raggiungere l’AGI e analizza l’impatto sociale dei robot umanoidi.
Esprime inoltre il suo entusiasmo e le sue preoccupazioni riguardo agli assistenti personali IA, evidenzia le maggiori opportunità e i rischi nel panorama dell’IA odierno, e molto altro ancora.
“OpenAI non è nulla senza le sue persone” , questo era lo slogan.
L’ex ricercatore di OpenAI Leopold Aschenbrenner ha dichiarato che le pratiche di sicurezza dell’azienda erano “insufficienti”.
In un’intervista video con Dwarkesh Patel pubblicata martedì, Aschenbrenner ha parlato di conflitti interni sulle priorità, suggerendo che l’azienda si concentrasse più sulla crescita rapida e sull’implementazione di modelli di intelligenza artificiale piuttosto che sulla sicurezza.
La legislatura della California sta attualmente esaminando una serie di proposte di legge che mirano a regolare l’uso dell’intelligenza artificiale (IA) nel contesto nazionale, seguendo l’esempio di altri stati come il Colorado e lo Utah. Queste iniziative legislative, se approvate, contribuiranno a formare un quadro normativo più robusto per la gestione dei sistemi di IA, specialmente quelli ad alto rischio.
Prima di entrare nel dibattito facciamo un passo indietro. Galileo Galilei definisce la scienza come un metodo rigoroso che si basa su tre passaggi fondamentali:
L’industria del cinema e l’introduzione dell’Intelligenza Artificiale: un futuro di nuove possibilità
L’industria del cinema ha visto recentemente l’introduzione di tecnologie innovative come l’intelligenza artificiale (AI), che stanno rivoluzionando il modo in cui i film vengono creati e distribuiti. Questo articolo esplorerà le nuove opportunità offerte dall’AI e come stia influenzando il settore cinematografico.
I cineasti dell’IA si sono riuniti all’NFC Lisbona per i primi AIFA Awards dell’AI Film Academy un organismo volto a “democratizzare l’industria cinematografica” attraverso le tecnologie AI e blockchain., celebrando la “diversità delle storie e il nuovo linguaggio visivo dell’IA”.
La teoria della mente, la capacità di comprendere e inferire gli stati mentali altrui, è una delle pietre miliari della cognizione umana. Questo concetto, esplorato in profondità nello studio pubblicato su “Nature Human Behaviour”, (in allegato) Testing theory of mind in LLM and Humans ha recentemente trovato nuovi territori di indagine grazie allo sviluppo dei modelli linguistici di grandi dimensioni (LLM) come GPT-4 e LLaMA2. Questi modelli, sottoposti a una batteria di test per valutare le loro abilità di teoria della mente, hanno mostrato performance paragonabili a quelle umane in vari compiti, sebbene con alcune limitazioni e differenze significative.
La narrativa della fantascienza ha spesso esplorato l’intersezione tra l’intelligenza artificiale e la teoria della mente, anticipando molte delle domande che oggi i ricercatori si pongono. Un esempio emblematico è il romanzo “Do Androids Dream of Electric Sheep?” di Philip K. Dick, da cui è tratto il celebre film “Blade Runner”. In questo romanzo, gli androidi sono creati per sembrare e comportarsi come esseri umani, ma la loro capacità di empatia e comprensione delle emozioni umane è ciò che li distingue dai loro creatori.
L’ingegnere Francesco Martelli è un ricercatore presso l’Istituto Superiore di Sanità (ISS) di Roma, Italia. Vanta una vasta e diversificata esperienza nel campo della ricerca scientifica e in vari settori, il che gli consente di analizzare i fenomeni da prospettive multiple.
HIMSS 24 Roma – Intervistatore: Francesco Martelli, la ringrazio per aver accettato questa intervista. È un piacere discutere con lei sull’introduzione delle tecnologie innovative e della digitalizzazione nel settore sanitario. Cominciamo con il concetto di interoperabilità. Come lo descriverebbe e in che modo promuove l’innovazione?
Francesco Martelli: Grazie per l’invito. L’interoperabilità si declina in molte forme, ma in sostanza rappresenta la capacità di diversi sistemi di scambiare e utilizzare informazioni in modo sicuro ed efficace.
Nel contesto sanitario, questo implica che i dati del paziente fluiscano in sicurezza dal punto di origine (come una risonanza magnetica) al punto di utilizzo (il medico che l’ha prescritta).
Questo è cruciale per garantire una gestione efficiente delle informazioni sanitarie e offrire cure più consapevoli e tempestive ai pazienti. Tuttavia, come in tutti i processi di digitalizzazione, sono necessarie particolari attenzioni per gestire correttamente queste informazioni.
La buona digitalizzazione non è gratuita, e nelle fasi iniziali di ogni nuova implementazione, è indispensabile adottare numerose precauzioni.
WOMEN IN AI : La dott.ssa Sara AlShaya, direttrice del dipartimento dati e statistiche presso i servizi sanitari degli Emirati (EHS), e’ intervenuta al masterclass di telemedicina alla conferenza ed esposizione sanitaria europea HIMSS 2024, in programma dal 29 al 31 maggio 2024 a Roma.
PdP
Quando c’è una frenesia di attività in un’area del mercato molto spesso si crea un’anti-bolla di aziende scartate. Nell’era delle dot com, si trattava di aziende con un flusso di cassa costante. Dov’è l’anti-bolla di oggi? – Nick Sleep, Lettere nomadi (p. 98).
Benvenuti alla prima edizione di una nuova iniziativa mensile di Rivista.AI! Il racconto breve coinvolgente di Raffaella Russo è solo l’inizio di una serie di contributi che verranno pubblicati regolarmente ogni mese. Questo primo soggeto che potremmo definire “HumanAnalytic” introduce temi intriganti e approfondimenti unici sull’intelligenza artificiale, aprendo la strada a una serie di pubblicazioni che esploreranno in modo approfondito le sfide e le opportunità offerte dalla tecnologia moderna. Restate sintonizzati per scoprire nuovi contenuti ogni mese e approfondire la vostra comprensione dell’IA e del suo impatto sulla società.
La teoria della mente, ovvero la capacità di comprendere gli stati mentali degli altri, è fondamentale per il funzionamento del mondo sociale degli esseri umani.
Ci aiuta a decidere cosa dire in situazioni di tensione, a indovinare le intenzioni dei conducenti di altre auto e a entrare in empatia con i personaggi dei film. Secondo uno studio recente, i grandi modelli linguistici (LLM), come quelli che alimentano ChatGPT e simili, sono sorprendentemente bravi a imitare questa caratteristica tipicamente umana.
Via libera definitivo all’unanimità del Consiglio Ue all’AI Act, la legge europea sull’Intelligenza Artificiale che disciplina lo sviluppo, l’immissione sul mercato e l’uso dei sistemi di IA in Ue.
La legge, la prima al mondo in materia detta una serie di obblighi a fornitori e sviluppatori di sistemi di IA in base ai diversi livelli di rischio identificati.
L’atto legislativo sarà pubblicato nella Gazzetta ufficiale dell’UE nei prossimi giorni ed entrerà in vigore venti giorni dopo questa pubblicazione, mentre il nuovo regolamento si applicherà due anni dopo la sua entrata in vigore, con alcune eccezioni per disposizioni specifiche.
Le nuove regole saranno applicabili a due anni dall’entrata in vigore, con l’eccezione dei divieti, che scatteranno dopo sei mesi, dei controlli sui sistemi di IA per finalità generali, compresa la governance (12 mesi) e degli obblighi per i sistemi ad alto rischio (36 mesi).
L’adozione della legge sull’intelligenza artificiale è una pietra miliare significativa per l’Unione europea. Questa legge storica, la prima del suo genere al mondo, affronta una sfida tecnologica globale che crea anche opportunità per le nostre società ed economie. Con la legge sull’AI, l’Europa sottolinea l’importanza della fiducia, della trasparenza e della responsabilità quando si ha a che fare con le nuove tecnologie, garantendo al contempo che questa tecnologia in rapida evoluzione possa prosperare e dare impulso all’innovazione europea.
Mathieu Michel, segretario di Stato belga per la digitalizzazione, la semplificazione amministrativa, la tutela della privacy e il regolamento edilizio
Il Consiglio ha dichiarato che la nuova legge sull’intelligenza artificiale adotta un approccio “basato sul rischio”.
Questo implica che, quanto maggiore è il rischio di danni alla società, tanto più severe saranno le regole. L’agenzia ha chiarito che la legge si applica solo in contesti regolati dal diritto dell’UE e include esenzioni per sistemi usati esclusivamente per scopi militari, di difesa o di ricerca.
Inoltre, il Consiglio ha stabilito che sistemi di intelligenza artificiale come la manipolazione cognitivo-comportamentale e il punteggio sociale saranno vietati nell’UE. La legge impedisce anche l’uso dell’IA per la polizia predittiva basata sulla profilazione e per i sistemi che classificano le persone in base a dati biometrici come razza, religione o orientamento sessuale.
I sistemi di IA a basso rischio avranno requisiti di trasparenza minimi, mentre quelli ad alto rischio saranno soggetti a regolamentazioni stringenti per poter accedere al mercato dell’UE. I modelli di IA per scopi generici, o GPAI, senza rischi sistemici, dovranno rispettare alcune regole limitate.
Le aziende che violeranno l’AI Act affronteranno sanzioni calcolate in percentuale sul fatturato globale annuo dell’anno precedente o in un importo predefinito, scegliendo il più alto. Le PMI e le start-up saranno soggette a sanzioni amministrative proporzionali.
In passato, l’UE ha sostenuto una posizione più severa sulla gestione dell’intelligenza artificiale, mentre il Giappone ha preferito un approccio più morbido, simile a quello degli Stati Uniti, per promuovere la crescita economica.
Nel mese di ottobre 2023, il presidente degli Stati Uniti Joe Biden ha emesso un ordine esecutivo per gestire i rischi legati all’intelligenza artificiale. Anche i paesi del sud-est asiatico hanno adottato un approccio favorevole alle imprese in materia di IA.
La Cina ha avviato un’iniziativa per regolamentare l’IA da diverse prospettive.
All’inizio di questo mese, funzionari di Stati Uniti e Cina si sarebbero dovuti incontrare a Ginevra per discutere della mitigazione dei rischi derivanti dall’intelligenza artificiale avanzata.
Per i documenti di approfondimento leggi il comunicato stampa del Consiglio d’Europa.
Arati Prabhakar, la direttrice dell’Ufficio per la Politica Scientifica e Tecnologica della Casa Bianca (OSTP) e principale consigliera scientifica e tecnologica del Presidente Biden, si è assunta una missione monumentale:
Contribuire a gestire lo sviluppo e la regolamentazione dell’intelligenza artificiale (IA). Nel marzo 2023, Prabhakar ha portato un laptop che mostrava ChatGPT nello Studio Ovale, dimostrando al presidente il potere trasformativo dell’IA. Questo ha portato Biden a emanare un esecutivo completo sei mesi dopo.
Rilanciare l’industria dei semiconduttori negli Stati Uniti. Prabhakor sta lavorando per costruire impianti di fabbricazione di semiconduttori negli Stati Uniti dopo l’approvazione del CHIPS Act, che ha fornito 52 miliardi di dollari di sussidi. Tuttavia, alcuni leader del settore come l’amministratore delegato di Intel credono che sia necessario un ulteriore sostegno per rendere di nuovo competitivi gli Stati Uniti.
Guidare l’iniziativa Cancer Moonshot per compiere progressi significativi nella prevenzione, rilevamento e trattamento del cancro. Mentre i presidenti passati hanno lanciato sforzi simili, Prabhakor ritiene che siano stati compiuti progressi reali e che questa iniziativa possa trarre vantaggio da questo slancio.
L’intelligenza artificiale (IA) sta diventando sempre più potente e diffusa nella società odierna, sollevando una serie di questioni legali che devono essere analizzate, valutate e affrontate con urgenza. Questo documento bianco mira a esplorare alcuni dei concetti legali chiave legati all’utilizzo dell’IA, concentrandosi su quattro aspetti fondamentali.
Azzurra Ragone
Professoressa, autrice scientifica, responsabile dell’innovazione e della trasformazione, ingegnere.
Si è laureata con lode presso il Politecnico di Bari (Italia) con una laurea magistrale in Ingegneria Gestionale. Ha proseguito la sua formazione lavorando e conseguendo il Dottorato di Ricerca in Ingegneria dell’Informazione presso il Politecnico di Bari.
Attualmente è ricercatrice presso il Dipartimento di Informatica dell‘Università di Bari “A. Moro”.
Il lavoro della Prof.ssa Azzurra Ragone si concentra sullo sviluppo di framework e pratiche concrete per guidare lo sviluppo di sistemi di IA affidabili e responsabili, colmando il divario tra teoria ed etica dell’IA e la sua implementazione pratica.
C’è un nuovo protagonista che attira l’attenzione nel competitivo mondo delle startup di intelligenza artificiale. Fei-Fei Li, scienziata informatica e professoressa presso l’Università di Stanford, conosciuta come la “madrina” dell’IA, sta costruendo una nuova azienda “che utilizza l’elaborazione visiva simile all’uomo per rendere l’IA capace di ragionamento avanzato”, secondo un rapporto di Reuters.
“The Book of Why: La nuova scienza della causa e dell’effetto” è un libro del 2018 rivoluzionario scritto da Judea Pearl e Dana Mackenzie che esplora i concetti di causalità e inferenza causale. Il libro mira a fornire un nuovo framework per comprendere le relazioni causa-effetto, andando oltre i metodi statistici tradizionali, che spesso si concentrano sulla correlazione piuttosto che sulla causalità. In questa recensione, esploreremo i concetti chiave dietro “The Book of Why” e discuteremo le sue implicazioni per vari campi, tra cui l’intelligenza artificiale, l’economia e le scienze sociali.
Le donne devono sfruttare i vantaggi e le potenzialità dell’Intelligenza Artificiale evitando che questa colpisca ancora di più i fattori negativi sul mercato del lavoro e l’occupazione femminile.
È quanto auspica la Vice Direttrice Generale di Banca d’Italia Alessandra Perrazzelli intervenuta al W7 di Roma, un gruppo di impegno civile ufficiale nell’ambito del G7, istituito nel 2018 dalla presidenza canadese, con l’obiettivo di promuovere proposte sull’uguaglianza di genere e sui diritti delle donne che vengono poi presentati ai Governi che ne fanno parte.
LE INTERVISTE DI WOMEN IN AI – Chiara Mugnai, un viaggio tra la resilienza climatica, l’Intelligenza Artificiale e verso il cambiamento che genera valore.
Chiara Mugnai ha una laurea magistrale in Ingegneria Bionica e lavora da 6 anni nel campo dell’intelligenza artificiale. Attualmente è co-fondatrice e Chief Data Scientist (CDS) di Eoliann, una startup italiana che, utilizzando l’intelligenza artificiale applicata ai dati satellitari, aiuta le aziende ad adattarsi al cambiamento climatico fornendo probabilità e impatto degli eventi estremi.
Il ruolo di Chiara in Eoliann è fondamentale nel plasmare la direzione e l’impatto tecnologico dell’azienda.
Luciano Floridi è un filosofo italiano naturalizzato britannico, professore ordinario di filosofia ed etica dell’informazione presso l’Oxford Internet Institute dell’Università di Oxford, dove è direttore del Digital Ethics Lab, nonché professore di Sociologia della comunicazione presso l’Università di Bologna.
Anna Christina Nobre FBA, MAE, fNASc è una neuroscienziata cognitiva brasiliana e britannica che lavora presso la Yale University di New Haven, CT, USA. Nobre è professoressa di Wu Tsai presso l’Università di Yale, dove dirige il Centro di Neurocognizione e Comportamento presso l’Istituto Wu Tsai.
Il parallelismo tra il cervello umano e le reti neurali artificiali è un concetto fondamentale sia per le scienze cognitive e le neuroscienze che per lo studio dell’Intelligenza Artificiale (IA). Questo parallelismo ha portato a un’ampia sovrapposizione di terminologia e concetti tra i due campi, che se da un lato può essere utile per la comprensione reciproca, dall’altro può generare incertezza e confusione.
LE INTERVISTE DI WOMEN IN AI – Claudia Segre, un viaggio tra finanza sostenibile, inclusione, Intelligenza Artificiale e l’empowerment delle donne con la Thinking Foundation.
Oggi abbiamo l’opportunità unica di condividere con voi un’intervista esclusiva con Claudia Segre, un nome di rilievo nel mondo della finanza sostenibile e del fintech.
Claudia è una paladina nella lotta contro la violenza economica di genere e gioca un ruolo fondamentale nella Thinking Foundation, un’organizzazione che si dedica all’empowerment femminile.
Nel corso di questa intervista, Claudia ci guiderà attraverso la sua visione del futuro del fintech, toccando argomenti come la finanza sostenibile, l’inclusione, l’Intelligenza Artificiale e l’empowerment delle donne. Avremo anche l’opportunità di discutere il ruolo che la Thinking Foundation sta svolgendo nel plasmare il futuro di questo settore.
Parrot AI è il classico esempio di come l’AI, se usata nel modo sbagliato, può produrre un livello di disinformazione allarmante.
Quando riflettiamo sul ruolo dell’Intelligenza Artificiale, è importante considerare non solo l’impatto nei Paesi in via di sviluppo, ma anche l’effetto globale e il potenziale per favorire l’empowerment femminile.
Una Prospettiva globale: l’AI ha un impatto su scala globale, quindi è essenziale considerare come le sue applicazioni e sviluppi influenzino le donne in tutto il mondo. Anche nei Paesi meno sviluppati, le donne possono beneficiare dell’Intelligenza Artificiale in settori come la salute, l’istruzione, l’economia e altro ancora.
Il Gender Gap, la disparità di genere, continua ad essere una sfida persistente in numerosi settori, inclusa l’innovazione tecnologica.
Tuttavia, negli ultimi anni, sempre più leader politici e figure di spicco si stanno impegnando attivamente per affrontare questa disparità e promuovere una maggiore inclusione delle donne nei settori STEM (Scienza, Tecnologia, Ingegneria e Matematica).
Nel campo rivoluzionario dell’Intelligenza Artificiale, le donne si trovano ad affrontare un fronte di battaglia ostico, minato da pregiudizi di genere profondamente radicati.
Sebbene alcune nicchie, come l’etica e la sicurezza nell’ambito dell’AI, mostrino una leggera diversità di genere, è palese che c’è bisogno di una rappresentanza femminile più incisiva in ogni ambito dell’Intelligenza Artificiale.
Le tensioni esplose tra i membri del consiglio e i dirigenti di Altman riguardo alla visione e alla missione di OpenAI sottolineano in modo chiaro e inequivocabile l’indispensabile ruolo delle considerazioni etiche nella progettazione e nell’attuazione dell’AI.
La democrazia e le tecnologie informatiche hanno una relazione complessa e in continua evoluzione. Le tecnologie informatiche, in particolare Internet e le piattaforme digitali, hanno la potenzialità di rendere la partecipazione dei cittadini alle decisioni pubbliche più efficace e inclusiva. Questo è stato particolarmente evidente nel primo decennio del secolo, quando c’era una grande speranza che il digitale connesso potesse essere lo spazio in cui la democrazia liberale si sarebbe diffusa e rafforzata.
Tuttavia, la fine del secondo decennio ha portato con sé nuove preoccupazioni. Mentre le tecnologie digitali e computazionali continuano a evolversi a un ritmo senza precedenti, stiamo iniziando a vedere come possono essere sfruttate per minare i principi democratici. La disinformazione, le fake news, la manipolazione delle elezioni e la violazione della privacy sono solo alcune delle sfide che stiamo affrontando nello spazio digitale-computazionale.
Paolo Benanti, professore straordinario della facoltà di Teologia presso la Pontificia università gregoriana e presidente della Commissione AI per l’informazione, ha analizzato questi problemi :
La democrazia sfrutta le potenzialità delle tecnologie informatiche per rendere più efficace e inclusiva la partecipazione dei cittadini alle decisioni pubbliche. Se il primo decennio del secolo ci ha fatto sperare che il digitale connesso fosse lo spazio dove si sarebbe diffusa e rafforzata la demorazia liberale, la fine del secondo decennio ci ha iniziato a far temere per il futuro nello spazio digitale-computazionale.
Paolo Benanti su formiche.net
Secondo Benanti, è fondamentale che i principi democratici guidino lo sviluppo e l’uso delle tecnologie informatiche.
Inoltre, è necessario un maggiore coinvolgimento dei cittadini nelle decisioni relative all’uso delle tecnologie informatiche nella società.
Mentre le tecnologie informatiche hanno il potenziale per migliorare la democrazia, è fondamentale che siano guidate da principi democratici e che i cittadini siano coinvolti nelle decisioni su come queste tecnologie vengono utilizzate e ne siano pienamente consapevoli.
Analizzando le sue riflessioni mi vengono in mente 2 Teorie :
Teoria della democrazia digitale: Questa teoria esplora come le tecnologie digitali influenzino la partecipazione politica, la trasparenza e l’accessibilità alle istituzioni democratiche.
Teoria della sovranità digitale: Questa teoria affronta questioni di controllo e autonomia nelle infrastrutture digitali e nell’accesso ai dati, considerando l’interdipendenza tra nazioni e la questione della governance globale dell’Internet.
In sostanza, le 2 teorie indicano che l’avvento delle tecnologie digitali hanno trasformato radicalmente il modo in cui i cittadini partecipano alla vita pubblica e alla democrazia.
Il termine “computazionale” si riferisce al fatto che il processo di cittadinanza e partecipazione democratica avviene sempre più attraverso piattaforme digitali e sistemi informatici.
In altre parole, poiché sempre più aspetti della nostra vita quotidiana sono mediati attraverso dispositivi digitali e piattaforme online, la partecipazione alla democrazia avviene anche attraverso questi canali.
Il concetto espresso da Benanti a mia modesta opinione interpretativa riflette una preoccupazione profonda riguardante il potere crescente delle tecnologie dell’intelligenza artificiale (IA) e la loro interazione con la democrazia.
Si evidenzia come i servizi basati sull’IA stiano offuscando i confini tra il potere computazionale personale (Edge-Mobile) e quello centralizzato nel cloud (Continuum). Ciò si verifica poiché sempre più processi e funzionalità vengono spostati online e gestiti da server remoti, con conseguente perdita di trasparenza riguardo a ciò che avviene effettivamente all’interno dei nostri dispositivi.
Questa perdita di trasparenza ha implicazioni significative per la democrazia, poiché il controllo e l’autonomia delle persone sulle proprie azioni e sulle informazioni personali possono essere compromessi.
La centralizzazione del potere computazionale personale nei server cloud può quindi portare a una centralizzazione del potere stesso, poiché le decisioni riguardanti la gestione e l’elaborazione dei dati possono essere prese da entità centralizzate che controllano tali server.
In questo contesto, si pone la domanda critica su come rendere democratico il potere centralizzato associato all’IA e al cloud computing.
Questo implica la necessità di sviluppare meccanismi e strumenti che consentano una partecipazione inclusiva e responsabile dei cittadini nella definizione delle politiche e delle pratiche relative all’utilizzo dell’IA.
È fondamentale garantire che le decisioni riguardanti l’IA siano prese in modo trasparente e responsabile, tenendo conto dei valori democratici come la partecipazione, l’equità e la tutela dei diritti individuali.
Allo stesso tempo, è cruciale evitare che la democrazia computazionale si trasformi in un’oligarchia del cloud, dove il potere decisionale è concentrato nelle mani di poche entità dominanti nel settore tecnologico.
Ciò richiede un’attenzione particolare alla regolamentazione e alla supervisione delle aziende tecnologiche, così come la promozione di un’innovazione etica che tenga conto degli impatti sociali e politici delle tecnologie dell’IA.
Affrontare queste sfide richiede un impegno collettivo per garantire che l’evoluzione dell’IA e del cloud computing avvenga nel rispetto dei principi democratici e nell’interesse del benessere pubblico, piuttosto che nel perseguimento del potere concentrato e dell’oligarchia digitale.
Solo così possiamo sperare di navigare con successo nel futuro digitale-computazionale.
Interessante citare a mio avviso il rapporto “Setting Democratic Ground Rules for AI: Civil Society Strategies” edatto da Beth Kerley dell’International Forum for Democratic Studies,. Questi analizza le priorità, le sfide e le promettenti strategie della società civile per promuovere approcci democratici alla governance dell’intelligenza artificiale (IA).
Esamina gli ostacoli – dai racconti fuorvianti all’opacità del governo : La presenza diffusa di narrazioni fuorvianti o manipolate riguardo all’IA può ostacolare una comprensione accurata e consapevole dei suoi impatti sulla democrazia, la disinformazione può influenzare le percezioni pubbliche e impedire un dibattito informato sui modi per garantire un uso democratico e responsabile dell’IA,
le lacune nell’expertise tecnica – che ostacolano l’impegno democratico sulla governance dell’IA ,
la mancanza di comprensione approfondita delle implicazioni tecnologiche dell’IA da parte dei decisori politici, dei funzionari pubblici e del pubblico in generale può ostacolare la formulazione di politiche e regolamentazioni efficaci. Le lacune nell’expertise tecnica possono portare a decisioni errate o inefficaci che non tengono conto delle sfide e delle opportunità specifiche dell’IA,
l’opacità dei governi e delle aziende, l’assenza di trasparenza da parte dei governi e delle aziende riguardo alla formulazione e all’implementazione delle politiche sull’IA può rendere difficile per i cittadini valutare e influenzare il processo decisionale e esplora come un nuovo pensiero, nuove istituzioni e nuove collaborazioni possano meglio equipaggiare le società per stabilire regole democratiche per le tecnologie dell’IA.
Il rapporto sottolinea che con i recenti progressi nello sviluppo dell’IA, stiamo vivendo un cambiamento sismico nel bilancio di potere tra le persone e i governi, che pone nuove sfide ai principi democratici come la privacy, la trasparenza e la non discriminazione e inclusione.
Sappiamo che l’IA plasmerà il mondo politico in cui viviamo, ma come possiamo garantire che le norme e la “governance” delle istituzioni democratiche plasmino la traiettoria dell’IA.
Newsletter AI – non perderti le ultime novità sul mondo dell’Intelligenza Artificiale, i consigli sui tool da provare, i prompt e i corsi di formazione. Iscriviti alla newsletter settimanale e accedi a un mondo di contenuti esclusivi direttamente nella tua casella di posta!
Women4Ethical AI è una piattaforma di esperti lanciata da UNESCO per promuovere l’uguaglianza di genere nell’agenda dell’Intelligenza Artificiale (AI). Questa piattaforma collaborativa multilaterale supporta gli sforzi dei governi e delle aziende per garantire che le donne siano rappresentate in modo equo nella progettazione, nell’uso e nel dispiegamento dell’Intelligenza Artificiale.
Gli obiettivi principali di Women4Ethical AI sono:
La conversazione con Reid Hoffman offre una prospettiva illuminante sull’evoluzione della tecnologia e l’impatto dell’IA sulla società. Mentre ci muoviamo verso un futuro dominato dall’IA, è fondamentale adottare un approccio umanocentrico, garantendo che la tecnologia sia utilizzata per amplificare le capacità umane e migliorare la qualità della vita. Solo attraverso una transizione ben gestita e un impegno costante verso l’umanesimo potremo realizzare il pieno potenziale dell’IA e costruire un futuro migliore per tutti.
Una lettera aperta per fermare lo sviluppo di una “corsa fuori controllo”
La rapida evoluzione dell’intelligenza artificiale generativa ha suscitato preoccupazioni crescenti, alimentate dal costante aumento degli investimenti in sistemi sempre più sofisticati. La velocità con cui si sta sviluppando la tecnologia ha portato a una situazione in cui anche i più esperti sono costretti a lanciare segnali di allarme, temendo le potenziali implicazioni di una “corsa fuori controllo” nel campo dell’intelligenza artificiale (AI). L’incredibile progresso che stiamo vivendo sembra, per molti, una strada pericolosa, e la questione merita attenzione urgente.
23 marzo del 2023, un gruppo di ricercatori di spicco nel campo dell’intelligenza artificiale ha sottoscritto una lettera che ha attirato l’attenzione su questa problematica, chiedendo una sospensione immediata dello sviluppo di modelli AI sempre più potenti e vasti. I firmatari, tra cui alcuni dei nomi più illustri nell’ambito della ricerca AI, hanno argomentato che il progresso dei modelli AI dovrebbe essere fermato temporaneamente, offrendo così all’umanità la possibilità di riflettere, rivedere e stabilire i giusti confini etici per l’intelligenza artificiale.
Letter: https://futureoflife.org/open-letter/pause-giant-ai-experiments/
L’accelerato avanzamento dell’Intelligenza Artificiale richiede politiche e azioni proattive per contrastare le minacce all’uguaglianza di genere.
Lo scorso anno, la Commissione delle Nazioni Unite sulla condizione delle donne (CSW) ha riunito le parti interessate a livello globale per valutare i progressi compiuti nell’uguaglianza di genere in relazione all’innovazione, alla tecnologia e all’educazione digitale. Tra le varie conclusioni della Commissione, è emerso il riconoscimento delle promesse e dei rischi legati all’Intelligenza Artificiale (AI).
C’è un crescente riconoscimento dell’importanza di promuovere la partecipazione femminile nelle STEM e nel settore tecnologico in Italia e nel mondo. Le donne stanno giocando un ruolo sempre più importante in questi settori, e ci sono molte opportunità per contribuire all’innovazione e alla crescita economica attraverso il lavoro in STEM e nell’ecosistema tecnologico.
Promuovere la partecipazione delle donne nelle STEM (Scienza, Tecnologia, Ingegneria e Matematica) in Italia attraverso AWS (Amazon Web Services) può essere un’opportunità straordinaria per creare una comunità più equa e inclusiva. Ecco una formula che potrebbe contribuire a raggiungere questo obiettivo:
Women in AI è un’iniziativa di Rivista AI volta a dare voce alle donne che si occupano di Intelligenza Artificiale per favorire lo sviluppo di una tecnologia che sia inclusiva e a vantaggio della società globale.
Se analizziamo l’attuale scenario mondiale dell’Intelligenza Artificiale vediamo che i principali protagonisti soano uomini. Le donne ricoprono appena il 16% dei posti di lavoro dell’AI. Se vogliamo maggiore equilibrio e maggiore uguaglianza nella costruzione di algoritmi, agire contro la riproduzione dei pregiudizi di genere negli algoritmi e renderli più inclusivi, per far sì che rispondano meglio alle caratteristiche e ai bisogni di tutta la popolazione, bisogna favorire la rappresentanza di ragazze e donne nell’istruzione STEM e nei lavori del futuro.
Abbiamo bisogno che le donne siano maggiormente coinvolte nel campo dell’AI e riteniamo che il racconto di storie, carriere e ruoli delle donne che si occupano di Intelligenza Artificiale possa essere da stimolo per le future generazioni nell’identificare modelli positivi di ruolo femminili. Riteniamo altresì importante aumentare la rappresentanza femminile nel settore dell’AI e, più in generale, nelle materie STEM, per contribuire a mitigare il divario di genere nel settore, gettando al tempo stesso le basi per un uso equo e inclusivo dell’Intelligenza Artificiale.
Ecco perché abbiamo deciso di lanciare una serie di interviste incentrate sulle donne che stanno contribuendo alla rivoluzione dell’intelligenza artificiale e che ricoprono ruoli importanti nell’ambito delle nuove tecnologie.
Pubblicheremo diversi articoli durante l’anno evidenziando quel lavoro che spesso non viene riconosciuto o che comunque non ha la stessa visibilità dei colleghi uomini. Intervisteremo manager, ricercatrici, CIO, CTO, amministratici delegate, parlando del loro percorso professionale, del futuro dell’innovazione, delle sfide che le donne devono affrontare nell’AI, delle politiche di inclusione all’interno delle aziende e dei consigli da dare a tutte quelle donne che aspirano ad una carriera nell’AI, cercando di capire cosa sta determinando il divario di genere nell’IA e cosa si può fare per risolverlo.
Se volete contattarci, segnalarci dei nominativi o altro, potete farlo qui sotto:
L’acquisizione di Activision Blizzard da parte di Microsoft è uno dei movimenti più significativi nell’industria del gaming e della tecnologia degli ultimi anni. Annunciata nel gennaio 2022, l’acquisizione ha un valore che si avvicina ai 69 miliardi di dollari, rendendola una delle operazioni di M&A più rilevanti della storia del settore. Questo accordo non solo ridefinisce il panorama del gaming, ma ha anche implicazioni profonde sul futuro dell’intrattenimento digitale, delle tecnologie cloud e dell’intelligenza artificiale.
CC BY-NC-SA 4.0 DEED | Disclaimer Contenuti | Informativa Privacy | Informativa sui Cookie
Lascia un commento
Devi essere connesso per inviare un commento.