Il pensiero collettivo dello sciame digitale è un fenomeno che si sviluppa grazie alla diffusione delle tecnologie digitali e alla loro capacità di connettere le persone in modo globale.
Categoria: Cultura Pagina 9 di 10
Interviste – (DEI) diversità, equità e inclusione – Impatti Sociali ed Etici – Futuro e Prospettive – Legislazione e Regolamentazione -Educazione e Formazione – Lavoro e Formzione
The Daily Beast e The Guardian riportano che la prima mondiale di “The Last Screenwriter”, un film con sceneggiatura generata dall’intelligenza artificiale, è stata cancellata dal Prince Charles Cinema di Londra a causa di una forte reazione pubblica.
I modelli di rilevamento di anomalie sono diventati strumenti cruciali per identificare e affrontare eventi o comportamenti insoliti. Utilizzando avanzamenti nella analisi dei dati e nell’apprendimento automatico, questi modelli sono in grado di identificare situazioni anomale in tempo reale e implementare misure correttive. Questo approccio migliora significativamente l’efficienza operativa, ottimizza le attività e genera benefici economici tangibili, migliorando le decisioni.
Roma, 20 giugno 2024 – Una giornata di incontri nella Capitale sull’innovazione per lo sviluppo futuro del nostro Paese. Questo è il progetto di SIOS24 Summer, la seconda tappa degli eventi annuali di StartupItalia che racconta i nuovi trend, l’impatto delle tecnologie avanzate e l’evoluzione dell’ecosistema imprenditoriale italiano, che si concluderà con SIOS Winter il 17 dicembre a Milano.
Pope Francis has called for a worldwide ban on lethal autonomous weapons, which can target and attack without human input. During his speech he made this appeal during his address to the G7 leaders’ summit in Italy on June 14, 2024.
La nomina da parte di OpenAI di un ex direttore della NSA ha scatenato un’immediata reazione da parte dell’informatore Edward Snowden.
L’annuncio, e’ arrivato durante polemiche sulla sicurezza dell’azienda e dopo che il CTO di OpenAI Mira Murati ha negato le accuse di creare spyware, l’ annuncio ha incontrato resistenze da parte di figure importanti, incluso Edward Snowden.
La distinzione tra natura e cultura è un tema che ha assunto sempre maggiore rilevanza nel contesto delle tecnologie innovative e delle biotecnologie. In questo articolo, esploreremo i concetti fondamentali dietro questa distinzione e le implicazioni etiche che derivano dalle nuove tecnologie.
Papa Francesco accoglie con favore i progressi della scienza e della tecnologia, ritenendo che l’intelligenza artificiale offra nuove opportunità. Tuttavia, avverte dei rischi significativi associati.
Al vertice del G7, il Papa esorterà i leader mondiali a regolamentare l’IA, rinnovando la sua richiesta per un “trattato internazionale vincolante” volto a prevenire abusi e promuovere buone pratiche.
Lunedì 10 giugno, a partire dalle 9:30 presso l’Auditorium Inapp e online, si e svolto il convegno “Digitalizzazione e diritti sindacali: sfide, opportunità, prospettive” organizzato dall’Inapp e dall’Osservatorio sulla Digitalizzazione delle Relazioni Industriali (ODRI) dell’Università Mercatorum, con la collaborazione dell’Università Cattolica del Sacro Cuore.
Il convegno sull’intelligenza artificiale (IA) ha esplorato i principali argomenti relativi all’impiego di questa tecnologia nel mondo del lavoro.
I partecipanti hanno discusso le sfide etiche e sociali che l’IA comporta, come ad esempio la necessità di una transizione complessa al mondo del lavoro con l’IA, richiedendo uno sforzo di riqualificazione societaria per costruire un nuovo umanesimo.
Altri argomenti trattati includono gli investimenti in digitalizzazione e autonomia strategica, l’impatto dell’IA sui modelli organizzativi delle aziende, il lavoro online dinamico basato su algoritmi, lo sciopero e la digitalizzazione, la dematerializzazione e digitalizzazione del luogo di lavoro, i dispositivi indossabili e Internet of Things, l’asimmetria informativa e regolamentazione, e l’utilizzo della IA per verificare l’efficacia dei sussidi dell’INPS.
Questi argomenti hanno messo in evidenza le potenzialità e i rischi dell’IA nel mondo del lavoro, richiedendo un approccio etico e responsabile alla sua implementazione.
Un’ articolo eccezionale di Mariarosaria Taddeo, Andreas Tsamados e Luciano Floridi Human control of AI systems: from supervision to teaming – AI and Ethics, esplora il nostro rapporto con l’intelligenza artificiale: L’evoluzione del controllo umano sui sistemi di AI: dalla supervisione al teaming.
Questi dibattiti sono fondamentali per guidare lo sviluppo futuro delle tecnologie AI.
Harold (Hal) Wolf è presidente e amministratore delegato di HIMSS*, un consulente globale e leader di pensiero che sostiene la trasformazione dell’ecosistema sanitario attraverso l’informazione e la tecnologia.
English Podcast
La Cattedra dei non credenti è stata probabilmente una delle intuizioni più caratterizzanti l’episcopato di Carlo Maria Martini a Milano. L’iniziativa si sviluppò dal 1987 al 2002, lungo 12 edizioni e 50 incontri.
: «… Ciascuno di noi ha dentro di sé un non credente e un credente che ci parlano dentro, che si interrogano a vicenda».
Cardinale Carlo Maria Martini
Questo test viene spesso utilizzato per valutare l’abilità delle sistemi AI di mimare il comportamento umano e determinare se possono distinguersi dagli esseri umani.
Un’intervista recente su Noema con Eric Schmidt, ex CEO di Google, ha stimolato riflessioni importanti sul futuro dell’intelligenza artificiale (IA).
Schmidt prevede che ci troviamo in un momento di rapida evoluzione tecnologica, con nuovi modelli che emergono ogni 12-18 mesi. Secondo lui, nei prossimi tre o quattro anni assisteremo a cambiamenti sostanziali, grazie a una scala di capacità in continua crescita.
Parallelamente, Leopold Aschenbrenner, ex membro del team di sicurezza di OpenAI, ha pubblicato un esteso post di 165 pagine sul futuro dell’IA.
Si prevede che l’incremento delle iniziative legate all’intelligenza artificiale aumenterà significativamente il consumo energetico dei data center entro il 2030, rendendo necessari ingenti investimenti in nuove capacità di generazione di energia.
Molti dei titoli MAG 7, tra cui AWS, Alphabet e Meta Platforms, hanno lavorato tutto l’anno sulle loro offerte di intelligenza artificiale, insieme a Nvidia. Una recente preoccupazione espressa è che nella fretta e nella paura di perdere qualcosa, potrebbero aggiungere offerte che portano nella direzione sbagliata, rompendo ciò che non ha bisogno di essere riparato. Questo è potenzialmente uno spreco di tempo e capitale.
Tiziana Catarci si è laureata in Ingegneria Elettronica nel febbraio 1987 presso l’Università degli Studi di Roma La Sapienza, dove ha conseguito il titolo di Dottore di Ricerca in Informatica nell’ottobre 1992. Dal novembre 2000 è professoressa ordinaria di Sistemi di Elaborazione delle Informazioni (ING-INF/05). Afferisce al Dipartimento di Ingegneria Informatica, Automatica e Gestionale Antonio Ruberti (DIAG, in precedenza Dipartimento di Informatica e Sistemistica), presso la Facoltà di Ingegneria Informatica, Informatica e Statistica della Sapienza Università di Roma, di cui è direttrice dal 2018.
Intervistare una donna che ha eccelso nel suo settore offre un modello positivo non solo per altre donne e uomini, ma anche per ragazze e ragazzi. La rappresentazione è fondamentale per ispirare le nuove generazioni a perseguire i propri sogni e ambizioni. Vedendo una persona simile a loro che ha raggiunto il successo, possono sentirsi più motivate e capaci di fare lo stesso.
Incontrare figure come la Prof.ssa Tiziana Catarci può avere un impatto significativo. Queste donne non solo hanno raggiunto grandi traguardi nei loro rispettivi campi, ma hanno anche influenzato positivamente la società attraverso le loro azioni e parole.
Avere l’oppurtunita’ di conversare con donne di successo è cruciale per molte ragioni: fornisce rappresentazione, ispira nuove generazioni, promuove la diversità, sfata stereotipi di genere e contribuisce alla parità di genere.
Queste storie sono potenti strumenti di cambiamento sociale e culturale, in grado di influenzare positivamente la società a vari livelli.
Redazione Rivista.Ai
Puoi costruire un business che scommette sul fatto che il prossimo modello sarà davvero buono o un modello che scommette su ciò che accadrà e trarrà vantaggio da ciò che accadrà
Sam Altmann
Il giorno dell’annuncio di ChatGPT-4o, Sam Altman si è seduto per condividere i dettagli dietro le quinte del lancio e offrire le sue previsioni sul futuro dell’IA. Altman esplora la visione di OpenAI, discute la tempistica per raggiungere l’AGI e analizza l’impatto sociale dei robot umanoidi.
Esprime inoltre il suo entusiasmo e le sue preoccupazioni riguardo agli assistenti personali IA, evidenzia le maggiori opportunità e i rischi nel panorama dell’IA odierno, e molto altro ancora.
“OpenAI non è nulla senza le sue persone” , questo era lo slogan.
L’ex ricercatore di OpenAI Leopold Aschenbrenner ha dichiarato che le pratiche di sicurezza dell’azienda erano “insufficienti”.
In un’intervista video con Dwarkesh Patel pubblicata martedì, Aschenbrenner ha parlato di conflitti interni sulle priorità, suggerendo che l’azienda si concentrasse più sulla crescita rapida e sull’implementazione di modelli di intelligenza artificiale piuttosto che sulla sicurezza.
Riforme Legislative sull’Intelligenza Artificiale in California
La legislatura della California sta attualmente esaminando una serie di proposte di legge che mirano a regolare l’uso dell’intelligenza artificiale (IA) nel contesto nazionale, seguendo l’esempio di altri stati come il Colorado e lo Utah. Queste iniziative legislative, se approvate, contribuiranno a formare un quadro normativo più robusto per la gestione dei sistemi di IA, specialmente quelli ad alto rischio.
Prima di entrare nel dibattito facciamo un passo indietro. Galileo Galilei definisce la scienza come un metodo rigoroso che si basa su tre passaggi fondamentali:
- Le sensate esperienze: osservazione dei fenomeni naturali attraverso i cinque sensi, necessaria per l’induzione di leggi generali.
- Le necessarie dimostrazioni: formulazione di ipotesi attraverso ragionamenti logici e matematici, che conducono a teorie e leggi scientifiche.
- Cimento o verifica: verifica delle ipotesi formulate attraverso esperimenti riproducibili e misurazioni matematiche, in modo da confermare o falsare le teorie.
L’industria del cinema e l’introduzione dell’Intelligenza Artificiale: un futuro di nuove possibilità
L’industria del cinema ha visto recentemente l’introduzione di tecnologie innovative come l’intelligenza artificiale (AI), che stanno rivoluzionando il modo in cui i film vengono creati e distribuiti. Questo articolo esplorerà le nuove opportunità offerte dall’AI e come stia influenzando il settore cinematografico.
I cineasti dell’IA si sono riuniti all’NFC Lisbona per i primi AIFA Awards dell’AI Film Academy un organismo volto a “democratizzare l’industria cinematografica” attraverso le tecnologie AI e blockchain., celebrando la “diversità delle storie e il nuovo linguaggio visivo dell’IA”.
La teoria della mente, la capacità di comprendere e inferire gli stati mentali altrui, è una delle pietre miliari della cognizione umana. Questo concetto, esplorato in profondità nello studio pubblicato su “Nature Human Behaviour”, (in allegato) Testing theory of mind in LLM and Humans ha recentemente trovato nuovi territori di indagine grazie allo sviluppo dei modelli linguistici di grandi dimensioni (LLM) come GPT-4 e LLaMA2. Questi modelli, sottoposti a una batteria di test per valutare le loro abilità di teoria della mente, hanno mostrato performance paragonabili a quelle umane in vari compiti, sebbene con alcune limitazioni e differenze significative.
La narrativa della fantascienza ha spesso esplorato l’intersezione tra l’intelligenza artificiale e la teoria della mente, anticipando molte delle domande che oggi i ricercatori si pongono. Un esempio emblematico è il romanzo “Do Androids Dream of Electric Sheep?” di Philip K. Dick, da cui è tratto il celebre film “Blade Runner”. In questo romanzo, gli androidi sono creati per sembrare e comportarsi come esseri umani, ma la loro capacità di empatia e comprensione delle emozioni umane è ciò che li distingue dai loro creatori.
Standard di interoperabilità nel settore sanitario: lavori in corso
L’ingegnere Francesco Martelli è un ricercatore presso l’Istituto Superiore di Sanità (ISS) di Roma, Italia. Vanta una vasta e diversificata esperienza nel campo della ricerca scientifica e in vari settori, il che gli consente di analizzare i fenomeni da prospettive multiple.
HIMSS 24 Roma – Intervistatore: Francesco Martelli, la ringrazio per aver accettato questa intervista. È un piacere discutere con lei sull’introduzione delle tecnologie innovative e della digitalizzazione nel settore sanitario. Cominciamo con il concetto di interoperabilità. Come lo descriverebbe e in che modo promuove l’innovazione?
Francesco Martelli: Grazie per l’invito. L’interoperabilità si declina in molte forme, ma in sostanza rappresenta la capacità di diversi sistemi di scambiare e utilizzare informazioni in modo sicuro ed efficace.
Nel contesto sanitario, questo implica che i dati del paziente fluiscano in sicurezza dal punto di origine (come una risonanza magnetica) al punto di utilizzo (il medico che l’ha prescritta).
Questo è cruciale per garantire una gestione efficiente delle informazioni sanitarie e offrire cure più consapevoli e tempestive ai pazienti. Tuttavia, come in tutti i processi di digitalizzazione, sono necessarie particolari attenzioni per gestire correttamente queste informazioni.
La buona digitalizzazione non è gratuita, e nelle fasi iniziali di ogni nuova implementazione, è indispensabile adottare numerose precauzioni.
WOMEN IN AI : La dott.ssa Sara AlShaya, direttrice del dipartimento dati e statistiche presso i servizi sanitari degli Emirati (EHS), e’ intervenuta al masterclass di telemedicina alla conferenza ed esposizione sanitaria europea HIMSS 2024, in programma dal 29 al 31 maggio 2024 a Roma.
- Il metaverso è una visione collettiva di un’area di realtà virtuale supportata da numerose aziende globali;
- Ciclo di vita delle tecnologie emergenti: Secondo Gartner, il metaverso e l’intelligenza artificiale si trovano attualmente nel “baratro della disillusione”, ma questo è un normale stadio del loro ciclo di vita;
- Resilienza e investimenti: Nonostante il calo di interesse, sia il metaverso che l’IA mostrano resistenza al fallimento grazie a ingenti investimenti, valore comprovato e crescente accettazione pubblica;
- Sfide e prospettive future: Le piattaforme finanziarie nel 2024 stanno ignorando il metaverso, e il termine stesso sta perdendo popolarità tra alcuni leader del settore. Tuttavia, ci sono esperienze di successo nei microversi, spazi virtuali specializzati creati per obiettivi specifici;
- Implicazioni per grandi aziende tecnologiche: Grandi aziende come Meta devono affrontare la sfida di trovare nuovi motori di crescita in settori emergenti come il metaverso e l’IA, ma ciò comporta rischi significativi e incertezze;
- Ruolo dell’IA nel futuro del metaverso: L’intelligenza artificiale riveste un ruolo cruciale nello sviluppo del metaverso, con potenziali applicazioni che spaziano dalla traduzione in tempo reale agli NPC avanzati.)
PdP
Quando c’è una frenesia di attività in un’area del mercato molto spesso si crea un’anti-bolla di aziende scartate. Nell’era delle dot com, si trattava di aziende con un flusso di cassa costante. Dov’è l’anti-bolla di oggi? – Nick Sleep, Lettere nomadi (p. 98).
Riflessioni sul Futuro dell’Intelligenza Artificiale: Donne che Cambiano il Gioco
Benvenuti alla prima edizione di una nuova iniziativa mensile di Rivista.AI! Il racconto breve coinvolgente di Raffaella Russo è solo l’inizio di una serie di contributi che verranno pubblicati regolarmente ogni mese. Questo primo soggeto che potremmo definire “HumanAnalytic” introduce temi intriganti e approfondimenti unici sull’intelligenza artificiale, aprendo la strada a una serie di pubblicazioni che esploreranno in modo approfondito le sfide e le opportunità offerte dalla tecnologia moderna. Restate sintonizzati per scoprire nuovi contenuti ogni mese e approfondire la vostra comprensione dell’IA e del suo impatto sulla società.
La teoria della mente, ovvero la capacità di comprendere gli stati mentali degli altri, è fondamentale per il funzionamento del mondo sociale degli esseri umani.
Ci aiuta a decidere cosa dire in situazioni di tensione, a indovinare le intenzioni dei conducenti di altre auto e a entrare in empatia con i personaggi dei film. Secondo uno studio recente, i grandi modelli linguistici (LLM), come quelli che alimentano ChatGPT e simili, sono sorprendentemente bravi a imitare questa caratteristica tipicamente umana.
Via libera definitivo all’unanimità del Consiglio Ue all’AI Act, la legge europea sull’Intelligenza Artificiale che disciplina lo sviluppo, l’immissione sul mercato e l’uso dei sistemi di IA in Ue.
La legge, la prima al mondo in materia detta una serie di obblighi a fornitori e sviluppatori di sistemi di IA in base ai diversi livelli di rischio identificati.
L’atto legislativo sarà pubblicato nella Gazzetta ufficiale dell’UE nei prossimi giorni ed entrerà in vigore venti giorni dopo questa pubblicazione, mentre il nuovo regolamento si applicherà due anni dopo la sua entrata in vigore, con alcune eccezioni per disposizioni specifiche.
Le nuove regole saranno applicabili a due anni dall’entrata in vigore, con l’eccezione dei divieti, che scatteranno dopo sei mesi, dei controlli sui sistemi di IA per finalità generali, compresa la governance (12 mesi) e degli obblighi per i sistemi ad alto rischio (36 mesi).
L’adozione della legge sull’intelligenza artificiale è una pietra miliare significativa per l’Unione europea. Questa legge storica, la prima del suo genere al mondo, affronta una sfida tecnologica globale che crea anche opportunità per le nostre società ed economie. Con la legge sull’AI, l’Europa sottolinea l’importanza della fiducia, della trasparenza e della responsabilità quando si ha a che fare con le nuove tecnologie, garantendo al contempo che questa tecnologia in rapida evoluzione possa prosperare e dare impulso all’innovazione europea.
Mathieu Michel, segretario di Stato belga per la digitalizzazione, la semplificazione amministrativa, la tutela della privacy e il regolamento edilizio
Il Consiglio ha dichiarato che la nuova legge sull’intelligenza artificiale adotta un approccio “basato sul rischio”.
Questo implica che, quanto maggiore è il rischio di danni alla società, tanto più severe saranno le regole. L’agenzia ha chiarito che la legge si applica solo in contesti regolati dal diritto dell’UE e include esenzioni per sistemi usati esclusivamente per scopi militari, di difesa o di ricerca.
Inoltre, il Consiglio ha stabilito che sistemi di intelligenza artificiale come la manipolazione cognitivo-comportamentale e il punteggio sociale saranno vietati nell’UE. La legge impedisce anche l’uso dell’IA per la polizia predittiva basata sulla profilazione e per i sistemi che classificano le persone in base a dati biometrici come razza, religione o orientamento sessuale.
I sistemi di IA a basso rischio avranno requisiti di trasparenza minimi, mentre quelli ad alto rischio saranno soggetti a regolamentazioni stringenti per poter accedere al mercato dell’UE. I modelli di IA per scopi generici, o GPAI, senza rischi sistemici, dovranno rispettare alcune regole limitate.
Le aziende che violeranno l’AI Act affronteranno sanzioni calcolate in percentuale sul fatturato globale annuo dell’anno precedente o in un importo predefinito, scegliendo il più alto. Le PMI e le start-up saranno soggette a sanzioni amministrative proporzionali.
In passato, l’UE ha sostenuto una posizione più severa sulla gestione dell’intelligenza artificiale, mentre il Giappone ha preferito un approccio più morbido, simile a quello degli Stati Uniti, per promuovere la crescita economica.
Nel mese di ottobre 2023, il presidente degli Stati Uniti Joe Biden ha emesso un ordine esecutivo per gestire i rischi legati all’intelligenza artificiale. Anche i paesi del sud-est asiatico hanno adottato un approccio favorevole alle imprese in materia di IA.
La Cina ha avviato un’iniziativa per regolamentare l’IA da diverse prospettive.
All’inizio di questo mese, funzionari di Stati Uniti e Cina si sarebbero dovuti incontrare a Ginevra per discutere della mitigazione dei rischi derivanti dall’intelligenza artificiale avanzata.
Per i documenti di approfondimento leggi il comunicato stampa del Consiglio d’Europa.
Arati Prabhakar, la direttrice dell’Ufficio per la Politica Scientifica e Tecnologica della Casa Bianca (OSTP) e principale consigliera scientifica e tecnologica del Presidente Biden, si è assunta una missione monumentale:
Contribuire a gestire lo sviluppo e la regolamentazione dell’intelligenza artificiale (IA). Nel marzo 2023, Prabhakar ha portato un laptop che mostrava ChatGPT nello Studio Ovale, dimostrando al presidente il potere trasformativo dell’IA. Questo ha portato Biden a emanare un esecutivo completo sei mesi dopo.
Rilanciare l’industria dei semiconduttori negli Stati Uniti. Prabhakor sta lavorando per costruire impianti di fabbricazione di semiconduttori negli Stati Uniti dopo l’approvazione del CHIPS Act, che ha fornito 52 miliardi di dollari di sussidi. Tuttavia, alcuni leader del settore come l’amministratore delegato di Intel credono che sia necessario un ulteriore sostegno per rendere di nuovo competitivi gli Stati Uniti.
Guidare l’iniziativa Cancer Moonshot per compiere progressi significativi nella prevenzione, rilevamento e trattamento del cancro. Mentre i presidenti passati hanno lanciato sforzi simili, Prabhakor ritiene che siano stati compiuti progressi reali e che questa iniziativa possa trarre vantaggio da questo slancio.
L’intelligenza artificiale (IA) sta diventando sempre più potente e diffusa nella società odierna, sollevando una serie di questioni legali che devono essere analizzate, valutate e affrontate con urgenza. Questo documento bianco mira a esplorare alcuni dei concetti legali chiave legati all’utilizzo dell’IA, concentrandosi su quattro aspetti fondamentali.
Un approfondimento sul Trustworthy AI e il Responsible AI Engineering
Azzurra Ragone
Professoressa, autrice scientifica, responsabile dell’innovazione e della trasformazione, ingegnere.
Si è laureata con lode presso il Politecnico di Bari (Italia) con una laurea magistrale in Ingegneria Gestionale. Ha proseguito la sua formazione lavorando e conseguendo il Dottorato di Ricerca in Ingegneria dell’Informazione presso il Politecnico di Bari.
Attualmente è ricercatrice presso il Dipartimento di Informatica dell‘Università di Bari “A. Moro”.
Il lavoro della Prof.ssa Azzurra Ragone si concentra sullo sviluppo di framework e pratiche concrete per guidare lo sviluppo di sistemi di IA affidabili e responsabili, colmando il divario tra teoria ed etica dell’IA e la sua implementazione pratica.
C’è un nuovo protagonista che attira l’attenzione nel competitivo mondo delle startup di intelligenza artificiale. Fei-Fei Li, scienziata informatica e professoressa presso l’Università di Stanford, conosciuta come la “madrina” dell’IA, sta costruendo una nuova azienda “che utilizza l’elaborazione visiva simile all’uomo per rendere l’IA capace di ragionamento avanzato”, secondo un rapporto di Reuters.
“The Book of Why: La nuova scienza della causa e dell’effetto” è un libro del 2018 rivoluzionario scritto da Judea Pearl e Dana Mackenzie che esplora i concetti di causalità e inferenza causale. Il libro mira a fornire un nuovo framework per comprendere le relazioni causa-effetto, andando oltre i metodi statistici tradizionali, che spesso si concentrano sulla correlazione piuttosto che sulla causalità. In questa recensione, esploreremo i concetti chiave dietro “The Book of Why” e discuteremo le sue implicazioni per vari campi, tra cui l’intelligenza artificiale, l’economia e le scienze sociali.
Le donne devono sfruttare i vantaggi e le potenzialità dell’Intelligenza Artificiale evitando che questa colpisca ancora di più i fattori negativi sul mercato del lavoro e l’occupazione femminile.
È quanto auspica la Vice Direttrice Generale di Banca d’Italia Alessandra Perrazzelli intervenuta al W7 di Roma, un gruppo di impegno civile ufficiale nell’ambito del G7, istituito nel 2018 dalla presidenza canadese, con l’obiettivo di promuovere proposte sull’uguaglianza di genere e sui diritti delle donne che vengono poi presentati ai Governi che ne fanno parte.
LE INTERVISTE DI WOMEN IN AI – Chiara Mugnai, un viaggio tra la resilienza climatica, l’Intelligenza Artificiale e verso il cambiamento che genera valore.
Chiara Mugnai ha una laurea magistrale in Ingegneria Bionica e lavora da 6 anni nel campo dell’intelligenza artificiale. Attualmente è co-fondatrice e Chief Data Scientist (CDS) di Eoliann, una startup italiana che, utilizzando l’intelligenza artificiale applicata ai dati satellitari, aiuta le aziende ad adattarsi al cambiamento climatico fornendo probabilità e impatto degli eventi estremi.
Il ruolo di Chiara in Eoliann è fondamentale nel plasmare la direzione e l’impatto tecnologico dell’azienda.
L’incrocio di linguaggi tra Intelligenza Artificiale e Scienze Cognitive e del Cervello
Luciano Floridi è un filosofo italiano naturalizzato britannico, professore ordinario di filosofia ed etica dell’informazione presso l’Oxford Internet Institute dell’Università di Oxford, dove è direttore del Digital Ethics Lab, nonché professore di Sociologia della comunicazione presso l’Università di Bologna.
Anna Christina Nobre FBA, MAE, fNASc è una neuroscienziata cognitiva brasiliana e britannica che lavora presso la Yale University di New Haven, CT, USA. Nobre è professoressa di Wu Tsai presso l’Università di Yale, dove dirige il Centro di Neurocognizione e Comportamento presso l’Istituto Wu Tsai.
Il parallelismo tra il cervello umano e le reti neurali artificiali è un concetto fondamentale sia per le scienze cognitive e le neuroscienze che per lo studio dell’Intelligenza Artificiale (IA). Questo parallelismo ha portato a un’ampia sovrapposizione di terminologia e concetti tra i due campi, che se da un lato può essere utile per la comprensione reciproca, dall’altro può generare incertezza e confusione.
LE INTERVISTE DI WOMEN IN AI – Claudia Segre, un viaggio tra finanza sostenibile, inclusione, Intelligenza Artificiale e l’empowerment delle donne con la Thinking Foundation.
Oggi abbiamo l’opportunità unica di condividere con voi un’intervista esclusiva con Claudia Segre, un nome di rilievo nel mondo della finanza sostenibile e del fintech.
Claudia è una paladina nella lotta contro la violenza economica di genere e gioca un ruolo fondamentale nella Thinking Foundation, un’organizzazione che si dedica all’empowerment femminile.
Nel corso di questa intervista, Claudia ci guiderà attraverso la sua visione del futuro del fintech, toccando argomenti come la finanza sostenibile, l’inclusione, l’Intelligenza Artificiale e l’empowerment delle donne. Avremo anche l’opportunità di discutere il ruolo che la Thinking Foundation sta svolgendo nel plasmare il futuro di questo settore.
Nell’esplorare il mondo dell’Intelligenza Artificiale, dobbiamo porci una domanda fondamentale: è veramente inclusiva?
“Non basta semplicemente incoraggiare le ragazze ad avvicinarsi alle discipline STEM.
Dobbiamo affrontare con determinazione i pregiudizi radicati all’interno dell’AI stessa.
Solo così potremo creare un futuro in cui tutti possano partecipare pienamente e equamente alla rivoluzione tecnologica.”
Parrot AI è il classico esempio di come l’AI, se usata nel modo sbagliato, può produrre un livello di disinformazione allarmante.
Quando riflettiamo sul ruolo dell’Intelligenza Artificiale, è importante considerare non solo l’impatto nei Paesi in via di sviluppo, ma anche l’effetto globale e il potenziale per favorire l’empowerment femminile.
Una Prospettiva globale: l’AI ha un impatto su scala globale, quindi è essenziale considerare come le sue applicazioni e sviluppi influenzino le donne in tutto il mondo. Anche nei Paesi meno sviluppati, le donne possono beneficiare dell’Intelligenza Artificiale in settori come la salute, l’istruzione, l’economia e altro ancora.