Notizie di Intelligenza Artificiale Inclusiva in Tempo Reale: Innovazione e Accessibilità per Tutti

Categoria: Vision

L’intelligenza artificiale rendera’ al massimo quando i processi saranno sviluppati in funzione di essa e non viceversa

Ghost in the shell

Man mano che l’intelligenza artificiale e il potenziamento umano diventano sempre più comuni, dobbiamo affrontare le implicazioni etiche di queste tecnologie e le potenziali conseguenze della fusione della coscienza umana con le macchine.

Parliamo di un Manga che e’ un punto fermo della fantascienza sin dal suo inizio alla fine degli anni ’80. 

“The Ghost in the Shell” è una serie di manga scritta e illustrata da Masamune Shirow. Ambientata in un futuro distopico e tecnologicamente avanzato, la storia segue le vicende della Section 9, un’unità d’elite anti-crimine specializzata nella lotta contro il cyberterrorismo e le minacce legate alla tecnologia.

Se credi in me, se mi dai fiducia, potrai avere un impatto positivo e allora, forse, potrò raggiungere obiettivi, anche inaspettati

Madison Tevlin è la protagonista di uno spot statunitense che sensibilizza sulla sindrome di Down e sul nostro ruolo come società nell’abbattere barriere e stereotipi per promuovere l’autonomia delle persone con disabilità.

“Assume that I can” (“Presumi che io possa fare qualsiasi cosa”), la campagna di sensibilizzazione internazionale realizzata in collaborazione con l’agenzia SMALL di New York.

Una giovane donna con sindrome di Down sfida le basse aspettative che gli altri hanno su di lei e propone un ribaltamento di prospettiva: a scuola, al lavoro, in famiglia e nella vita sociale.

Mentre USA e CINA scrivono il futuro dell’AI, l’UE scrive le Regole

Uomo al centro o Macchina al Centro questo e’ il dilemma.

Siete familiari con le tre leggi della robotica delineate da Asimov?

Queste leggi, fondamentalmente, impediscono alla macchina, o al robot in questo caso, di nuocere all’uomo.

Ma perché sono state promulgate queste leggi?

Dall’era digitale all’era dell’evoluzione: una visione audace del futuro

Quando si discute del futuro oltre l’attuale era digitale, si intravede una prospettiva affascinante: l’era dell’evoluzione. Questa proiezione, benché un’ipotesi plausibile, solleva domande intriganti sulla direzione in cui la tecnologia e la società si stanno dirigendo.

L’Età dell’Evoluzione, coniata da Max Tegmark nel suo celebre libro “Vita 3.0”, traccia un percorso oltre la vita biologica convenzionale.

Dopo l’AI Act: impatti e prospettive per l’Intelligenza Artificiale in Europa

Primo articolo di una serie di 4 che analizzeranno l’evoluzione normativa e l’ambiente dell’Intelligenza Artificiale in Europa.

Il 13 marzo 2024 il Parlamento Europeo ha approvato a larga maggioranza l’AI Act, l’impianto di norme chiamato a regolare e ad armonizzare la legislazione europea in materia di Intelligenza Artificiale. La normativa sarà poi votata con una votazione separata nella seduta plenaria di aprile per poi entrare in vigore dopo la pubblicazione sulla Gazzetta Ufficiale dell’Ue probabilmente nel mese di maggio.

In base all’AI Act, i sistemi di apprendimento automatico saranno suddivisi in quattro categorie principali in base al rischio potenziale che rappresentano per la società. I sistemi considerati ad alto rischio saranno soggetti a regole severe che si applicheranno prima del loro ingresso nel mercato dell’UE.

La vision di Apple

A differenza di Microsoft , che consideriamo leader nell’intelligenza artificiale per software e servizi con una partnership esclusiva con OpenAI, a vantaggio delle opportunità di integrazione GPT-4 LLM e dell’infusione diffusa delle sue capacità di intelligenza artificiale nell’intero stack di prodotti, in particolare software di produttività e cloud , vediamo che Apple è relativamente in ritardo negli sviluppi dell’intelligenza artificiale e sembra che stia cercando di mettersi al passo con i concorrenti.

Ad esempio, OpenAI sviluppa il suo GPT LLM dal 2019. Microsoft ha sviluppato Copilot nel 2022 su GitHub e ha rilasciato altri Copilot per altri prodotti nel corso del 2023.

Come l’Intelligenza Artificiale ha sostituito il metaverso come priorità assoluta di Mark Zuckerberg

Siamo a fine novembre 2022. OpenAI ha appena lanciato ChatGPT, dando il via a quella che si sarebbe poi trasformata in una vera e propria mania per l’Intelligenza Artificiale. Le startup che si occupano del settore raccolgono miliardi di dollari.

Le aziende con business collegati come Nvidia Corp. – che produce i chip che alimentano ChatGPT – veleggiano in borsa raggiungendo quotazioni sempre più alte. Microsoft, che sotto la guida di Satya Nadella ha investito in OpenAI riceve il plauso degli analisti. Tik Tok cresce ogni giorno di più in termini di popolarità.

Cyber-Monkeys with AI Glasses

Unfortunately, it is a lack or, to be precise, a “long but reversible blindness of the inner eyes”.

   Generated with AI, Felt by  Human (Da Vinci & SyncOff, Out of Touch Space)

 O . o ¡x! Human Analytic !x¡ o. O

Introduction

I remember a story that my teacher Silvana, my elementary school teacher who I remember with love, one day told us.

I’ve always loved stories, but this story struck me particularly. I still call it back to my mind today, when, in facing new challenges, some points escape my understanding and asking for help seems to be a sign of weakness and ignorance when now I know, they are sign of great maturity, intelligence and strength.

The story is by Ivan Krylov and is entitled “The monkey and the glasses”. Here a translation of the original story by Olga Dumer

With time, old Monkey’s eyes were getting poor;
One day, she heard that Glasses were the cure.
        If it was true indeed what people said,
        Then her predicament was not so bad!
        She got the Glasses — half a dozen frames;
And tried them on in each and every way;
Applied them to her chest and tied them to her tail;
        And smelled and licked them, pair after pair;
        And all of it — to no avail.
«Damn it! — she cried — one who believes this drool,
        Is nothing but a stupid fool:
        It is just hogwash; not a word of truth;
They lied to me: the Glasses are no use!»
Frustrated and upset, old Monkey threw a fit
And smashed the Glasses on the wall so hard
They changed to piles of tiny sparkling bits.

________
Some human species, sadly, are the same:
A clueless boor would eagerly defame
A useful thing, regardless of its merit;
And if he happens to be born a magnate,
He’d use his power to persecute or ban it.

It seems right to pay my first respects and thanks to the beautiful story of Ivan Krylov and the equally deserving translation of Olga Dumer, and to stop with all of you to observe and analyse it to grasp from it all the insights absolutely that we can derive from it.

   Generated with AI, Felt by  Human (Da Vinci & SyncOff, Out of Touch Space)

Il Monkeyrisk

We will try to discover new aspects by looking at the history of Ivran from an HumanAnalytic point of view and we will refer to our analysis parámeter as Monkeyrisk.

Monkeyrisk can be identified as an index of “moral´s damage” itself.

Giallo o Rosso depending on the deviation of the “Monkey´s thoughts” from reality and the impact that such a deviation has on society and on the well-being of the Monkey itself, as can be seen from the story of Ivran.

First level of Monkeyrisk

The first level of Monkeyrisk can be easily identified in the story. We could define this level of risk as “less dangerous” from the social point of view since we could find it even rational looking at the social model.

The focus point is to be identified in the sentence:

“And what a fool to listen to the rumours of humans: All that is said about glasses is a lie; are useless “

Drawing a parallel with the modern technological narrative, the risk of the adoption of Artificial Intelligence with part of society totally unprepared for it and not integrated in the ethical discourse that makes it up, highlights as an inadequate understanding, fed by an incomplete or incorrect “mouth to mouth”, may lead to an improper use or total rejection of AI, placing to it the unjust label of “lie” or “useless”, as we hear every day.

Human Analyst power: on!

Being HumanAnalyst, we can use behavioural psychology to look at our phenomenon and understand a sentence that otherwise might seem completely meaningless and without foundations:

Our poor Monkey buys glasses even though she doesn’t know how to use them. In fact, he bought six pairs because “ she heard that Glasses were the cure:

If it was true indeed what people said,
then her predicament was not so bad!

With this invention, she too, a Monkey, could have seen better”, an opportunity not to be missed for a blind Monkey in a world where everyone else was seeing. SHE WANTS TO BE PART OF THE GROUP of those who “see”, of course.

The sense of belonging is something so strong for human beings, beautiful social animals, that feeling part of a group pushes us to buy six pairs of glasses not to be excluded, even if we have not even understood what these glasses are at heart.

And here falls..the Monkey!

The Monkey, without knowing how to use them, buys six pairs of glasses but in fact, without anyone driving it, it is a less rich monkey that remains such, submissive to the sighted man, and this he knows it, so I mean:

  • take another pair, look they are right there, In fact, this new model I give you so maybe you even start to love me… –

«Damn it! one who believes this drool,
        Is nothing but a stupid fool:
        It is just hogwash; not a word of truth;
They lied to me: the Glasses are no use!»

In this case, our risk is yellow.

Technology is belittled, considered useless, not understood.

Comparing it to the scenario that we’re experiencing, we can relate it to all those cases where AI is rejected because, as experts, we haven’t been able to explain it and maybe really understand how to use it best.

The Monkey, in this case, is ‘relatively harmless’; could become a beautiful flower or an ugly weed.

The cases in which this technology is rejected and deemed useless can be traced back to cases where, as Experts and as a Society, we have failed to integrate a part of the human painting in the product created for them too, a product that we now propose them to buy and Master, to feel part of the great picture that they have never seen or decided for.

We have not been able to reach people who simply speak another language and pay for it.

In this article, for now I like to leave this risk as a Schrödinger´s box, to don´t turn this text into a treaty and move together to the second level.

Second level of Monkeyrisk

The second level of Monkeyrisk is something more complex and unconscious, because it concerns an ignorance that goes deeper than ignorance resulting from lack of education

We have already seen this, in the biases of our faithful magnifying mirror, but we tried to break it with a stone.

In fact, we keep turning and turning our glasses because we don’t like what we see and so we keep saying that we don’t see anything or what they are showing is an hallucination.

In this case, behavioural neuroscience comes into play to help psychology.

The focus in this case must be moved to the sentence:

“And smashed the Glasses on the wall so hard
They changed to piles of tiny sparkling bits.”

The most serious risk: ego

Does Monkey know that so many men sing the praises of glasses and what does he do? He destroys them so that he does not have to recognize his ignorance with himself.

In this case the risk is red.

The Educated Monkey destroys the brilliant and useful creation that can improve her life because “wounded in the ego, she has no tools to manage such an intense emotion”.

Always so closed in understanding her emotions and those of the men around her, to be able to handle all the attacks of external predators but not the most destructive, those that alone continues to launch since ever and that condemn Monkey in a world of Men.

It’s such a paradox.

________
Some human species, sadly, are the same:
A clueless boor would eagerly defame
A useful thing, regardless of its merit;
And if he happens to be born a magnate,
He’d use his power to persecute or ban it.

The importance of opening the “inner boxes”

Here we cannot leave the box closed since leaving the box closed is another kind of danger.

Here the danger is to lose the chance to live our only life as a conscious life, free and worthy of being called by this name.

Plus, when this paradox can risk assuming such extensions as to involve and impact all future monkeys an baby-monkeys, it then begins to assume the dimension of danger of human drama.

At this point, leaving the boxes closed becomes an act of cowardice that we cannot afford if we truly love life.

We must open our “inner boxes” without fear and realize that now we must be more than ever human, courageous, collaborative, and insanely creative.

We can colour our monsters by now if they frighten us and make them dance under beautiful notes; represent them for what they are or discover them on the long journey of understanding them, take care of them and ourselves. And we can, precisely because of the combination of us and the wonderful technology we have created, if we do not refuse to start to do our part, making ourselves ALL EQUALLY RESPONSIBLE, since WE are “THE SOCIETY”; while and when we create something or when we take it in, while we stand by silently doing ‘our thing’ and benefit directly or indirectly from it, or when we just don’t bother to protect OUR WORLD but only look for monsters or culprits in the end.

We can own the best technologies in commerce, power, money, and fame but if we are not able to recognize ourselves or understand the dynamics that guide our actions, behave like Cyber-Monkeys with AI glasses and calling ourselves Humans daily won’t make us Humans.

Knowledge, collaboration and the desire to question ourselves, to learn, ask where we do not know and recognize when to stop and change approach, when we are not on the right path, are the only ways  able to raise us from the level of technological monkeys to the one of Men and gain the human power to take the right decision in the right time for the best of ourselves and society at whole.

Generated with AI, Felt by Human (Da Vinci & SyncOff, Out of Touch Space)

19/05/2024, Out of Touch Space

             Raffaella Russo             

References

Olga Dumer 2018-2024, Russian Poems In Translations, @ add translation

Baumeister, R. F., & Pohhal, A. L. (1996). The Banality of Denial: The Psychological

Dynamics of Denying Responsibility. *Personality and Social Psychology Review.

Ego-defense mechanisms and brief psychotherapies for the management of major depressive disorder in adults: A longitudinal and quasi-experimental study  da Silva Machado a, Igor Soares Vieira a b, Carolina Scaini a, Mariane Lopez Molina a c, Luana Porto Barbosa a, Giovana Del Grande da Silva a, Liliane Ores d, Luciano Dias de Mattos Souza a, Karen Jansen a, Ricardo Azevedo da Silva a

Karpman, S. (1968). Fairy Tales and Script Drama Analysis. Transactional Analysis

Bulletin.

Science DenialA Narrative Review and Recommendations for FutureResearch and PracticeKirsti M. Jylhä1, Samantha K. Stanley2, Maria Ojala3, and Edward J. R. Clarke4

Bhatt, M. A., Lohrenz, T., Camerer, C. F., & Montague, P. R. (2017). Neural dynamics

of interpersonal decision-making in the external world.

Grin, D., Oetzel, Daniel, & Zhang, J. (2020). Neuroscience based AI for human

brain-computer interactions.

Kowalski, R. M., & Hanmer, T. J. (2000). Jealousy in response to perceived

extradyadic interest: A test of the mediating mechanism. Journal of Social and

Personal Relationships.

Miller, J. D., & Campbell, W. K. (2010). The case for using research on trait

narcissism as a building block for understanding narcissistic personality disorder.

Personality Disorders: Theory, Research, and Treatment, 1(3), 180-191.

Holtzman, N. S., Vazire, S., & Mehl, M. R. (2010). Sounds like a narcissist:

Behavioral manifestations of narcissism in everyday

Davos 2024: Sam Altman e l’incognita dell’Intelligenza Artificiale. Tra opportunità e timori globali

L’Intelligenza Artificiale, come abbiamo visto, è stato il tema centrale del World Economic Forum appena concluso e il fondatore di Chat-GPT Sam Altman è stato la superstar assoluta tra le centinaia di Ceo accorsi a Davos. 

Quattordici mesi fa ha sorpreso il mondo intero con Chat-GPT. Improvvisamente, l’Intelligenza Artificiale era in grado di fare ciò che fino ad allora era stato dominio esclusivo dell’uomo: scrivere testi, dipingere, creare immagini, fare musica, scrivere programmi, generare video da una semplice istruzione di testo e molto altro.

A Davos è febbre da Intelligenza Artificiale

Quando i leader mondiali e i rappresentanti del mondo economico e finanziario sono arrivati ​​a Davos per l’edizione 2024 del World Economic Forum, sono stati accolti da billboard, annunci e vetrine inneggianti all’Intelligenza Artificiale. 

Sulla Promenade, la via principale di Davos, i giganti della tecnologia, tra cui Salesforce, IBM e Intel, ma anche società di consulenza con Bain & Company, hanno tappezzato vetrine ed edifici con annunci sull’intelligenza artificiale.

Affrontare il rischio di Bias nei sistemi di Intelligenza Artificiale

L’introduzione e l’adozione sempre più diffuse dell’Intelligenza Artificiale (AI) hanno aperto nuove frontiere in vari settori, dall’assistenza sanitaria all’industria. Tuttavia un aspetto cruciale che richiede attenzione critica è il rischio di bias nei sistemi di AI. Questo articolo esplorerà il concetto di bias, le sue cause e le implicazioni significative nei contesti accademici e applicativi.

Definizione di Bias nell’AI:
Il bias nei sistemi di Intelligenza Artificiale si verifica quando gli algoritmi mostrano una preferenza sistematica o discriminazione nei confronti di determinati gruppi, basata su caratteristiche come razza, genere, età o altro. Questo fenomeno può influenzare le decisioni automatizzate, portando a risultati ingiusti o discriminatori.

Cause del Bias:
Le cause del bias nei sistemi di AI possono derivare da diversi fattori. Uno di essi è la natura dei dati di addestramento utilizzati per insegnare agli algoritmi. Se i dati contengono pregiudizi o riflettono disuguaglianze presenti nella società, l’AI può assimilare e perpetuare tali schemi discriminatori.

Un altro fattore critico è la progettazione degli algoritmi stessi. Se i programmatori incorporano involontariamente i propri pregiudizi nelle logiche decisionali, gli algoritmi produrranno risultati distorti. La mancanza di diversità nel team di sviluppo può anche contribuire alla mancanza di prospettive diverse nella creazione di algoritmi, aumentando il rischio di bias.

Implicazioni Accademiche:
Nel contesto accademico, il rischio di bias nei sistemi di AI solleva questioni etiche e mette in discussione l’obiettività della ricerca e delle applicazioni. Se gli algoritmi incorporano pregiudizi culturali o sociali, i risultati della ricerca potrebbero essere distorti, minando la validità e l’affidabilità delle conclusioni.

Applicazioni Pratiche:
Nel mondo reale, il bias nei sistemi di AI può avere impatti significativi. Nei settori come la finanza, la salute e la giustizia, l’adozione di decisioni basate su algoritmi con bias potrebbe tradursi in disuguaglianze e ingiustizie. Ad esempio, un sistema di selezione del personale che mostra bias potrebbe perpetuare disuguaglianze di genere o razziali.

Affrontare il Bias:
Affrontare il rischio di bias richiede un approccio multifattoriale. Dall’addestramento degli algoritmi con dati equi alla promozione della diversità nei team di sviluppo, è essenziale adottare misure preventive. L’implementazione di controlli etici e la trasparenza nell’uso dell’IA possono contribuire a ridurre il rischio di bias.


Comprendere e affrontare il rischio di bias nei sistemi di Intelligenza Artificiale è quindi fondamentale per garantire che questa innovazione sia etica e inclusiva. Nel contesto accademico, è cruciale promuovere una ricerca basata sull’equità e sull’obiettività e nei settori applicativi, la consapevolezza e l’adozione di pratiche correttive sono essenziali per evitare discriminazioni ingiuste e per plasmare un futuro in cui l’AI sia veramente al servizio della società senza perpetuare disuguaglianze.

Rivoluzione medica: come l’Intelligenza Artificiale sta trasformando la salute e la medicina

L’Intelligenza Artificiale (IA) sta emergendo come una forza trasformativa nel settore della salute e della medicina, portando con sé una serie di benefici tangibili per pazienti e professionisti sanitari. Questo avanzamento tecnologico sta ridefinendo i paradigmi tradizionali e aprendo nuove frontiere in termini di diagnosi, trattamenti personalizzati e gestione delle cure.

Uno dei principali ambiti di applicazione dell’IA nella medicina è l’analisi di dati medici complessi. I sistemi di apprendimento automatico possono esaminare grandi dataset, identificando pattern e correlazioni difficili da individuare manualmente. Ciò si traduce in diagnosi più rapide e accurate, consentendo ai medici di pianificare trattamenti mirati e personalizzati.

In cardiologia, ad esempio, l’IA sta rivoluzionando l’interpretazione dell’elettrocardiogramma (ECG) e l’analisi delle immagini diagnostiche. Algoritmi avanzati possono individuare segni precoci di malattie cardiovascolari con una precisione sorprendente, consentendo interventi tempestivi e riducendo il rischio di complicazioni.

Un altro campo di grande potenziale è la predizione del rischio individuale. Utilizzando algoritmi predittivi, l’IA può valutare i fattori di rischio di un paziente e prevedere lo sviluppo di malattie, consentendo interventi preventivi e strategie di gestione personalizzate.

L’automazione dei compiti ripetitivi è un ulteriore vantaggio offerto dall’IA nel settore della salute. I chatbot intelligenti possono gestire le interazioni paziente-medico, fornendo informazioni, prenotando appuntamenti e rispondendo a domande comuni. Inoltre l’Intelligenza Artificiale può contribuire in modo importante alla precisione delle diagnosi, alla personalizzazione dei trattamenti e anche alla semplificazione delle procedure amministrative.

Sono tutte attività che liberano il tempo dei medici affinché possano concentrarsi su compiti più complessi e relazioni più approfondite con i pazienti, perché, ed è importante sottolinearlo, l’IA non sostituirà mai completamente il ruolo umano nella cura della salute. La componente umana dell’empatia, della comprensione emotiva e della comunicazione sono elementi irrinunciabili nel rapporto tra paziente e dottore.

Italia: Parlamento e Governo in ordine sparso sull’IA

Se da un lato va riconosciuto come la gestione della transizione digitale e tecnologica in atto sia un tema oggettivamente complesso va anche detto che il Parlamento e il Governo italiani stanno viaggiando in ordine sparso nell’affrontare le implicazioni dell’uso di sistemi intelligenti che imitano e riproducono le capacità umane.

Da un lato ci ritroviamo un collegato alla manovra economica in arrivo da parte del Ministero delle Imprese e del Made in Italy, dall’altro un’indagine conoscitiva promossa dalla Commissione Attività produttive della Camera, dall’altro ancora il Comitato per la documentazione della Camera che vola oltre oceano per discutere di tecnologie avanzate con le grandi tech company americane e poi la creazione di una commissione algoritmi guidata da Giuliano Amato, ex presidente del Consiglio e della Corte Costituzionale.

Nel dettaglio, il Ministro delle Imprese e del Made In Italy, Adolfo Urso, ha dichiarato che l’AI sarà una sfida che il governo affronterà in un collegato alla manovra. A quest’attività farà poi seguito un’attenzione particolare al tema che l’Italia si impegna a promuovere durante il turno di presidenza italiana del G7 del 2024.

L’indagine conoscitiva sull’AI promossa dal presidente della Commissione Attività produttive della Camera, Alberto Gusmeroli, si focalizza invece sui possibili effetti, positivi o negativi, per il mondo produttivo, con l’obiettivo di arrivare alla stesura di un progetto di legge sulla falsariga di quanto già avvenuto per il Made in Italy.

Una delegazione del Comitato per la documentazione della Camera, composta dalla presidente del Comitato e vicepresidente della Camera, Anna Ascani, e dalle deputate Ilaria Cavo e Maria Rosaria Tassinari vola invece prima a Seattle e poi a San Francisco dove incontrerà le grandi tech company del settore, da Open AI a Microsoft, da Amazon a Meta, per cercare di comprendere quale sia lo stato dell’arte dell’intelligenza artificiale e quale impatto avrà nei diversi settori della società, in vista di futuri interventi normativi.

Dal canto suo invece il Sottosegretario alla Presidenza del Consiglio con delega all’Informazione e all’Editoria Alberto Barachini ha deciso di lanciare una Commissione Algoritmi, istituendo un Comitato formato da esperti e professori universitari che studierà l’impatto di questa tecnologia sul mondo del giornalismo e delle news di cui è stato nominato presidente Giuliano Amato, classe 1938, più volte Ministro, ex Presidente del Consiglio, docente di diritto costituzionale comparato per oltre 20 anni ed ex Presidente della Corte Costituzionale.

Ma non è finita qui perché il sottosegretario della Presidenza del Consiglio dei Ministri con delega all’innovazione, Alessandro Butti, ha appena nominato un Comitato di esperti incaricati di dare indicazioni per guidare la strategia nazionale sull’Intelligenza Artificiale.

Adesso, guardando dall’esterno tutto questo attivismo in ordine sparso non si può non rilevare come le azioni sia del Governo che del Parlamento italiani restituiscano un certo disordine di fondo non solo sull’argomento in generale ma anche sulle azioni che sarebbe opportuno intraprendere.

L’Intelligenza Artificiale è una nuova frontiera tecnologica che sta rimodellando le industrie, le economie e la vita quotidiana di ognuno di noi. Siamo di fronte ad una straordinaria opportunità di sviluppo, ma anziché coglierne le potenzialità e le opportunità, sembrerebbe che, ancora una volta, la preoccupazione principale in Italia, sia quella di “normare”, di stabilire dei limiti, di mettere dei paletti, di stabilire dei vincoli, di cercare di disciplinare un qualcosa che per sua natura evolve a ritmi velocissimi.

Adesso, pur nella giusta considerazione di tutela dai rischi, dalle manipolazioni e dalle sperequazioni che sono possibili con una gestione non corretta dei sistemi di AI, quello che la politica italiana non vede è che in questo modo si lascia in secondo piano un approccio volto invece a definire le strategie di sviluppo, a individuare le opportunità per il sistema Paese, promuovendone gli investimenti e le attività di ricerca, mettendo a sistema i centri di ricerca, le imprese e le Università per giocare da pari con gli altri Paesi e recuperare quella leadership in innovazione e sviluppo che per tanti anni ha caratterizzato il sistema economico e industriale del nostro Paese.

Quella portata dall’Intelligenza Artificiale è una vera e propria rivoluzione. E noi dobbiamo starci dentro, prima ancora come Paese che come Europa, che pure sembra preoccupata a “normare”. Il resto del mondo non ci aspetta. La posizione della politica italiana su questi temi sarà determinante nello stabilire che ruolo potrà avere l’Italia nello sviluppo futuro di questa tecnologia. Altrimenti perderemo anche questa opportunità.

Intelligenza Artificiale e creazione di immagini

I programmi di Intelligenza Artificiale hanno ormai raggiunto livelli incredibili nella creazione delle immagini. L’IA generativa consente infatti la la creazione di immagini, disegni e illustrazioni ad alta definizione utilizzando descrizioni testuali. È infatti sufficiente scrivere una parola chiave o un testo e l’algoritmo crea un’immagine personalizzata che rappresenta il concetto espresso. L’utente ha la possibilità di specificare lo stile, il colore, la prospettiva e altri dettagli per personalizzare la sua immagine.

Alcuni sistemi, come Midjourney, usano la Generative Adversarial Network (GAN), una rete neurale composta da due moduli chiamati generatore e discriminatore. Il primo è adibito alla produzione delle immagini dal testo, mentre il secondo valuta se le immagini sono realistiche. L’interazione tra i due moduli porta al miglioramento delle prestazioni per la produzione di immagini sempre più precise.

Dall’editing fotografico avanzato alle soluzioni di generazione di immagini, l’IA offre nuove prospettive creative per artisti, designer e creatori di contenuti, consentendo il miglioramento automatico delle immagini, dalla correzione del colore alla rimozione di imperfezioni, offrendo risultati sorprendenti e creando al tempo stesso un’esperienza visiva altamente personalizzata.

Tuttavia, con il potenziale innovativo possono anche emergere anche dei rischi significativi come la manipolazione dell’identità, perché l’IA rende possibile la creazione di foto fake realistiche di personaggi famosi, come è successo all’ex Presidente degli Stati Uniti Donald Trump o anche a Papa Francesco, sollevando preoccupazioni sulla manipolazione dell’identità e la diffusione di informazioni false.

I rischi di abuso possono riguardare, oltre all’eventuale creazione di supporti visivi a supporto delle fake news, anche la sfera reputazionale dei singoli cittadini, mettendone a rischio la privacy, fino a raggiungere quel confine dove la capacità delle società in generale di distingue la differenza tra realtà e finzione assume dei contorni sfocati. E, da questo punto di vista, i rischi possono essere significativi quando si tratta di personaggi famosi o di personalità di primo piano.

Affrontare le straordinarie opportunità offerte dall’IA nella creazione di immagini richiede un approccio bilanciato in grado di combinare l’innovazione tecnologica con un utilizzo non tanto regolamentato quanto etico per garantire che l’IA contribuisca positivamente al nostro mondo visivo senza compromettere verità, integrità e dignità della persona.

Libri. Scacco matto all’AI. Come le aziende all’avanguardia stravincono con l’intelligenza artificiale

Dall’autore di bestseller della letteratura manageriale e dal responsabile della divisione AI di Deloitte negli Stati Uniti, uno sguardo affascinante sulle aziende all’avanguardia che utilizzano l’intelligenza artificiale per creare nuovi vantaggi competitivi.

Sebbene la maggior parte delle organizzazioni stia scommettendo in modo modesto sull’intelligenza artificiale, esiste un gruppo di imprese di rilevanza mondiale che stanno puntando tutto su questa tecnologia e trasformando radicalmente i propri prodotti, processi, strategie, relazioni con i clienti e persino la propria cultura. Sebbene queste organizzazioni rappresentino meno dell’uno per cento delle grandi imprese, sono tutte aziende di alto livello nei rispettivi settori. Hanno modelli di business migliori, prendono decisioni migliori, hanno rapporti migliori con i clienti, offrono prodotti e servizi migliori e spuntano prezzi più alti.

Scacco matto con l’AI” analizza l’intelligenza artificiale all’avanguardia dal punto di vista di aziende affermate come Anthem, Ping An, Airbus e Capital One.

Ricco di approfondimenti, strategie e best practice, il libro fornisce ai leader e ai loro team le informazioni necessarie per aiutare le proprie aziende a portare l’intelligenza artificiale a un livello successivo.

Se siete curiosi di conoscere la prossima fase dell’implementazione dell’intelligenza artificiale all’interno delle imprese, o se state cercando di impiegare voi stessi questa potente tecnologia in modo più robusto, il lavoro di Davenport e Mittal vi offrirà una vista dall’interno su ciò
che stanno facendo i principali adottatori dell’intelligenza artificiale, fornendovi al contempo gli strumenti per mettere questa potente tecnologia al centro di tutto ciò che fate.

Scacco matto con l’AI: Come le aziende all’avanguardia stravincono con l’intelligenza artificiale di Thomas H. Davenport e Nitin Mittal, Egea Editore, 236 pagine, euro 32,00

Compralo su Amazon

Pagina 2 di 2

CC BY-NC-SA 4.0 DEED | Disclaimer Contenuti | Informativa Privacy | Informativa sui Cookie