Notizie di Intelligenza Artificiale Inclusiva in Tempo Reale: Innovazione e Accessibilità Pro bono publico

Autore: Redazione Pagina 39 di 45

Huawei sovvenzionata dal governo cinese per costruire HBM

Secondo un rapporto di The Information, un gruppo di produttori cinesi di chip, guidati da Huawei, stanno ricevendo finanziamenti dal governo per costruire semiconduttori di memoria ad alta larghezza di banda che fungano da sostituto per la tecnologia AI di Nvidia.

I chip di memoria a larghezza di banda elevata, o HBM, sono necessari per costruire GPU avanzate che alimentano l’intelligenza artificiale e, secondo il rapporto , il consorzio cinese prevede di svilupparne di proprie entro il 2026 .

HBM prova a porre rimedio ai limiti che la GDDR5 (tecnologia utilizzata attualmente per schede video di fascia alta) comincia a mostrare. In particolare, pur offrendo prestazioni di alto livello, una scheda grafica che monta memorie GDDR5 presenta problemi di banda di comunicazione per quanto questa possa essere larga, sembra non essere mai sufficiente.

Le attuali sanzioni statunitensi impediscono alla Cina di importare GPU IA all’avanguardia da società statunitensi come Nvidia.

Le tre società che attualmente producono HBM includono SK Hynix, Samsung Semiconductor e Micron Technology. Tutti utilizzano tecnologia prodotta negli Stati Uniti, che ne impedisce la vendita ad aziende cinesi, come Huawei, dal 2020.

Cyber-Scimmie con Occhiali AI

Di Raffaella (sync off) Russo

Purtroppo, si tratta di una mancanza o, per essere precisi, di una “lunga ma reversibile cecità degli occhi interiori”.

Introduzione

Ricordo una storia che la maestra Silvana, mia maestra delle elementari che ricordo con molto affetto, un giorno ci raccontò.
Ho sempre amato i racconti, ma questa storia mi colpì particolarmente. Sono solita richiamarla alla mente ancora oggi, quando, nell’affrontare nuove sfide, alcuni punti sfuggono alla comprensione e chiedere aiuto sembra essere un segno di debolezza e ignoranza quando, in realtà, sono índice di grande maturità, intelligenza e forza.

Il racconto è di Ivan Krylov ed e´ intitolato “La scimmia e gli occhiali”. Di seguito una traduzione del racconto originale :

Man mano che la vecchiaia si avvicinava
Per la scimmia sempre più difficile vedere diventava.
Ma, dagli umani aveva sentito, questo sventura non era così grave:
Semplicemente gli occhiali bisognava indossare.
Raccolse mezza dozzina di occhiali Li maneggiò in tutti i modi.
Se li mise sulla fronte,
Se li mise sulla coda,
Li annusò, lì leccò;
Con gli occhiali non cambiava niente.
“Speranze andate in fumo”, disse: ” E che sciocca ad ascoltare le chiacchiere degli umani:
Tutto ciò che si dice sugli occhiali è una bugia; sono inutili”.
La scimmia, triste e infastidita,
Ruppe gli occhiali deludenti con una pietra,
Ne rimasero solo le tracce luccicanti.
Per sfortuna, questo succede anche agli uomini che, non conoscendo il valore di qualcosa,
Per ignoranza, ne sottovalutano il senso;
o ai più fortunati e consapevoli che lo usano per perseguitare e bandire.

Mi sembra giusto porgere innanzitutto i miei omaggi e ringraziamenti alla bellissima storia di Ivan Krylov e all’altrettanto meritevole traduzione di Ivan Luden e fermarci con tutti voi ad osservarla ed analizzarla per cogliere da essa tutti gli spunti di riflessione assolutamente contemporanei che possiamo ricavare da essa.

Il Monkeyrisk

Cercheremo di scoprire nuovi aspetti guardando la storia di Ivran da un punto di vista HumanAnalytic e ci riferiremo al nostro parámetro di analisi come Monkeyrisk.
Il Monkeyrisk possiamo identificarlo come indice di “danno della morale” stessa.
Giallo o Rosso a seconda della deviazione del pensiero della “Scimmia” dalla realtà e dall’impatto che tale discostamento ha sulla società e sul bene della Scimmia stessa, come si evince anche dalla storia di Ivran.


Primo livello di Monkeyrisk

Il primo livello di Monkeyrisk può essere identificato agevolmente nel racconto. Questo livello di rischio lo potremmo definire “meno grave” dal punto di vista sociale poiché potremmo trovarlo addirittura razionale guardando al modello sociale.

Il punto di messa a fuoco è da identificare nella frase:

” E che sciocca ad ascoltare le chiacchiere degli umani: Tutto ciò che si dice sugli occhiali è una bugia; sono inutili “

Tracciando un parallelo con la narrativa tecnologica moderna, il rischio dell’adozione dell’Intelligenza Artificiale con parte della società totalmente impreparata rispetto ad essa e non integrata nel discorso etico che la compone, evidenzia come una comprensione inadeguata, alimentata da un passaparola incompleto o errato, possa portare a un uso improprio o al rifiuto totale dell’AI, ponendole l’etichetta ingiusta di “bugia” o di “inutile”, come ogni giorno ascoltiamo.


Human Analyst power: on!

Essendo HumanAnalyst, possiamo servirci della psicologia comportamentale per guardare al nostro fenómeno e comprendere una frase che altrimenti potrebbe sembrare del tutto insensata e priva di fondamenta:
La povera Scimmia compra gli occhiali anche se non sa come usarli. Infatti, ne compra sei paia perché “, dagli umani aveva sentito, questo sventura non era così grave:

Semplicemente gli occhiali bisognava indossare e con questa nuova invenzione, anche lei, una Scimmia, avrebbe potuto vedere meglio”, un’occasione da non perdere per una Scimmia non vedente mentre tutti gli altri guardano, e LEI VUOLE ESSERE PARTE DEL GRUPPO di quelli che “vedono”.

Il senso di appartenenza è qualcosa di così forte per gli esseri umani, splendidi animali sociali, che sentirci parte di un gruppo ci spinge a comprare sei paia di occhiali per non esserne esclusi, anche se in realtà nemmeno abbiamo capito cosa sono in fondo questi occhiali.

E qui casca la Scimmia…!

La Scimmia, senza saperli usare, compra sei paia di occhiali ma di fatto, senza che nessuno la guidi, è una scimmia meno ricca che rimane tale, sottomessa all’uomo vedente, e questo lei lo sa, e, voglio dire: prendine pure un altro paio, guarda che sono proprio lì, anzi questo nuovo modello te lo regalo così magari inizi anche a volermi bene…

“Tutto ciò che si dice sugli occhiali è una bugia; sono inutili “

In questo caso, il nostro rischio è giallo. La tecnologia è sminuita, considerata inutile, non capita.

Confrontandolo con lo scenario che stiamo vivendo, possiamo metterlo in relazione con tutti quei casi in cui l’IA viene rifiutata perché, come esperti, non siamo riusciti a spiegare e forse a capire davvero come usarla al meglio.
La Scimmia, in questo caso, è ‘relativamente innocua’, potrebbe diventare un bel fiore se volesse o una brutta erbaccia.

I casi in cui questa tecnologia viene rifiutata e ritenuta inutile possono essere ricondotti ai casi in cui, come esperti e come società, non siamo riusciti ad integrare una parte del dipinto umano nel prodotto creato anche per loro, un prodotto che gli proponiamo adesso di acquistare e maneggiare per sentirsi parte del grande quadro che non hanno mai visto.

Non siamo riusciti a raggiungere persone che parlano semplicemente un’altra lingua e ne paghiamo lo smacco.

In questo articolo, per ora mi piace lasciare questo rischio come una scatola di Schrödinger per non trasformare questo testo in un trattato e spostarci insieme al secondo livello.

Secondo livello di Monkeyrisk

Il secondo livello di Monkeyrisk è qualcosa di più complesso e profondo, perché riguarda un’ignoranza che va più in profondità dell’ignoranza derivante dalla mancanza di istruzione.

Purtroppo si tratta di una mancanza o, per essere precisi, di una “lunga ma reversibile cecità degli occhi interiori“.

Abbiamo già visto anche questo in realtà, nelle biases del nostro fedele specchio ingrandente, ma abbiamo provato a romperlo con una pietra.

Continuiamo infatti a girare e rigirare gli occhiali perché quello che vediamo non ci piace e quindi continuiamo a dire di non veder nulla o che ciò che mostrano e´ una bugia.

In questo caso, le neuroscienze comportamentali entrano in gioco per dare un aiuto alla psicologia.

Il focus in questo caso deve essere spostato sulla frase:

“Ruppe gli occhiali deludenti con una pietra”

Il rischio più grave: l´ego

La Scimmia sa che così tanti uomini tessono le lodi degli occhiali e cosa fa?

Le distrugge in modo da non dover riconoscere con se stessa la sua ignoranza.

In questo caso il rischio è rosso.

La Scimmia Istruita, distrugge la geniale ed utile creazione che puo migliorarle la vita poiché “ferita nell’ego, non ha strumenti per gestire un’emozione tanto intensa”.

Da sempre così chiusa nel comprendere le sue emozioni e quelle degli uomini che la circondano, da saper gestire tutti gli attacchi dei predatori esterni ma non i più distruttivi, quelli che da sola continua a lanciarsi da sempre e che la condannano Scimmia in un mondo di Uomini.

È un tale paradosso.

________
Some human species, sadly, are the same:
A clueless boor would eagerly defame
A useful thing, regardless of its merit;
And if he happens to be born a magnate,
He’d use his power to persecute or ban it.

L’importanza di aprire le “scatole interiori”

Qui lasciare la scatola chiusa è un altro pericolo. Qui il pericolo è quello di perdere una vita consapevole, libera e degna di essere chiamata con questo nome.

Quando questo paradosso può rischiare di assumere estensioni tali da coinvolgere tutte le scimmie e le scimmiette future, comincia allora ad assumere la dimensione di pericolo di dramma umano e, a questo punto, lasciare le scatole chiuse diventa un atto di codardia che non possiamo permetterci se amiamo davvero la vita.

Dobbiamo aprire le nostre “scatole interiori” senza paura e renderci conto che ora dobbiamo essere più che mai umani, coraggiosi, collaborativi e follemente creativi.

Possiamo colorare i nostri mostri ormai se ci spaventano e farli ballare sotto note meravigliose; rappresentarli per quello che sono o scoprirli nel lungo viaggio della loro comprensione, prenderci cura di loro e di noi. E possiamo, proprio per la combinazione dell’uomo e della splendida tecnologia che abbiamo creato, se non rifiutiamo di prenderci le responsabilità che ne derivano e fare la nostra parte.

Possiamo possedere le migliori tecnologie in commercio, potere, denaro e fama ma se non siamo in grado di riconoscerci o di comprendere le dinamiche che guidano le nostre azioni, ci stiamo comportando come Cyber-Scimmie e il fatto di avere occhiali AI e chiamarci tutti i giorni Umani non ci farà di certo diventare tali. La conoscenza, la collaborazione e la voglia di mettersi in discussione, di imparare, chiedere dove non si sa e saper fermarsi e cambiare approccio quando non incontriamo la strada giusta sono gli unici davvero in grado di innalzarci dal livello di scimmie technologiche a quello di Uomini ed essere in grado cosi´ di saper prendere al momento giusto la decisione giusta per il bene nostro e della societa.

16/05/2024, Out of Touch Space
Raffaella Russo

References

Ivan Luden | Lyrics Translate traduzione storia Ivan K
Baumeister, R. F., & Pohhal, A. L. (1996). The Banality of Denial: The Psychological
Dynamics of Denying Responsibility. *Personality and Social Psychology Review.
Ego-defense mechanisms and brief psychotherapies for the management of major
depressive disorder in adults: A longitudinal and quasi-experimental study da Silva
Machado a, Igor Soares Vieira a b, Carolina Scaini a, Mariane Lopez Molina a c, Luana
Porto Barbosa a, Giovana Del Grande da Silva a, Liliane Ores d, Luciano Dias de Mattos
Souza a, Karen Jansen a, Ricardo Azevedo da Silva a
Karpman, S. (1968). Fairy Tales and Script Drama Analysis. Transactional Analysis
Bulletin.
Science DenialA Narrative Review and Recommendations for FutureResearch and
PracticeKirsti M. Jylhä1, Samantha K. Stanley2, Maria Ojala3, and Edward J. R. Clarke4
Bhatt, M. A., Lohrenz, T., Camerer, C. F., & Montague, P. R. (2017). Neural dynamics
of interpersonal decision-making in the external world.
Grin, D., Oetzel, Daniel, & Zhang, J. (2020). Neuroscience based AI for human
brain-computer interactions.
Kowalski, R. M., & Hanmer, T. J. (2000). Jealousy in response to perceived
extradyadic interest: A test of the mediating mechanism. Journal of Social and
Personal Relationships.
Miller, J. D., & Campbell, W. K. (2010). The case for using research on trait
narcissism as a building block for understanding narcissistic personality disorder.
Personality Disorders: Theory, Research, and Treatment, 1(3), 180-191.
Holtzman, N. S., Vazire, S., & Mehl, M. R. (2010). Sounds like a narcissist:
Behavioral manifestations of narcissism in everyday


Meta Llama 3 – Aggiornamento

Oggi è stato integrato su più piattaforme e rilasciato in più mercati globali l’assistente di intelligenza artificiale di Meta Platforms , Meta AI, basato su Meta Llama 3.

Hanno utilizzato molti più dati e Zuckerberg vuole mettere il modello all’interno di Whatsapp, Instagram e Facebook, siete pronti?

Meta AI, rivale di ChatGPT di OpenAI, può ora essere utilizzato su tutte le app di Meta, tra cui Facebook, Instagram, WhatsApp e Messenger.

È possibile accedervi anche da un sito Web autonomo: Meta AI .

Questa versione spiega l’azienda presenta modelli linguistici pre-addestrati e ottimizzati per seguire istruzioni con 8B e 70B parametri, in grado di supportare un’ampia gamma di applicazioni d’uso.

⏺ Training Data: Trained on a massive 15 trillion token dataset (7x larger than Llama 2). Over 5% of data consists of non-English text covering 30+ languages

⏺ Broad Platform Support: Available on @AWS, @Databricks, @Google Cloud platforms and more.

⏺ Advanced AI Capabilities: Includes improved reasoning, longer context windows, and better overall AI performance

⏺ Safety and Responsibility Features: Features tools like Llama Guard 2 and Code Shield to ensure safe use.

⏺ Industry-Leading Performance: Sets new benchmarks in performance compared to previous models.

⏺ Future Enhancements Planned: Upcoming models with up to 400B parameters and new capabilities like multimodality.

⏺ Meta AI Integration: Powers Meta’s AI assistant for enhanced user experiences across various platforms.

✅ It’s Open Source! https://www.meta.ai/

Questa nuova generazione di Llama secondo Meta dimostra prestazioni superiori su un’ampia gamma di benchmark standard di settore e offre nuove funzionalità, tra cui un ragionamento migliorato. L’azienda ritiene che questi siano i migliori modelli open source della loro categoria.

Meta AI in inglese viene rilasciato anche in più di una dozzina di paesi al di fuori degli Stati Uniti, tra cui Australia, Canada, Ghana, Giamaica, Malawi, Nuova Zelanda, Nigeria, Pakistan, Singapore, Sud Africa, Uganda, Zambia e Zimbabwe.

L’aggiornamento a Meta AI ha anche migliorato le sue capacità di generazione di immagini.

“Stiamo velocizzando la generazione di immagini, in modo da poter creare immagini dal testo in tempo reale utilizzando la funzione Imagine di Meta AI”,

ha affermato Meta in un comunicato stampa.

“Stiamo iniziando a implementarlo oggi in versione beta su WhatsApp e sull’esperienza web Meta AI negli Stati Uniti.”

I modelli Llama 3 saranno presto disponibili su AWS , Databricks, Google Cloud, Hugging Face, Kaggle, IBM WatsonX, Microsoft Azure, NVIDIA NIM e Snowflake e con il supporto di piattaforme hardware offerto da AMD , AWS, Dell , Intel , NVIDIA e Qualcomm , ha affermato Meta .

AWS ha inoltre affermato che Meta Llama 3 è disponibile su Amazon SageMaker JumpStart.

“Llama 3 utilizza un’architettura trasformatore esclusivamente decoder e un nuovo tokenizzatore che fornisce prestazioni migliorate del modello con dimensioni di 128k”, ha affermato la portavoce di AWS Emma Quong.

“Inoltre, Meta ha migliorato le procedure post-formazione che hanno sostanzialmente ridotto i tassi di falsi rifiuti, migliorato l’allineamento e aumentato la diversità nelle risposte dei modelli.”

“Nei prossimi mesi, prevediamo di introdurre nuove funzionalità, finestre di contesto più lunghe, dimensioni di modelli aggiuntivi e prestazioni migliorate, e condivideremo il documento di ricerca di Llama 3”,

ha aggiunto Meta.

Meta ha lanciato il suo modello linguistico di grandi dimensioni Llama 2 nel luglio 2023.

Alcune delle sue misure di sicurezza erano considerate “troppo sicure” in quanto voleva evitare alcune delle insidie ​​incontrate da Geminidi Google.

Questa nuova versione include nuovi strumenti di protezione e sicurezza con Llama Guard 2, Code Shield e CyberSec Eval 2.

24 Aprile aggiornamento

Modelli linguistici di grandi dimensioni migliori e più veloci tramite previsione multi-token

I modelli linguistici di grandi dimensioni come GPT e Llama vengono addestrati con una perdita di previsione del token successivo. In questo lavoro, suggeriamo che l’addestramento di modelli linguistici per prevedere più token futuri contemporaneamente si traduca in una maggiore efficienza del campione. Più specificamente, in ciascuna posizione nel corpus di addestramento, chiediamo al modello di prevedere i seguenti n token utilizzando n teste di output indipendenti, operando su un tronco del modello condiviso. Considerando la previsione multi-token come un’attività di formazione ausiliaria, misuriamo le capacità a valle migliorate senza costi aggiuntivi in ​​termini di tempo di formazione sia per i modelli di codice che per quelli in linguaggio naturale. Il metodo è sempre più utile per modelli di dimensioni maggiori e mantiene il suo fascino durante l’addestramento per più epoche. I guadagni sono particolarmente pronunciati sui benchmark generativi come la codifica, dove i nostri modelli superano costantemente le solide linee di base di diversi punti percentuali. I nostri modelli con parametri 13B risolvono il 12% in più di problemi su HumanEval e il 17% in più su MBPP rispetto a modelli next-token comparabili. Esperimenti su piccoli compiti algoritmici dimostrano che la previsione multi-token è favorevole allo sviluppo di teste di induzione e capacità di ragionamento algoritmico. Come ulteriore vantaggio, i modelli addestrati con la previsione a 4 token sono fino a 3 volte più veloci nell’inferenza, anche con batch di grandi dimensioni.


Newsletter AI – non perderti le ultime novità sul mondo dell’Intelligenza Artificiale, i consigli sui tool da provare, i prompt e i corsi di formazione. Iscriviti alla newsletter settimanale e accedi a un mondo di contenuti esclusivi direttamente nella tua casella di posta!

Come può Meta guadagnare con i modelli di Intelligenza Artificiale open source ?

Laws of Tech: Commoditize Your Complement

Questo è forse uno dei grafici più importanti sull’Intelligenza Artificiale per il 2024. È stato costruito dallo straordinario team di ricercatori di CathieDWood‘S @ARKInvest. Possiamo vedere che l’ascesa dei modelli locali open source è sulla buona strada per superare i massicci (e costosi) modelli chiusi basati sul cloud.

L’ascesa dei modelli locali open source che superano i massicci e costosi modelli chiusi basati sul cloud è affascinante. Questo cambiamento potrebbe democratizzare l’Intelligenza Artificiale e consentire un’innovazione più diffusa, poiché gli attori più piccoli ottengono l’accesso a strumenti potenti senza la necessità di ingenti investimenti

Meta ha compiuto un passo significativo nel mondo dell”i’Intelligenza Artificiale open source con progetti come Llama 3, dimostrando un impegno verso l’innovazione e affrontando le sfide associate a tali iniziative all’avanguardia e su larga scala.

Tuttavia, ci sono notevoli costi legati allo sviluppo di queste tecnologie, specialmente per addestrare modelli linguistici complessi come Llama 3, che richiedono risorse computazionali ed energetiche considerevoli.

Perché Meta si sta avventurando nell’Intelligenza Artificiale open source?

Una ragione chiave potrebbe essere la strategia di “mercificare il proprio complemento”.

Questo concetto, identificato da Joel Spolsky, implica rendere i prodotti e i servizi complementari al proprio core business economici e ampiamente disponibili, al fine di aumentare la domanda per il prodotto principale e catturarne il valore. Storicamente, questa strategia ha funzionato bene nel settore tecnologico, come dimostrato da casi come IBM con il PC originale e Microsoft con MS-DOS.

Meta si è impegnata in questa strategia anche attraverso l’Intelligenza Artificiale generativa, che consente agli utenti di creare rapidamente nuovi contenuti, dall’immagine al testo ai video.

Facendo sì che la creazione di contenuti sia economica e diffusa, Meta può aumentare l’coinvolgimento degli utenti sulle proprie piattaforme, generando così maggiori entrate pubblicitarie.

Il rilascio di tecnologie AI come open source attira i migliori talenti nel campo, promuove l’innovazione e migliora i prodotti di Meta.

Questa strategia è sostenuta dall’idea che l’accesso alla tecnologia AI di base non comprometta il core business di Meta nel social networking e nella pubblicità digitale.

I modelli di Intelligenza Artificiale aperti ampliano l’universo dei contenuti disponibili senza minacciare direttamente le piattaforme di Meta per gli inserzionisti o gli utenti.

Meta mira a sfruttare l’Intelligenza Artificiale open source per aumentare l’coinvolgimento degli utenti, migliorare i suoi prodotti (fine Tuning) e servizi e aumentare i profitti, senza compromettere il suo core business.

Yann LeCun :

Meta sta implementando una strategia innovativa che va oltre i tradizionali modelli di business basati sulla pubblicità (ADV) e sui pagamenti per servizi. Questa strategia prevede la distribuzione gratuita di un modello a milioni di persone e sviluppatori. L’obiettivo è stimolare la creazione di soluzioni che possano essere utili per i clienti di Meta.

Gli sviluppatori, avendo accesso al modello, possono creare e personalizzare le loro soluzioni, che possono variare da applicazioni a servizi. Queste soluzioni, una volta create, possono essere acquisite da Meta, creando così un ciclo di innovazione e crescita.

In sostanza, Meta sta cercando di costruire rapidamente una comunità di produttori che creano modelli specifici con l’intenzione di acquisirli successivamente. Questo processo include la verifica della piattaforma alla fonte, il controllo di ciò che viene creato e la selezione di ciò che può essere integrato nella sua piattaforma. Questa strategia consente a Meta di rimanere all’avanguardia nell’innovazione, garantendo al contempo che le soluzioni più utili e pertinenti siano rese disponibili ai suoi clienti.

La scommessa è che Meta ha già una base utenti e customer base. Quello che offriamo sarà utile a loro e c’è un modo per ricavare revenue da questi servizi. Per noi non ha un impatto se forniamo il modello base in open source per consentire ad altri di costruire applicazioni. Se queste applicazioni sono utili ai nostri clienti e noi possiamo comprarle da loro, può essere che migliorino la piattaforma“, il pensiero dell’azienda.

Ok dal Consiglio dei Ministri al Ddl sull’Intelligenza Artificiale

Il Consiglio dei Ministri, su proposta del Presidente Giorgia Meloni e del Ministro della giustizia Carlo Nordio, ha approvato nella riunione di oggi, martedì 23 aprile 2024, il disegno di legge per l’introduzione di disposizioni e la delega al Governo in materia di Intelligenza Artificiale, con la previsione della richiesta alle Camere di sollecita calendarizzazione nel rispetto dei regolamenti dei due rami del Parlamento.

Nel comunicato del Consiglio dei Ministri si legge che il disegno di legge individua criteri regolatori pensati per riequilibrare il rapporto tra le opportunità che offrono le nuove tecnologie e i rischi legati al loro uso improprio, al loro sottoutilizzo o al loro impiego dannoso.

Introduce, inoltre, norme di principio e disposizioni di settore che, da un lato, promuovano l’utilizzo delle nuove tecnologie per il miglioramento delle condizioni di vita dei cittadini e della coesione sociale e, dall’altro, forniscano soluzioni per la gestione del rischio fondate su una visione antropocentrica.

In quest’ottica – continua ancora il comunicato del CdM – il disegno di legge non si sovrappone al Regolamento europeo sull’Intelligenza Artificiale approvato lo scorso 13 marzo dal Parlamento Europeo, di prossima emanazione, ma ne accompagna il quadro regolatorio in quegli spazi propri del diritto interno, tenuto conto che il regolamento è impostato su un’architettura di rischi connessi all’uso della Intelligenza Artificiale.

Le norme intervengono in cinque ambiti: 1) la strategia nazionale; 2) le autorità nazionali; 3) le azioni di promozione; 4) la tutela del diritto di autore; 5) le sanzioni penali.

Si prevede, inoltre, una delega al governo per adeguare l’ordinamento nazionale al Regolamento UE in materie come l’alfabetizzazione dei cittadini in materia di AI (sia nei percorsi scolastici che in quelli universitari) e la formazione da parte degli ordini professionali per professionisti e operatori.

La delega riguarda anche il riordino in materia penale per adeguare reati e sanzioni all’uso illecito dei sistemi di Intelligenza Artificiale.

Le norme stabilite dal CdM prevedono inoltre che il ciclo di vita dei sistemi e dei modelli di intelligenza artificiale debba basarsi sul rispetto dei diritti fondamentali e delle libertà dell’ordinamento italiano ed europeo oltre che sui principi di trasparenza, proporzionalità, sicurezza, valorizzazione anche economica del dato, protezione dei dati personali, riservatezza, robustezza, accuratezza, non discriminazione, parità dei sessi e sostenibilità.

Inoltre, si legge ancora nel comunicato, le norme specificano i principi che caratterizzano lo sviluppo e soprattutto la concreta applicazione nel rispetto dell’autonomia e del potere decisionale dell’uomo, della prevenzione del danno, della conoscibilità e della spiegabilità.

Si stabilisce che l’utilizzo dell’intelligenza artificiale non deve pregiudicare la vita democratica del Paese e delle istituzioni. Si introduce la necessità del rispetto della cybersicurezza lungo tutto il ciclo di vita dei sistemi e dei modelli di intelligenza artificiale. Si garantisce alle persone con disabilità il pieno accesso ai sistemi di intelligenza artificiale senza forme di discriminazione.

L’utilizzo dei sistemi di AI nei mezzi di comunicazione deve avvenire senza pregiudizio ai principi di libertà e pluralismo alla libertà di espressione e del diritto all’obiettività, completezza, imparzialità e lealtà dell’informazione.

In materia di sviluppo economico si promuove l’Intelligenza Artificiale nei settori produttivi da parte dello Stato e delle pubbliche autorità, per migliorare la produttività e avviare nuove attività economiche per il benessere sociale, nel rispetto principio generale della concorrenza nel mercato, dell’utilizzo e della disponibilità di dati ad alta qualità.

Infine, per quanto riguarda le disposizioni in materia di sicurezza e difesa nazionale, sono escluse dall’ambito di applicazione del provvedimento le attività svolte per scopi di sicurezza nazionale, per la cybersicurezza nazionale nonché quelle svolte per scopi di difesa dalle forze armate e dalle forze di polizia.

Per quanto riguarda i temi legati alla sanità e alla disabilità il testo approvato oggi in Consiglio dei Ministri prevede che l’utilizzo dell’Intelligenza Artificiale non possa in alcun modo selezionare con criteri discriminatori condizionando e restringendo l’accesso alle prestazioni sanitarie. Prioritario è il diritto dell’interessato ad essere informato circa l’utilizzo di tali tecnologie.

Si promuove più in generale la diffusione dei sistemi di AI finalizzati all’inclusione, le condizioni di vita e l’accessibilità delle persone con disabilità. L’utilizzo dei sistemi di Intelligenza Artificiale in ambito sanitario deve lasciare impregiudicata la spettanza della decisione alla professione medica.

In tema di ricerca e sperimentazione scientifica si prevede che i trattamenti di dati, anche personali, eseguiti da soggetti pubblici e privati senza scopo di lucro per la ricerca e la sperimentazione scientifica nella realizzazione di sistemi di Intelligenza Artificiale per finalità terapeutica e farmacologica, siano dichiarati di rilevante interesse pubblico.

Per quanto riguarda l’utilizzo dell’Intelligenza Artificiale in materia di lavoro si applica il principio antropocentrico, chiarendo che l’AI può essere impiegata per migliorare le condizioni di lavoro, tutelare l’integrità psicofisica dei lavoratori, accrescere la qualità delle prestazioni lavorative e la produttività delle persone in conformità al diritto dell’Unione europea.

Anche per il lavoro viene ribadito il principio di equità e non discriminazione, stabilendo che l’utilizzo dei sistemi di AI per l’organizzazione o la gestione del rapporto di lavoro non può in nessun caso essere discriminatorio.

Viene poi prevista l’istituzione presso il Ministero del Lavoro e delle Politiche Sociali un Osservatorio sull’adozione dei sistemi di Intelligenza Artificiale. Per le professioni intellettuali, si stabilisce che il pensiero critico umano debba sempre risultare prevalente rispetto all’uso degli strumenti di Intelligenza Artificiale, che può riguardare solo le attività di supporto all’attività professionale. Per assicurare il rapporto fiduciario tra professionista e cliente si è stabilito, inoltre, che le informazioni relative ai sistemi di AI utilizzati dal professionista debbano essere comunicate al cliente con linguaggio chiaro, semplice ed esaustivo.

Il decreto regola poi l’utilizzo dell’Intelligenza Artificiale nel settore dell’attività della pubblica amministrazione per garantire il buon andamento e l’efficienza dell’attività amministrativa dando centralità al principio dell’autodeterminazione e della responsabilità umana.

Nell’amministrazione della giustizia l’utilizzo dell’Intelligenza Artificiale è consentito esclusivamente per finalità strumentali e di supporto, quindi per l’organizzazione e la semplificazione del lavoro giudiziario nonché per la ricerca giurisprudenziale e dottrinale anche finalizzata all’individuazione di orientamenti interpretativi. È sempre riservata al magistrato la decisione sull’interpretazione della legge, la valutazione dei fatti e delle prove e sull’adozione di ogni provvedimento inclusa la sentenza. Tra le materie di competenza esclusiva del tribunale civile si aggiungono le cause che hanno ad oggetto il funzionamento di un sistema di Intelligenza Artificiale.

All’ACN, Agenzia per la Cybersicurezza Nazionale viene demandato il compito di promuovere e sviluppare ogni iniziativa, anche di partenariato pubblico-privato, volta a valorizzare l’Intelligenza Artificiale come risorsa per il rafforzamento della cybersicurezza nazionale.

Viene introdotta la Strategia nazionale per l’Intelligenza Artificiale, il documento che garantisce la collaborazione tra pubblico e privato, coordinando le azioni della pubblica amministrazione in materia e le misure e gli incentivi economici rivolti allo sviluppo imprenditoriale ed industriale.

Si istituiscono inoltre le Autorità nazionali per l’Intelligenza Artificiale, disponendo l’affidamento all’Agenzia per l’Italia digitale (AgID) e all’Agenzia per la cybersicurezza nazionale (ACN) del compito di garantire l’applicazione e l’attuazione della normativa nazionale e dell’Unione europea in materia di AI.

Vengono poi previste misure di sostegno ai giovani sull’Intelligenza Artificiale. Tra i requisiti per beneficiare del regime agevolativo a favore dei lavoratori rimpatriati rientrerà l’aver svolto un’attività di ricerca nell’ambito delle tecnologie di Intelligenza Artificiale.

Nel piano didattico personalizzato (PDP) delle scuole superiori per le studentesse e gli studenti ad alto potenziale cognitivo potranno essere inserite attività volte alla acquisizione di ulteriori competenze attraverso esperienze di apprendimento presso le istituzioni della formazione superiore.

In termini di investimenti nei settori dell’Intelligenza Artificiale, della cybersicurezza e quantum computing, vengono confermati investimenti per un ammontare complessivo di 1 miliardo di euro, al fine di favorire lo sviluppo, la crescita e il consolidamento delle imprese operanti in tali settori. Tali investimenti sono effettuati anche mediante l’istituzione di uno o più fondi appositamente dedicati e mediante coinvestimenti di altri fondi gestiti da CDP Venture Capital Sgr.

In tema di tutela degli utenti e diritto d’autore viene prevista l’identificazione dei contenuti testuali, fotografici, audiovisivi e radiofonici prodotti da sistemi di Intelligenza Artificiale. Si prevedono misure, nell’ambito del ‘Testo unico per la fornitura di servizi di media audiovisivi’, volte a favorire l’identificazione e il riconoscimento dei sistemi di Intelligenza Artificiale nella creazione di contenuti testuali, fotografici, audiovisivi e radiofonici. Il contenuto che sia stato completamente o parzialmente generato, modificato o alterato dai sistemi di Intelligenza Artificiale, in modo tale da presentare come reali dati, fatti e informazioni che non lo sono, deve avere un elemento o segno identificativo, anche in filigrana o marcatura incorporata con l’acronimo ‘IA’ o, nel caso audio, attraverso annunci audio ovvero con tecnologie adatte a consentire il riconoscimento. Fanno eccezione a tale marchiatura l’opera o un programma manifestamente creativo, satirico, artistico o fittizio, fatte salve le tutele per i diritti e le libertà dei terzi. Le misure attuative sono definite con specifico regolamento dell’AGCOM.

Nell’ambito della legge sul diritto d’autore si prevede inoltre una disciplina specifica per le opere create con l’ausilio di sistemi di Intelligenza Artificiale, assicurando l’identificazione delle opere e degli altri materiali il cui utilizzo non sia espressamente riservato dai titolari del diritto d’autore.

Per quanto riguarda invece il tema della disciplina penale il decreto prevede un aumento della pena per i reati commessi mediante l’impiego di sistemi di Intelligenza Artificiale, quando gli stessi, per la loro natura o per le modalità di utilizzo, abbiano costituito mezzo insidioso, o quando il loro impiego abbia comunque ostacolato la pubblica o la privata difesa o aggravato le conseguenze del reato.

Un’ulteriore aggravante è prevista per chi, attraverso la diffusione di prodotti dell’AI, prova ad alterare i risultati delle competizioni elettorali, come già avvenuto in altri Paesi europei.

Si punisce l’illecita diffusione di contenuti generati o manipolati con sistemi di Intelligenza Artificiale, atti a indurre in inganno sulla loro genuinità, con la pena da uno a cinque anni di reclusione se dal fatto deriva un danno ingiusto. Si introducono circostanze aggravanti speciali per alcuni reati nei quali l’utilizzo di sistemi di Intelligenza Artificiale abbia una straordinaria capacità di propagazione dell’offesa. Infine, attraverso apposita delega, il Governo è chiamato a prevedere: 1) strumenti tesi ad inibire la diffusione e a rimuovere contenuti generati illecitamente anche con sistemi di intelligenza artificiale, supportati da un adeguato sistema di sanzioni; 2) una o più autonome fattispecie di reato, punite a titolo di dolo o di colpa, nonché ulteriori fattispecie di reato, punite a titolo di dolo, dirette a tutelare specifici beni giuridici esposti a rischio di compromissione per effetto dell’utilizzazione di sistemi di intelligenza artificiale; 3) una circostanza aggravante speciale per i delitti dolosi puniti con pena diversa dall’ergastolo nei quali l’impiego dei sistemi di intelligenza artificiale incida in termini di rilevante gravità sull’offesa; 4) una revisione della normativa sostanziale e processuale vigente, anche a fini di razionalizzazione complessiva del sistema.

Phi-3-mini ma capace come GTP 3.5 – Novita’ in casa Microsoft

Microsoft ha presentato un modello di intelligenza artificiale in linguaggio ridotto ed economicamente vantaggioso chiamato Phi-3-mini, ha riferito Reuters.

Phi-3 Mini ha una capacità di 3,8 miliardi di parametri. Microsoft ricorda che, a differenza del modello Phi-1, che si è concentrato sulla codifica, e de modello Phi-2, che ha iniziato a imparare a ragionare, Phi-3 è migliore nella codifica e nel ragionamento.

Phi-3 viene addestrato su un set di dati più piccolo rispetto a modelli linguistici di grandi dimensioni (Mistral, Gemma, Llama-3-In) in compiti che vanno dalla matematica alla programmazione ai test accademici . Allo stesso tempo, funziona su dispositivi semplici come gli smartphone, senza Internet (tra poco parleremo di EDGE AI).

Per questo motivo Phi-3 potrebbe consentire alle aziende che non possono permettersi LLM connessi al cloud di passare all’intelligenza artificiale.

Il suo limite è l’ampiezza della “conoscenza fattuale” ( tassonomia di Bloom che organizza gerarchicamente i livelli della conoscenza ) dovuta alle dimensioni ridotte del set di dati, ecco perché non funziona nel test “TriviaQA“.

Phi-3 Mini è disponibile su Azure, Hugging Face e Ollama. Microsoft rilasciera’ in seguito Phi-3 Small (parametri 7B) e Phi-3 Medium (parametri 14B). Di seguito il Technical Report.

Il nuovo modello può eseguire attività come la creazione di contenuti e la pubblicazione di post sui social media utilizzando meno dati.

Il modello di intelligenza artificiale può superare modelli di dimensioni doppie in diversi benchmark che valutano le capacità linguistiche, di codifica e matematiche, aggiunge il rapporto.

“L’innovazione risiede interamente nel nostro set di dati per la formazione”, secondo il documento di ricerca. Questo set di dati si basa sul modello Phi-2 , ma utilizza “dati web fortemente filtrati e dati sintetici” di cui abbiamo parlato nell’artcolo La scalabilita’ è tutto ciò di cui hai bisogno, ma servono i dati.

In effetti, per svolgere entrambe queste attività è stato utilizzato un LLM separato, creando di fatto nuovi dati che consentono al modello linguistico più piccolo di essere più efficiente. 

Secondo The Verge, Microsof è stato presumibilmente ispirato dai libri per bambini che utilizzano un linguaggio più semplice per affrontare argomenti complessi .

Il leggero modello Phi-3 Mini di Microsoft può funzionare sugli smartphone

I modelli di intelligenza artificiale più piccoli mirano a svolgere compiti più semplici, il che ne facilita l’utilizzo da parte di aziende con risorse limitate, ha osservato Microsoft. Ne avevamo parlato settimane fa nell’articolo Un Pennello Grande o un Grande Pennello?

AI Una Rivoluzione Sociale e Professionale

Il 23 aprile, presso la Sala lauree della Facoltà di Scienze politiche, sociologia – La Sapienza, si e’ tenuto il convegno sul tema “L’impatto dell’intelligenza artificiale sul lavoro di oggi e di domani”. Organizzato con l’obiettivo di analizzare gli effetti dell’intelligenza artificiale sull’occupazione e sul suo assetto, l’evento ha esaminato da vicino il momento cruciale che molti settori produttivi stanno attraversando, tra cui sanità, logistica e automotive.

Il panorama legislativo europeo è sul punto di assistere all’adozione di regolamenti significativi, come un regolamento sull’IA e una direttiva sul lavoro tramite piattaforme digitali. Questi provvedimenti non solo riflettono l’urgenza di adattare la normativa ai cambiamenti tecnologici in corso, ma pongono anche importanti interrogativi su come regolare e gestire il nuovo scenario lavorativo:

Filtraggio HR Operato da IA. L’avvento dell’intelligenza artificiale (IA) ha innescato una trasformazione senza precedenti nel panorama lavorativo globale. Le sue applicazioni vanno dal filtraggio HR alla sorveglianza della produttività, influenzando non solo il modo in cui lavoriamo, ma anche come viviamo.

L’IA sta rivoluzionando il processo di selezione del personale, permettendo alle aziende di filtrare i candidati con una precisione e una velocità inimmaginabili fino a pochi anni fa. Tuttavia, questo solleva questioni etiche riguardo la trasparenza e la potenziale discriminazione, poiché gli algoritmi possono involontariamente perpetuare pregiudizi esistenti.

Controllo Produttività Operato da IA. L’implementazione dell’IA nel monitoraggio della produttività promette un incremento dell’efficienza aziendale. Questi sistemi possono analizzare in tempo reale il rendimento dei lavoratori, suggerendo miglioramenti e ottimizzazioni. Nonostante ciò, sorge il rischio di un’eccessiva sorveglianza che potrebbe ledere la privacy dei dipendenti e creare un ambiente lavorativo oppressivo.

Utilizzo di IA come Companion per i Lavoratori. L’IA può agire come un compagno virtuale per i lavoratori, assistendoli nelle attività quotidiane e riducendo il carico di lavoro mentale. Questo supporto può migliorare il benessere dei dipendenti, ma è fondamentale garantire che l’IA sia utilizzata per arricchire, e non sostituire, l’esperienza umana.

Aumento di Produttività e Possibili Aumenti Salariali. L’efficienza portata dall’IA nel mondo del lavoro ha il potenziale di aumentare la produttività complessiva. Teoricamente, questo dovrebbe tradursi in salari più alti, poiché il valore generato dai lavoratori cresce. Tuttavia, la realtà è spesso più complessa, e non sempre i benefici della produttività si riflettono in un miglioramento delle condizioni economiche dei lavoratori.

Controintuitività tra Aumento della Produttività e Occupazione. Dal 1977 ad oggi, abbiamo assistito a un aumento della produttività accompagnato da un incremento, piuttosto che una diminuzione, del numero di occupati. Questo fenomeno controintuitivo sfida l’idea che l’automazione porti inevitabilmente a una riduzione dei posti di lavoro. In realtà, l’IA può creare nuove opportunità professionali e stimolare la crescita in settori inaspettati.

Il convegno si e’ distinto per il confronto interdisciplinare tra scienziati dell’Istituto italiano di tecnologia di Genova, esperti del diritto del lavoro e rappresentanti delle parti sociali. Questo approccio inclusivo mira a esplorare le molteplici dimensioni del cambiamento indotto dall’IA sul rapporto di lavoro e sul mercato del lavoro nel suo complesso.

L’apertura dell’evento e’ stataaffidata alla rettrice Antonella Polimeni e alla direttrice del Dipartimento di Scienze sociali ed economiche, Emma Galli. La loro presenza sottolinea l’importanza strategica del convegno e testimonia l’impegno accademico nell’affrontare le sfide emergenti nel mondo del lavoro alla luce dell’avanzamento tecnologico.

Inviato Ludovico Azzario

Una nuova era per la Mixed Reality META

Meta Platforms  ha dichiarato lunedì che inizierà a concedere in licenza il sistema operativo per le sue cuffie Quest ad altri produttori di dispositivi, posizionandosi saldamente come un’alternativa più aperta a Vision Pro di Apple.

In un video pubblicato sull’account Instagram del capo di Meta.

Mark Zuckerberg ha notato la differenza tra il modello chiuso di Apple per gli smartphone e il modello aperto per i PC.

La piattaforma di social media ha affermato che produttori di hardware come Asus e Lenovo realizzeranno dispositivi che eseguono il sistema operativo Meta Horizon. L’azienda sta anche lavorando su un visore Quest incentrato sui giochi a tiratura limitata con Xbox di Microsoft .

Republic of Gamers di Asus svilupperà cuffie da gioco e Lenovo costruirà dispositivi di realtà mista per la produttività, l’apprendimento e l’intrattenimento. Zuckerberg ha aggiunto che potrebbero volerci alcuni anni prima del lancio dei dispositivi.

Meta spingerà anche per ulteriori modi per scoprire app store alternativi su Horizon OS. Renderà più prominente il suo negozio sperimentale App Lab e inviterà persino Google di Alphabet a portare il suo Play Store su Horizon OS.

I visori per realtà virtuale e realtà mista hanno finora riscontrato solo un successo limitato, soprattutto da parte della comunità dei videogiochi. Apple  è entrata nel mercato a febbraio con il lancio delle sue cuffie Vision Pro da 3.499 dollari.

Anche Microsoft anche se senza successo, una volta ha tentato di proporre Windows come sistema operativo per visori VR attraverso la sua iniziativa Windows Mixed Reality.

Apple acquista Datakalab

“Abbiamo tre cervelli, il cervello primario associato ai riflessi, il cervello limbico per le emozioni e la neocorteccia” per la riflessione.

Michel Badoc, professore emerito all’HEC

Autori di Il neuro -consumatore. In che modo le neuroscienze influenzano le decisioni di acquisto dei consumatori* .

Apple ha acquisito la startup francese di intelligenza artificiale Datakalab  fondata sette anni fa dai fratelli Xavier e Lucas Fischer, ha affermato il quotidiano francese Challenges.

Datakalab è un laboratorio specializzato in neuromarketing, fondato nel 2016 da Anne-Marie Gaultier, ex direttore marketing delle Galeries Lafayette, insieme ad altri partner.

Utilizzando tecnologie come braccialetti connessi e codifica facciale, Datakalab analizza le emozioni dei consumatori per comprendere meglio il comportamento dei clienti.

Collabora con aziende per ottimizzare strategie di marketing, modificando ad esempio trailer cinematografici per aumentare l’impatto emotivo. I suoi studi hanno rivelato anche dettagli sul comportamento dei clienti nei negozi, come la percezione del tempo di attesa alla cassa in base alle dimensioni del negozio.

Apple ha notificato l’acquisizione alla Commissione Europea, ha aggiunto il notiziario . L’acquisizione si è conclusa lo scorso dicembre, ha affermato Challenged.

Apple potrebbe sfruttare questa tecnologia in diversi modi:

  1. Migliorare l’assistente digitale Siri, rendendolo più empatico e utile comprendendo le emozioni degli utenti.
  2. Espandere le funzionalità sanitarie su dispositivi come Apple Watch e iPhone per monitorare l’umore degli utenti nel tempo, offrendo supporto per la salute mentale.
  3. Potenziare le videochiamate attraverso app come FaceTime, consentendo agli utenti di esprimere le loro emozioni in modo più chiaro e aggiungendo personalità alle interazioni.
  4. Rivoluzionare la pubblicità creando annunci basati sulle emozioni degli utenti, offrendo annunci mirati che tengono conto dello stato emotivo dell’utente in quel momento.

Secondo la sua pagina LinkedIn , Datakalab si descrive come un “nuovo modo per comprimere le reti neurali della visione artificiale”. Aveva tra gli 11 ed i 50 dipendenti.

Nvidia in calo del 10 percento La competizione si sta intensificando

Perché ne parliamo. L’Intelligenza Artificiale ha un impatto significativo su vari settori, inclusi quello tecnologico e quello finanziario. Negli Stati Uniti, molte delle aziende leader nell’AI sono quotate in borsa e hanno un peso considerevole negli indici di mercato, come il NASDAQ. Pertanto, il successo o meno di queste aziende può influenzare direttamente le performance complessive del mercato azionario. Analizzando il mercato si comprende anche un po’ più di tecnologia.

Nvidia ha vinto il primo round dell’Intelligenza Artificiale. Adesso la competizione si sta inasprendo. 

Se leggete l’articolo, si afferma che il blocco virtuale di NVDIA sull’Intelligenza Artificiale sarà messo in discussione e ovviamente, è una cosa che accadrà, ma non ora.

L’Intelligenza Artificiale ha regalato quasi quotidianamente meraviglie negli ultimi 18 mesi. Per gli investitori, la più grande sorpresa è stata la crescita di Nvidia, che è passata a dominare completamente il mercato dei chip legati all’AI.

Una volta conosciuta principalmente per la produzione di schede grafiche aggiuntive per PC per i giocatori, Nvidia ha trasformato le sue unità di elaborazione grafica, o GPU, nel cuore pulsante della rivoluzione dell’AI, alimentando la creazione di grandi modelli linguistici e eseguendo il software di inferenza che li sfrutta nei data center di tutto il mondo. Nvidia è stata quasi da sola sul campo, con più del 90% di quota di mercato.

Ma una nuova competizione si sta avvicinando, sia da parte di aziende grandi che piccole, e la battaglia sarà agguerrita. Gli interessi non potrebbero essere più grandi: Lisa Su, CEO di Advanced Micro Devices, ha valutato il mercato dei chip per l’AI a 400 miliardi di dollari entro il 2027. Il CEO di Intel, Pat Gelsinger, ha previsto un’opportunità da 1 trilione di dollari entro il 2030. Quasi il doppio delle dimensioni dell’intera industria dei chip nel 2023.

Jensen Huang di Nvidia ha costruito un’azienda universalmente rispettata e ammirata, ma gli acquirenti di chip non sono entusiasti di fare affidamento su una singola fonte. Aziende hardware come Dell Technologies, Hewlett Packard Enterprise, Lenovo e Super Micro Computer non riescono a ottenere abbastanza chip Nvidia per soddisfare la domanda dei clienti, e vorrebbero alternative.

I fornitori di servizi cloud come Amazon.com e Google di Alphabet desiderano così tanto più opzioni che stanno progettando i propri chip e le aziende che si affidano ai sistemi basati sull’Intelligenza Artificiale vogliono risorse di calcolo aggiuntive a costi più gestibili di quelli attuali.

Nelle ultime due-tre settimane, il mercato azionario ha mostrato una stranezza evidente, Fear of Missing Out (FOMO).

È una stranezza che non è emersa improvvisamente, ma è stata presente per un po’ di tempo. L’indice di volatilità è rimasto sotto i 15 punti per settimane, ma recentemente è salito a un range compreso tra 16 e quasi 20. Questo indice, noto come VIX, misura la prevista volatilità nei prossimi 30 giorni. Più alto è il VIX, maggiore è la volatilità prevista nel breve termine. È considerato un indicatore della paura, in quanto aumenta quando gli investitori iniziano a proteggersi. Dopo mesi di bassa volatilità, questo recente aumento va di pari passo con la situazione attuale.

La recente ondata di vendite sembra surreale perché non c’è stata una vendita superiore al 2,5% da quasi un anno. L’indice S&P 500 è sceso per la terza settimana consecutiva, registrando la più grande perdita settimanale dal marzo 2023 (-3,05%). Attualmente si trova al 5,46% al di sotto del suo massimo storico del 28 marzo 2024. È interessante notare che il Nasdaq è stato il più colpito, mentre il Russell ha superato sia l’S&P 500 che il Nasdaq, chiudendo in rialzo dello 0,24%. Questa situazione è insolita perché di solito, in caso di un aumento dei tassi di interesse, i titoli tecnologici di grandi dimensioni tendono ad attrarre gli acquirenti. Tuttavia, questa volta la situazione è diversa.

Durante questa settimana, molti dei titoli di alto livello hanno registrato forti vendite, anche se sono quelli che hanno mostrato i maggiori guadagni durante l’anno. Ad esempio, Nvidia è scesa del 10%, Eli Lilly del 2,63% e GE Aerospace del 3,2%. Questa è una situazione comune alla fine di una correzione del 10%, quando anche le azioni di grandi nomi vengono vendute in situazioni di panic selling.

Il recente calo di Nvidia potrebbe essere stato influenzato da preoccupazioni riguardanti il suo rapporto con Super Micro Computer. Tuttavia, Nvidia rimane un leader nella tecnologia.

Il vero concorrente più forte è Advanced Micro Devices che ha perso molti punti questa settimana. L’offerta Nvdia si concentra sull’H100, che sarà se non obsoleto, di secondo livello in tempi relativamente brevi quando debutterà la nuova GPU AI Blackwell. 

Sembra che le debolezze nei rapporti di ASML Holding e Taiwan che ospita Semiconductor abbiano influenzato negativamente il settore.

ASML Holding NV domina praticamente il mercato di un’apparecchiatura fondamentale per la produzione dei componenti che alimentano la vita moderna, il vero cuore del business di ASML è rappresentato dalla litografia EUV (litografia ultravioletta estrema), una tecnologia che utilizza la luce a lunghezza d’onda più corta per consentire ai produttori di chip di integrare un numero incredibile di transistor nei loro circuiti.

Nel contesto geopolitico del 21° secolo, i chip stanno diventando ciò che il petrolio era nel secolo precedente, e il successo unico di ASML l’ha resa un obiettivo prioritario nelle crescenti tensioni tra Stati Uniti e Cina.

Ovviamente questa visione, puramente descrittiva, non tiene conto dei fondamentali della società che rimangono solidissimi, come evidenziato dai dati della trimestrale diffusa a febbraio e come sicuramente confermeranno i dati del prossimo Quarter che verranno diffusi il 22 maggio.

Il contenuto del presente articolo deve intendersi solo a scopo informativo e non costituisce una consulenza professionale. Le informazioni fornite sono ritenute accurate, ma possono contenere errori o imprecisioni e non possono essere prese in considerazione per eventuali investimenti personali. L’articolo riporta esclusivamente le opinioni della redazione che non ha alcun rapporto economico con le aziende citate.

In copertina: Cerebras Systems World’s Fastest AI Chip con Whopping 4 Trillion Transistors


Newsletter AI – Non perderti le ultime novità sul mondo dell’Intelligenza Artificiale, i consigli sui tool da provare, i prompt e i corsi di formazione. Iscriviti alla newsletter settimanale e accedi a un mondo di contenuti esclusivi direttamente nella tua casella di posta!

Motori di Ricerca

I motori di ricerca basati sull’intelligenza artificiale (AI) sono sistemi che utilizzano l’AI per migliorare la ricerca e la presentazione delle informazioni su Internet. Questi motori di ricerca utilizzano tecniche avanzate come l’apprendimento automatico, l’elaborazione del linguaggio naturale e la visione computerizzata per comprendere le ricerche degli utenti, valutare le informazioni e fornire risultati completi, accurati e pertinenti.

Ecco alcuni punti chiave sui motori di ricerca AI:

  • Ricerca più accurata e personalizzata: I motori di ricerca AI apprendono dalle interazioni degli utenti per comprendere meglio quali risultati sono più rilevanti per un particolare tipo di query. Questo processo di apprendimento continuo migliora gli algoritmi di ricerca nel tempo, fornendo risultati sempre migliori.
  • Risultati più pertinenti: A differenza dei motori di ricerca tradizionali che si affidano spesso a parole chiave e collegamenti, i motori di ricerca AI possono fornire risultati più pertinenti alla nostra query di ricerca o al contesto.
  • Servizi più interattivi e personalizzati: I motori di ricerca AI possono fornire servizi come la ricerca vocale o di immagini, riepiloghi, consigli e visualizzazioni.
  • Miglioramento continuo: I motori di ricerca AI non smettono mai di raccogliere nuove informazioni dalle interazioni umane, migliorando così nel tempo.

Alcuni esempi di motori di ricerca basati sull’AI :

Motori di ricerca

  • Kazimir.ai – Un motore di ricerca progettato per cercare immagini generate dall’intelligenza artificiale.
  • Perplexity AI : strumenti di ricerca basati sull’intelligenza artificiale.
  • Metafora : ricerca basata sul modello linguistico.
  • Phind : motore di ricerca basato sull’intelligenza artificiale.
  • You.com : un motore di ricerca basato sull’intelligenza artificiale che offre agli utenti un’esperienza di ricerca personalizzata mantenendo i loro dati privati ​​al 100%.
  • Komo AI : un motore di ricerca basato sull’intelligenza artificiale che fornisce risposte rapide e brevi.
  • Telborg – AI for Climate Research, con dati esclusivamente provenienti da governi, istituzioni internazionali e aziende.

Motori di ricerca locali

  • privateGPT : poni domande ai tuoi documenti senza una connessione Internet, sfruttando la potenza dei LLM.
  • quivr : scarica tutti i tuoi file e chatta con essi utilizzando il tuo secondo cervello AI generativo utilizzando LLM e incorporamenti.

I motori di ricerca AI e i chatbot sono entrambi alimentati dall’intelligenza artificiale, ma sono utilizzati in modi diversi e hanno funzioni diverse.

Un motore di ricerca AI è progettato per cercare informazioni nel web e fornire risultati pertinenti in base alla query di un utente. Utilizza tecniche come l’apprendimento automatico e l’elaborazione del linguaggio naturale per comprendere le ricerche degli utenti e fornire risultati accurati e pertinenti.

D’altra parte, un chatbot è un software progettato per simulare conversazioni umane. Può rispondere alle domande degli utenti, fornire assistenza o eseguire determinate azioni, come prenotare un appuntamento o effettuare un ordine. Molti chatbot utilizzano l’intelligenza artificiale per comprendere meglio le domande degli utenti e fornire risposte più accurate.

Differenze chiave tra i motori di ricerca AI e i chatbot:

  • Interazione: I chatbot interagiscono con gli utenti attraverso una conversazione, mentre i motori di ricerca AI rispondono alle query di ricerca degli utenti.
  • Funzione: I chatbot sono generalmente utilizzati per automatizzare determinate attività e fornire assistenza ai clienti, mentre i motori di ricerca AI sono utilizzati per trovare e fornire informazioni pertinenti da Internet.
  • Apprendimento: Mentre entrambi utilizzano l’intelligenza artificiale, i motori di ricerca AI tendono a utilizzare l’apprendimento automatico per migliorare i risultati di ricerca nel tempo. D’altra parte, molti chatbot utilizzano modelli di linguaggio pre-addestrati e non apprendono dalle interazioni con gli utenti.

Taking AI to the next level in manufacturing

Le aziende che producono tecnologie e soluzioni per l’intelligenza artificiale sembrano essere in una posizione vantaggiosa poiché un numero sempre maggiore di produttori sta integrando l’IA nelle proprie attività quotidiane.

Secondo uno studio congiunto condotto da Microsoft e MIT Technology Review Insights, il 35% dei produttori intervistati ha già implementato casi d’uso di intelligenza artificiale nella loro produzione, mentre la maggioranza, il 64%, sta ancora esplorando o sperimentando con questa tecnologia.

“Molti dirigenti che hanno partecipato al sondaggio intendono aumentare notevolmente gli investimenti in intelligenza artificiale nei prossimi due anni”, si legge nello studio. “Coloro che non hanno ancora adottato l’IA nella produzione stanno progressivamente muovendo i primi passi.”

Il campione di 300 dirigenti senior proveniva da organizzazioni con entrate annuali superiori a 100 milioni di dollari.

Quasi il 60% dei dirigenti intervistati prevede di aumentare gli investimenti in intelligenza artificiale del 10% o più nell’ingegneria e nella progettazione, mentre un altro 43% prevede di fare lo stesso per le operazioni di fabbrica.

Le aziende più grandi si stanno muovendo più rapidamente nell’integrare l’IA nelle loro attività, con produttori nel settore aerospaziale, automobilistico ed elettronico in prima linea nell’implementazione di casi d’uso.

L’80% delle aziende con entrate annue di 10 miliardi di dollari o più sta già implementando l’IA, mentre la percentuale scende al 38% per le aziende con ricavi tra 1 e 10 miliardi di dollari e diminuisce ulteriormente per quelle con entrate tra 100 e 999 milioni di dollari.

Tuttavia, la maggior parte delle aziende più piccole sta ancora valutando o sperimentando l’intelligenza artificiale.

“È evidente l’entusiasmo per l’intelligenza artificiale nel settore manifatturiero, ma solo poche aziende stanno utilizzando l’IA su larga scala per trasformare i loro processi di lavoro”

Philippe Rambach, chief AI officer di Schneider Electric.

Le aziende più piccole sottolineano la mancanza di competenze e risorse come principali ostacoli nello sfruttare appieno l’IA. Anche i costi associati al mantenimento e all’aggiornamento dei modelli di intelligenza artificiale sono problematici per i produttori con budget limitati.

Nonostante ci siano casi d’uso limitati di IA tra alcuni produttori, c’è ancora poco evidenza di una vera trasformazione guidata dall’IA, secondo Ben Armstrong, direttore esecutivo del MIT Industrial Performance Center.

Finora, i casi d’uso più comuni riguardano la progettazione del prodotto, la creazione di contenuti e l’implementazione di chatbot. L’ingegneria della progettazione sta diventando sempre più basata sui dati e l’IA sta facilitando questo processo attraverso simulazioni.

Una delle sfide più significative per i produttori nell’adozione su larga scala dell’IA è la gestione dei dati, poiché il settore genera grandi quantità di dati, molti dei quali non sono adatti ai modelli di IA.

Per affrontare questa sfida, il 57% degli intervistati sta migliorando la connettività delle macchine, mentre la stessa percentuale ritiene che la qualità dei dati rappresenti la principale sfida nell’integrazione dell’IA nelle operazioni.

“L’IA richiede un alto livello di maturità dei dati”, conclude lo studio. “È essenziale valutare accuratamente come l’organizzazione raccoglie, archivia ed elabora i dati e adottare misure concrete per migliorare la situazione prima di implementare i casi d’uso di IA.”

AI x l’audio

L’intelligenza artificiale sta scuotendo Internet con le sue straordinarie capacità creative, evidenziate dalle immagini generate da piattaforme come Midjourney, Dall-E e Stable Diffusion. Queste rappresentazioni suscitano riflessioni sull’approccio “vedere per credere” per comprendere il potere dell’IA. E una volta accettata questa potenza visiva, non sorprende che l’IA sia altrettanto efficace nel dominio audio.

La musica, fondamentale per l’esperienza cinematografica, può essere generata e completata dall’IA. Registi come Gareth Edwards hanno sperimentato l’IA per comporre colonne sonore, ottenendo risultati sorprendentemente buoni. Sebbene possa non raggiungere l’eccellenza di artisti consolidati come Hans Zimmer, per i creatori emergenti un’IA che produce una colonna sonora decente può fare la differenza tra avere una colonna sonora e non averne affatto.

Come Photoshop ha rivoluzionato la grafica, l’IA offre nuove opportunità anche nella composizione musicale. Tutorial online permettono a chiunque, anche senza esperienza musicale, di creare la propria musica.

L’intelligenza artificiale non è limitata al visivo e all’audio, ma può anche abbattere le barriere linguistiche. Offrendo traduzioni in tempo reale, rende possibile la comprensione reciproca tra persone che parlano lingue diverse, aumentando la connessione umana anche attraverso video, testi e situazioni reali.

Vediamo alcuni esempi di come l’AI viene utilizzata nell’ambito audio:

  1. Riconoscimento automatico del parlato (ASR): Gli algoritmi di ASR utilizzano l’intelligenza artificiale per convertire il parlato umano in testo scritto. Questa tecnologia è utilizzata in assistenti vocali come Siri, Alexa e Google Assistant, nonché in applicazioni di trascrizione automatica per riunioni, interviste e altro ancora.
  2. Sintesi vocale: L’AI può essere utilizzata per generare voci sintetiche realistiche che possono leggere testo scritto ad alta voce. Questa tecnologia è utile per la creazione di audiolibri, assistenti vocali e applicazioni di accessibilità per persone non vedenti o ipovedenti.
  3. Riconoscimento musicale: Alcune applicazioni utilizzano l’AI per riconoscere canzoni in base al suono, consentendo agli utenti di identificare brani musicali in corso di riproduzione.
  4. Trascrizione automatica di brani musicali: Gli algoritmi di trascrizione musicale utilizzano l’AI per convertire brani musicali registrati in partiture musicali o spartiti.
  5. Editing e mastering audio: Alcuni software di editing audio utilizzano l’AI per migliorare la qualità del suono, rimuovere il rumore di fondo, normalizzare il volume e applicare altri effetti audio.
  6. Riconoscimento dell’umore e delle emozioni: L’AI può essere utilizzata per analizzare l’audio e identificare l’umore o le emozioni associate al parlato o alla musica. Questa tecnologia può essere utilizzata per scopi di analisi del feedback dei clienti, di valutazione dell’esperienza dell’utente e di analisi dei sentimenti sui social media.
  7. Generazione di musica e suoni: Alcuni algoritmi di intelligenza artificiale sono in grado di generare musica e suoni originali in base a modelli e stili esistenti. Questa tecnologia è utilizzata in composizione musicale assistita dall’AI e nella produzione di effetti sonori per film, giochi e altri media.

Chiamate telefoniche

  • AICaller.io – AICaller è una soluzione per chiamate collettive automatizzate e semplice da usare che utilizza la più recente tecnologia di intelligenza artificiale generativa per attivare chiamate telefoniche per te e portare a termine le tue attività. Può eseguire operazioni come la qualificazione dei lead, la raccolta di dati tramite telefonate e molto altro. Viene fornito con una potente API, prezzi bassi e prova gratuita.
  • Cald.ai – Agenti di chiamata basati sull’intelligenza artificiale per chiamate telefoniche in uscita e in entrata.

Discorso

  • Eleven Labs – Generatore vocale AI.
  • Assomiglia all’AI : generatore vocale AI e clonazione vocale per la sintesi vocale.
  • WellSaid : converti testo in voce in tempo reale.
  • Play.ht – Generatore vocale AI. Genera una voce realistica di sintesi vocale online con l’intelligenza artificiale. Converti testo in audio.
  • Coqui – AI generativa per la voce.
  • podcast.ai – Un podcast interamente generato dall’intelligenza artificiale, basato sull’intelligenza artificiale testo-voce di Play.ht.
  • VALL-E X – Un modello linguistico codec neurale multilingue per la sintesi vocale multilingue.
  • TorToiSe – Un sistema di sintesi vocale multi-voce addestrato con un’enfasi sulla qualità. #opensource
  • Bark : un modello da testo ad audio basato su trasformatore. #opensource

Musica

  • Loudly: Loudly è un’applicazione mobile che offre un servizio di riconoscimento musicale simile a Shazam. Gli utenti possono utilizzare l’app per identificare canzoni in corso di riproduzione semplicemente avvicinando il loro dispositivo mobile alla fonte del suono. Una volta identificata la canzone, Loudly fornisce informazioni dettagliate sul brano, come il titolo, l’artista, l’album e la possibilità di ascoltarlo direttamente dall’app o di acquistarlo.
  • Suno: Suno è un’altra applicazione mobile che offre funzionalità simili a Loudly e Shazam. Gli utenti possono utilizzare Suno per identificare canzoni ascoltate in tempo reale o registrate in precedenza. Inoltre, Suno offre anche funzionalità sociali che consentono agli utenti di condividere le loro scoperte musicali con amici e seguaci attraverso la piattaforma.
  • Harmonai : siamo un’organizzazione guidata dalla comunità che rilascia strumenti audio generativi open source per rendere la produzione musicale più accessibile e divertente per tutti.
  • Mubert : un ecosistema musicale esente da royalty per creatori di contenuti, marchi e sviluppatori.
  • MusicLM – Un modello di Google Research per generare musica ad alta fedeltà da descrizioni di testo.

Questo sono solo alcuni esempi, ormai nel mondo si contano piu’ di 2100 applicazioni AI con un tasso di crescita del 30% anno… il famoso Hype.

CHATBOT

Era il 1968 quando Stanley Kubrick con il suo capolavoro “2001: Odissea nello spazio” porta nelle sale cinematografiche HAL 9000: l’intelligenza artificiale estremamente evoluta che guida l’astronave Discovery 1 attraverso lo spazio. E’ in grado di riprodurre tutte le attività della mente umana in modo molto più veloce e sicuro, parla, sente e prova emozioni.

Hal (Heuristic ALgorithmic) non impazzisce. Hal è un computer e come tale non può mentire. Ha ricevuto istruzioni prima della partenza di non rivelare all’equipaggio (tranne i 4 componenti in stato di ibernazione che ne erano al corrente) lo scopo del viaggio.

Questo gli provoca un conflitto che lo porta a commettere errori, lui che si ritiene infallibile. Quando legge il labiale dei due astronauti che vogliono disattivare le sue funzioni principali, cioè spegnerlo, per lui che è sempre stato attivo questo significa morire.

Di conseguenza scatta l’istinto di sopravvivenza e decide di eliminare chi per lui rappresenta una minaccia mortale.

56 anni dopo, il 3 novembre 2022 l’organizzazione senza scopo di lucro OpenAI ha rilasciato la versione più aggiornata del suo chatBOT: ChatGPT.

I chatbot AI (Artificial Intelligence) sono programmi che utilizzano l’intelligenza artificiale e il Natural Language Processing (NLP) per comprendere le domande degli utenti e automatizzare le risposte, simulando la conversazione umana. Questi chatbot (rule based) possono rispondere alle domande e alle richieste degli utenti attraverso input di testo, input audio o entrambi, senza la necessità di un intervento umano.

I chatbot AI più recenti sono spesso indicati come “assistenti virtuali” o “agenti virtuali”. Possono utilizzare l’input audio, come Siri di Apple, Google Assistant e Amazon Alexa, o interagire con gli utenti tramite messaggi SMS (IA debole).

In passato, i chatbot erano basati sul testo e programmati per rispondere ad una serie limitata di semplici domande con risposte che erano state precompilate dagli sviluppatori del chatbot. Nel tempo, i chatbot hanno integrato più regole ed NLP, consentendo così agli utenti finali di fruirne in modo conversazionale.

I chatbot AI di oggi usano NLU (Natural Language Understanding) per discernere i bisogni dell’utente. Utilizzano quindi strumenti di AI avanzati per determinare cosa sta provando a fare l’utente. Queste tecnologie si basano su machine learning e deep learning – elementi di AI, con alcune leggere differenze – per sviluppare una base di conoscenza sempre più granulare di domande e risposte basate sulle interazioni dell’utente.

Un esempio di chatbot AI è ChatGPT – recensoni – ChatGPT di OpenAI è un modello linguistico di grandi dimensioni che interagisce in modo conversazionale. Altri esempi :

  • Bing Chat – recensioni – Un modello linguistico di intelligenza artificiale conversazionale basato su Microsoft Bing.
  • Gemini – recensioni – Un chatbot AI sperimentale di Google, basato sul modello LaMDA.
  • Character.AI – recensioni – Character.AI ti consente di creare personaggi e chattare con loro.
  • ChatPDF – recensioni – Chatta con qualsiasi PDF.
  • ChatSonic – recensioni – Un assistente basato sull’intelligenza artificiale che consente la creazione di testo e immagini.
  • Phind – recensioni – Phind è un motore di ricerca intelligente e un assistente per programmatori. Phind è abbastanza intelligente da farti domande in modo proattivo per chiarire i suoi presupposti e navigare sul Web (o sulla tua base di codice) quando ha bisogno di contesto aggiuntivo. Con la nostra nuova estensione VS Code.
  • Tiledesk – recensioni – Framework di sviluppo chatbot senza codice open source abilitato per LLM. Progetta, testa e lancia i tuoi flussi su tutti i tuoi canali in pochi minuti.
  • AICamp – recensioni – ChatGPT per Teams

Le estensioni ChatGPT sono strumenti progettati specificamente per i modelli linguistici come ChatGPT. Queste estensioni migliorano le capacità del chatbot e gli consentono di eseguire attività precedentemente impossibili.

Le estensioni ChatGPT includono anche l’integrazione con vari servizi di terze parti. Alcuni esempi di queste integrazioni includono:

  • Gist AI : riepilogo gratuito basato su ChatGPT per siti Web, YouTube e PDF.
  • WebChatGPT : aumenta i tuoi prompt ChatGPT con risultati pertinenti dal Web.
  • GPT per Fogli e Documenti – Estensione ChatGPT per Fogli Google e Documenti Google.
  • Riepilogo YouTube con ChatGPT : utilizza ChatGPT per riepilogare i video di YouTube.
  • ChatGPT Prompt Genius : scopri, condividi, importa e utilizza i migliori prompt per ChatGPT e salva la cronologia chat localmente.
  • ChatGPT per motori di ricerca : visualizza la risposta ChatGPT insieme ai risultati di ricerca di Google, Bing e DuckDuckGo.
  • ShareGPT : condividi le tue conversazioni ChatGPT ed esplora le conversazioni condivise da altri.
  • Merlin – Estensione ChatGPT Plus su tutti i siti web.
  • ChatGPT Writer : genera intere e-mail e messaggi utilizzando ChatGPT AI.
  • ChatGPT per Jupyter : aggiungi varie funzioni di supporto in Jupyter Notebooks e Jupyter Lab, basate su ChatGPT.
  • editGPT : correggi, modifica e tieni traccia facilmente delle modifiche ai tuoi contenuti in chatGPT.
  • Interfaccia utente di Chatbot : un’interfaccia utente ChatGPT open source. Codice sorgente .
  • Forefront : una migliore esperienza ChatGPT.
  • Carattere AI per GPT : un clic per curare il chatbot AI, incluso ChatGPT, Google Bard per migliorare le risposte AI.

AI strumenti di Sviluppo e Codice

Gli strumenti di sviluppo e codice basati sull’intelligenza artificiale (AI) stanno diventando sempre più diffusi e utilizzati dagli sviluppatori per migliorare l’efficienza e la qualità del processo di sviluppo del software.

Ecco alcuni esempi di come l’AI viene integrata negli strumenti di sviluppo e codice:

  1. Assistenza alla scrittura di codice: Gli editor di codice come Visual Studio Code, PyCharm e altri integrano funzionalità AI che offrono suggerimenti intelligenti durante la scrittura del codice. Questi suggerimenti possono includere completamento automatico del codice, correzione automatica degli errori di sintassi, suggerimenti per ottimizzare il codice e molto altro ancora.
  2. Generazione automatica di codice: Alcuni strumenti AI possono generare codice automaticamente in base ai requisiti specificati o agli esempi forniti dall’utente. Questo può aiutare a velocizzare lo sviluppo di determinate parti del software e ridurre il rischio di errori umani.
  3. Debugging automatico: Alcuni strumenti AI sono in grado di individuare e correggere automaticamente gli errori di codice, o addirittura prevedere potenziali bug prima che si verifichino. Questo può aiutare gli sviluppatori a risolvere i problemi più rapidamente e a mantenere un codice più pulito e affidabile.
  4. Ottimizzazione delle prestazioni: Gli strumenti AI possono analizzare il codice sorgente e identificare aree che possono essere ottimizzate per migliorare le prestazioni del software. Questo può includere suggerimenti per ottimizzare algoritmi, ridurre la complessità computazionale e altro ancora.
  5. Automatizzazione dei test: Gli strumenti AI possono automatizzare la creazione e l’esecuzione di test software, identificare automaticamente i casi di test più rilevanti e generare dati di test realistici. Questo può aiutare a ridurre i tempi di sviluppo e migliorare la qualità del software.
  6. Analisi del codice: Gli strumenti AI possono analizzare il codice sorgente per identificare dipendenze, vulnerabilità di sicurezza, pratiche di codice non ottimali e altro ancora. Queste analisi possono aiutare gli sviluppatori a migliorare la manutenibilità, la sicurezza e la stabilità del software.

Strumenti di sviluppo

  • co:here – Cohere fornisce l’accesso a modelli linguistici di grandi dimensioni avanzati e strumenti di PNL.
  • Haystack – Un framework per la creazione di applicazioni NLP (ad esempio agenti, ricerca semantica, risposta a domande) con modelli linguistici.
  • Keploy – Strumento open source per convertire il traffico degli utenti in casi di test e stub di dati.
  • LangChain – Un framework per lo sviluppo di applicazioni basate su modelli linguistici.
  • gpt4all : un chatbot addestrato su un’enorme raccolta di dati puliti dell’assistente tra cui codice, storie e dialoghi.
  • LMQL – LMQL è un linguaggio di query per modelli linguistici di grandi dimensioni.
  • LlamaIndex : un framework di dati per la creazione di applicazioni LLM su dati esterni.
  • Phoenix : strumento open source per l’osservabilità ML eseguito nell’ambiente notebook, di Arize. Monitorare e ottimizzare modelli LLM, CV e tabulari.
  • Prediction Guard : integra perfettamente funzionalità LLM (Large Language Models) private, controllate e conformi.
  • Portkey : piattaforma LLMOps full-stack per monitorare, gestire e migliorare le app basate su LLM.
  • OpenAI Downtime Monitor : strumento gratuito che tiene traccia dei tempi di attività e delle latenze dell’API per vari modelli OpenAI e altri provider LLM.
  • ChatWithCloud : CLI che ti consente di interagire con AWS Cloud utilizzando il linguaggio umano all’interno del tuo terminale.

Codice

  • GitHub Copilot : GitHub Copilot utilizza OpenAI Codex per suggerire codice e intere funzioni in tempo reale, direttamente dal tuo editor.
  • OpenAI Codex – Un sistema di intelligenza artificiale di OpenAI che traduce il linguaggio naturale in codice.
  • Ghostwriter – Un programmatore di coppia basato sull’intelligenza artificiale di Replit.
  • Amazon CodeWhisperer : crea applicazioni più velocemente con il compagno di codifica basato sul ML.
  • tabnine : codifica più velocemente con completamenti di codice a riga intera e con funzioni complete.
  • Stenografia – Documentazione automatica del codice.
  • Mintlify : scrittore di documentazione basato sull’intelligenza artificiale.
  • Debuild : strumento low-code basato sull’intelligenza artificiale per app Web.
  • AI2sql : con AI2sql, ingegneri e non ingegneri possono scrivere facilmente query SQL efficienti e prive di errori senza conoscere SQL.
  • CodiumAI : con CodiumAI, ti vengono suggeriti test non banali direttamente nel tuo IDE, così rimani sicuro quando spingi.
  • PR-Agent : strumento basato sull’intelligenza artificiale per analisi PR automatizzate, feedback, suggerimenti e altro ancora.
  • MutableAI – Sviluppo software accelerato dall’intelligenza artificiale.
  • TurboPilot : un clone copilota self-hosted che utilizza la libreria dietro llama.cpp per eseguire il modello Salesforce Codegen da 6 miliardi di parametri in 4 GB di RAM.
  • Interfaccia utente GPT-Code : un’implementazione open source dell’interprete ChatGPT Code di OpenAI.
  • MetaGPT – Il framework multi-agente: dato un requisito di una riga, restituisci PRD, progettazione, attività, repository
  • Marblism : genera un boilerplate SaaS da un prompt.

In sintesi, gli strumenti di sviluppo e codice basati sull’AI offrono una serie di funzionalità avanzate che possono migliorare l’efficienza, la qualità e la sicurezza del processo di sviluppo del software. Questi strumenti stanno diventando sempre più importanti nella pratica degli sviluppatori e sono destinati a svolgere un ruolo sempre più significativo nel futuro dello sviluppo software.

OpenAI si salva dall’indagine UE

Secondo un rapporto di mercoledì di Bloomberg, l’investimento di 13 miliardi di dollari di Microsoft in OpenAI eviterà qualsiasi indagine formale da parte dei funzionari dell’Unione Europea.

La Commissione Europea ha concluso che l’investimento non conta come un’acquisizione poiché la direzione di OpenAI, il creatore di ChatGPT, non è controllata da Microsoft, hanno detto a Bloomberg persone a conoscenza della questione .

Mi verrebbe da dire se l’ Europa (quale?) investra’ mai 13 miliardi di Dollari in una startup o che si potra’ mai permettersi di farlo, tanto x citare un numero esso rappresenta il fatturato delle Ferovie dello Stato.

Alcune delle preoccupazioni dell’UE sull’investimento sono state dissipate dopo che al CEO di OpenAI Sam Altman è stato permesso di tornare nel consiglio di amministrazione di OpenAI a seguito di un’analisi da parte dello studio legale WilmerHale degli eventi che hanno portato alla sua temporanea estromissione.

Microsoft ha affermato che il suo rapporto con OpenAI promuove “l’innovazione e la concorrenza nell’intelligenza artificiale, preservando l’indipendenza di entrambe le società”, ha riferito Bloomberg.

Attualmente il BM di OpenAI e’ Freemium :

Negli ultimi anni diversi membri dei Magnifici 7 hanno investito in startup basate sull’intelligenza artificiale.

Il mese scorso, Amazon ha investito 2,75 miliardi di dollari in Anthropic, portando il suo investimento totale nella società a 4 miliardi di dollari. Anche Google a investito in Anthropic e Cohere. Cohere ha anche collaborato con Oracle e Nvidia.


Newsletter AI – non perderti le ultime novità sul mondo dell’Intelligenza Artificiale, i consigli sui tool da provare, i prompt e i corsi di formazione. Iscriviti alla newsletter settimanale e accedi a un mondo di contenuti esclusivi direttamente nella tua casella di posta!

CDP Venture lancia Frontech, l’acceleratore dedicato all’AI, Web 3.0 e Metaverso

CDP Venture Capital ha presentato l’acceleratore Frontech, un programma dedicato alla crescita e al sostegno delle startup che sviluppano soluzioni digitali innovative nei settori AI, Web 3.0 e metaverso.

Frontech, con un budget totale di 7 milioni di euro, offrirà ticket di investimento iniziali e investimenti successivi post-accelerazione. Il programma sarà gestito dai co-investitori Gellify e Cariplo Factory, con il supporto di partner istituzionali, tecnologici e aziendali, tra cui Fondazione Sardegna, Algorand, Microsoft, Bper, Banco di Sardegna e FPZ.

L’acceleratore si concentrerà sulle “tecnologie di frontiera”, come l’identità digitale, la blockchain, l’autenticazione della proprietà intellettuale, i modelli AI generativa, il gaming, la realtà aumentata/virtuale, l’arte digitale, la nuova editoria e altre aree che stanno attirando significativi investimenti globali e hanno il potenziale per trasformare interi mercati creando nuovi prodotti e servizi attraverso lo sviluppo di “agenti intelligenti”.

L’obiettivo dell’acceleratore Frontech è supportare 10 startup in fase seed e early stage ogni anno per tre anni, fornendo un investimento iniziale di 120.000 euro e un programma di accelerazione di sei mesi per accompagnare creatori, sviluppatori e founder nella costruzione dell’infrastruttura tecnologica e commerciale delle loro soluzioni dedicate a web 3.0, metaverso e AI generativa.

Le startup selezionate potranno usufruire di workshop, sviluppo di prodotti, attività di business development, supporto per la raccolta fondi e l’opportunità di implementare progetti di proof-of-concept con i partner aziendali di Frontech.

La call per la selezione delle prime 10 startup è aperta da oggi fino al 19 maggio 2023 sul sito www.frontechaccelerator.it. Il bando è aperto a startup italiane e internazionali interessate ad aprire una sede legale in Italia.


Newsletter AI – non perderti le ultime novità sul mondo dell’Intelligenza Artificiale, i consigli sui tool da provare, i prompt e i corsi di formazione. Iscriviti alla newsletter settimanale e accedi a un mondo di contenuti esclusivi direttamente nella tua casella di posta!

AI 50 2024

Prodotta da Forbes in collaborazione con Sequoia e Meritech Capital, “AI 50” mette in evidenza le più promettenti società non quotate e premia le startup private che sviluppano i casi di utilizzo aziendale più promettenti dell’AI.

Le proposte vengono esaminate quantitativamente attraverso un algoritmo sviluppato da Konstantine Buhler, partner di Sequoia Capital. Assegna un punteggio alle aziende sulla base di tre criteri approssimativi: performance finanziaria, cultura aziendale e diversità.

I primi 120 finalisti vengono esaminati da un gruppo di giudici provenienti da importanti aziende pubbliche o istituti di ricerca che esaminano considerazioni più qualitative come il potenziale tecnico e la forza del talento.

“Quando abbiamo iniziato l’elenco nel 2019, c’erano forse 200 candidati (il settore era molto più piccolo). Ora, con 1.900, penso che dovremmo raggiungere l’AI 100 l’anno prossimo nel 2025!” afferma Buhler

Tra il 2022 e il 2023 l’intelligenza artificiale generativa è infatti passata dalle quinte al palco. 

Quest’anno è al centro dell’attenzione poiché vediamo l’inizio di importanti guadagni di produttività dell’intelligenza artificiale sia per i clienti aziendali che per i consumatori.

Le infrastrutture per gli LLM assorbono il 60% dei finanziamenti, ma non è qui il Business Model di questo Hype, la ricerca della Killer Applications costituisce infatti, al di là dei mostruosi guadagni di Nvidia e dei Cloud Datacenter la maggior parte della lista AI 50.

I VCs come era gia’ successo per l’ hype IoT sono affamati di monetizzare i Dati e il Cloud, non hanno un Modello preciso in testa, ma questa volta sperano di riuscirci.

Il 90% quest’anno premia societa’ americane quelle della Silicon Valley finanziate con Bilioni di $, se pensiamo che in italia Frontech, con un budget totale di 7 milioni di euro dovra’ fare miracoli, alcune Canadesi e 6 Europee (Inghilterra,Germania, Francia,Olanda), ovviamente le startup nascono dove ci sono gli Investitori privati o pubblici. Prima o poi questi investitori vorranno i soldi indietro.

I grandi spostamenti nella graduatoria AI 50 di quest’anno mettono in luce l’impatto crescente dell’intelligenza artificiale generativa sulla produttività aziendale e settoriale. La categoria dedicata alla produttività generale aziendale si è raddoppiata quest’anno, passando da quattro a otto aziende, poiché queste hanno espanso la loro gamma di offerte per rispondere alla crescente domanda dei clienti.

Ad esempio, Writer, precedentemente incluso nella categoria marketing aziendale, ha ampliato il proprio portfolio di prodotti per adattarsi a tutti i settori aziendali. Inoltre, Notion, un nuovo ingresso nell’elenco, ha integrato un assistente AI nella propria piattaforma di produttività e ha introdotto nuove funzionalità come la calendarizzazione.

OURWORLDINDATA.ORG

Cinque app per la produttività, tra cui ChatGPT di OpenAI, Claude, DeepL, Notion e Tome di Anthropic, stanno ora servendo clienti a livello consumer, prosumer e aziendale. L’editor di immagini Photoroom, l’app di generazione video Pika e il costruttore di giochi Rosebud dimostrano che i confini tra consumatore e prosumer nel software creativo stanno diventando sempre più sfumati. Complessivamente, anche le aziende in questa categoria sono raddoppiate, passando da tre a sei.

Quest’anno sono state ridotte le categorie verticali settoriali, ma è emerso un nuovo settore industriale. Aziende attive nella robotica, come Tractian nella manutenzione industriale e Waabi nella guida autonoma, stanno iniziando a mostrare come l’integrazione del software AI con l’hardware stia trasformando il lavoro nel mondo fisico.

Il 2023 è stato un anno di crescita significativa per le infrastrutture in generale e ha visto l’emergere di nuovi concorrenti di rilievo, come Mistral, uno dei principali concorrenti nei modelli di base.

Nella categoria delle piattaforme dati cloud, Pinecone e Weaviate hanno dimostrato l’importanza dei database vettoriali. Nel frattempo, Databricks, attraverso l’acquisizione di MosaicML lo scorso anno, si è unito ad altri fornitori di inferenza come Anyscale, Baseten, Replicate e Together. LangChain ha fatto il suo ingresso come framework di sviluppo di applicazioni multipurpose per lavorare con LLM.

Le precedenti rivoluzioni tecnologiche, come quelle delle reti, dell’Internet e della telefonia mobile, hanno principalmente rivoluzionato il modo di comunicare. L’intelligenza artificiale promette di portare una rivoluzione della produttività, simile a quella dei personal computer, che ha modellato il futuro del business e dell’industria.

Con lo sviluppo di sempre più IA, queste inizieranno a lavorare insieme come reti di IA. Negli ultimi anni, abbiamo assistito all’espansione dell’intelligenza artificiale generativa oltre la semplice generazione di testo o codice, fino all’interazione con agenti.

Proprio come l’avvento del PC e poi dello smartphone ha spinto la domanda di larghezza di banda Internet per trasmettere dati, l’evoluzione degli agenti di intelligenza artificiale stimolerà la domanda di nuove infrastrutture per supportare calcoli e comunicazioni sempre più potenti.

Stiamo entrando in un’era in cui, come ha detto il CEO di Nvidia Jensen Huang, “ogni pixel sarà generato”. In questo futuro generativo, la creazione stessa di un’azienda potrebbe diventare il lavoro degli agenti dell’intelligenza artificiale; e un giorno intere aziende potrebbero funzionare come reti neurali.

Ciò che vediamo oggi nel panorama delle applicazioni sono le prime iterazioni degli strumenti che saranno utilizzati dalla prossima generazione di aziende. Probabilmente, queste aziende saranno più piccole, ma la facilità con cui si creano significa che ce ne saranno molte di più. La costituzione delle società diventerà più rapida e fluida, con nuove strutture proprietarie e gestionali. Un giorno potrebbero esserci grandi aziende gestite da un unico ingegnere AI.

SEQUOIA CAPITAL

La maggior parte delle aziende del futuro non saranno aziende singole, ma avranno esigenze e punti critici diversi rispetto a quelle di oggi. Avranno bisogno di prodotti aziendali in grado di risolvere sfide nella gestione della conoscenza e nella generazione di contenuti, con un’enfasi su fiducia, sicurezza e autenticazione.

La quantità di software che queste aziende eseguiranno si espanderà e cambierà, con la generazione di codice e agenti software che consentiranno una maggiore personalizzazione e un’iterazione più rapida.

Per conquistare le aziende del futuro, i fondatori dovranno rispondere ad alcune domande cruciali. Che tipo di prodotti realizzeranno queste aziende? Di quali tipi di infrastrutture e applicazioni avranno bisogno? Come cambierà la forza lavoro? Come cambieranno i modelli di distribuzione e di acquisizione del valore? Quale percentuale del loro mercato totale sarà composta da persone rispetto ad agenti AI autonomi?

SEQUOIA CAPITAL

Le rivoluzioni della produttività, come quella dell’intelligenza artificiale, riducono i costi. Il progresso tecnologico di questo secolo ha abbassato radicalmente i costi dell’hardware, ma i costi dei servizi forniti dagli esseri umani, dalla sanità all’istruzione, sono aumentati. L’intelligenza artificiale ha il potenziale per ridurre i costi in settori così cruciali, rendendoli più accessibili e convenienti.

Questi cambiamenti devono essere gestiti in modo responsabile per mitigare la perdita di posti di lavoro e favorire la creazione di nuovi posti di lavoro. L’intelligenza artificiale ci consentirà di fare molto di più con meno, ma sarà necessario sforzo sia da parte del governo che del settore privato per riqualificare e responsabilizzare tutti.

L’intelligenza artificiale è posizionata per cambiare la struttura dei costi e aumentare la produttività in alcune delle aree più cruciali della nostra società. Ha il potenziale per portare a un’istruzione migliore, a popolazioni più sane e a persone più produttive, allontanando il lavoro banale e permettendoci di concentrare la nostra attenzione su questioni più importanti e strumenti migliori per il futuro. Può consentire a più persone di affrontare più problemi e creare una società migliore.

Ecco la lista :


Newsletter AI – non perderti le ultime novità sul mondo dell’Intelligenza Artificiale, i consigli sui tool da provare, i prompt e i corsi di formazione. Iscriviti alla newsletter settimanale e accedi a un mondo di contenuti esclusivi direttamente nella tua casella di posta!

OTIO.AI

Ti sei mai chiesto cosa rende unici i ricercatori in istituzioni come Google Brain, Stanford University o Goldman Sachs rispetto alla media? Anche noi ci siamo posti la stessa domanda.

Loro, come noi in redazione, siamo sommersi da articoli, documenti e post sui social media che dobbiamo leggere e proviamo a usare dei Tools come ChatGPT che ci aiutano. Poi l’ Exec Director di Rivista.AI mi ha menzionato Otio una specie di bibliotecario digitale dell’IA; con un clic, riassume e organizza qualsiasi tipo di informazione online che gli fornisci.

Otio aiuta a creare un abbozzo o addirittura una prima bozza, basata sui contenuti che ha raccolto. Non si tratta solo di risparmiare tempo; si tratta di migliorare la qualità del suo lavoro.

Aggiungendo alcune informazioni, Otio.ai è uno strumento che utilizza l’intelligenza artificiale per aiutare i ricercatori a gestire e organizzare le informazioni.

Questo strumento può essere particolarmente utile per coloro che lavorano in campi in cui è necessario rimanere aggiornati su una vasta gamma di argomenti e tendenze.

Con la sua capacità di riassumere e organizzare le informazioni, Otio.ai può aiutare a semplificare il processo di ricerca e a migliorare la produttività.

Inoltre, la funzionalità di scrittura assistita di Otio.ai può essere un grande vantaggio per coloro che devono scrivere rapporti o email basati su una grande quantità di informazioni raccolte.

Onestamente, sono le piccole cose che rendono la vita più semplice, e questa è una cosa che ho usato e pagato personalmente da quando l’ho provata. Puoi provarlo gratuitamente qui: Otio.ai.

Intelligenza Artificiale in Italia: regolamentazione, competitività e investimenti pubblici

Analizzare quali i risultati abbia raggiunto in Italia l’Intelligenza Artificiale e tracciare gli sviluppi futuri del settore promuovendo un confronto tra tutti gli stakeholder. È questo l’obiettivo del convegno “L’economia dei dati nell’Intelligenza Artificiale” organizzato oggi da Seeweb, durante il quale si sono alternati interventi di relatori istituzionali, del mondo della ricerca, dell’università e dell’imprenditoria.

Durante l’evento è stato presentato uno studio condotto da Seeweb sugli impatti economici dell’Intelligenza Artificiale nel nostro Paese e si sono discusse le strategie migliori per incentivare modelli italiani di Intelligenza Artificiale. L’obiettivo, assicurare il progresso tecnologico e la sostenibilità del nostro ecosistema al fine di raggiungere l’indipendenza tecnologica e garantire una governance etica al settore.

Il paper sottolinea la necessità di adottare misure di alto valore sistemico per promuovere lo sviluppo dell’Intelligenza Artificiale in Italia, riducendo al minimo gli impatti sul lavoro e potenziando le competenze nel paese. Le misure chiave identificate includono:

  1. La regolamentazione dell’accesso e del controllo dei dati utilizzati per l’addestramento dei sistemi di Intelligenza Artificiale;
  2. La prevenzione delle distorsioni e delle concentrazioni di mercato da parte delle piattaforme dominanti extraeuropee;
  3. Il sostegno alle aziende italiane attive nella filiera dell’Intelligenza Artificiale.

Sebbene queste misure da sole potrebbero non risolvere tutte le problematiche sollevate nel paper, sono considerate un punto di partenza fondamentale per progredire nella giusta direzione verso un mercato competitivo, aperto e sicuro per l’Intelligenza Artificiale in Italia.

L’Intelligenza Artificiale ci accompagnerà per molto tempo al di là dell’hype del momento” ha spiegato Antonio Baldassarra, Ceo di Seeweb, che sottolinea poi come “sembra abbastanza chiaro oggi come si possa utilizzare IA per rendere più efficiente il lavoro, non abbiamo però altrettanto chiaro come sia possibile creare un’industria nazionale che possa avere un ruolo di attore. Il ruolo dell’industria del Paese non può essere solo quello di mettere a terra cose fatte da altri; è legittimo e vogliamo che esista ma dobbiamo anche pensare a una nostra capacità produttiva nell’ambito dell’Intelligenza Artificiale”.

Nel corso della discussione, i relatori hanno affrontato una serie di tematiche cruciali riguardanti i rischi e le opportunità derivanti dall’uso dell’Intelligenza Artificiale e dalla loro integrazione nella società. Il Ceo di Seeweb, Antonio Baldassarra, su questo punto, ha evidenziato le sfide legate alla mancanza di comprensione e alla sottovalutazione degli impatti delle tecnologie emergenti.

Tra i relatori dell’evento, Massimo Chiriatti, Chief Technology e Innovation Officer di Lenovo, ha ribadito l’importanza di non cedere alla paura e all’esagerazione mediatica riguardo alle tecnologie, sottolineando i benefici che queste hanno portato storicamente all’umanità, dall’aumento dell’aspettativa di vita all’innalzamento dei livelli di benessere, evidenziando il ruolo fondamentale delle tecnologie nell’automatizzare attività pericolose e faticose, consentendo così un progresso civile.

Tuttavia, si e’anche invitato alla prudenza nel delegare alle macchine compiti umani, riconoscendo che la sostituzione completa dell’uomo non è auspicabile.

Nel panel finale si è anche posto l’accento sul futuro desiderabile per la società, auspicando che il Paese Italia diventi non solo attrattivo e produttivo, ma anche un luogo in cui l’innovazione e il rispetto siano alla base dello sviluppo.

Citando esperienze passate come quelle delle Baby Bells inegli Stati Uniti nel settore delle telecomunicazioni si è voluto evidenziare l’importanza di non ostacolare l’innovazione tramite monopolizzazioni, ma piuttosto di promuovere un uso consapevole delle tecnologie e un’industria nazionale forte e competitiva.

Infine, sono state sollevate questioni cruciali riguardanti gli investimenti pubblici nelle tecnologie emergenti. Su questo punto si è evidenziato come, nonostante l’importanza strategica di tali investimenti, una parte significativa dei finanziamenti pubblici a livello europeo venga indirizzata verso soggetti esterni all’Europa, alimentando quindi un circolo vizioso di dipendenza tecnologica.

A tale proposito si è auspicata una maggiore attenzione da parte delle istituzioni verso politiche di commesse pubbliche mirate a promuovere l’innovazione e lo sviluppo industriale all’interno del continente, con l’obiettivo di garantire una maggiore sovranità tecnologica e economica.

In conclusione dell’evento, i relatori hanno sottolineato la necessità di un approccio equilibrato e consapevole nei confronti delle tecnologie emergenti, affinché queste possano contribuire al progresso sociale ed economico senza compromettere la dignità e il benessere dell’umanità.


Newsletter AI – non perderti le ultime novità sul mondo dell’Intelligenza Artificiale, i consigli sui tool da provare, i prompt e i corsi di formazione. Iscriviti alla newsletter settimanale e accedi a un mondo di contenuti esclusivi direttamente nella tua casella di posta!

Pagina 39 di 45

CC BY-NC-SA 4.0 DEED | Disclaimer Contenuti | Informativa Privacy | Informativa sui Cookie