L’introduzione degli avatar AI nel mondo delle risorse umane sta rapidamente trasformando la modalità con cui le aziende selezionano e valutano i candidati. Secondo un recente studio condotto da Tidio, un’azienda specializzata in software per il servizio clienti, l’85% dei recruiter considera l’intelligenza artificiale come uno strumento utile per sostituire alcune fasi del processo di assunzione. Tuttavia, con il crescente utilizzo di questi avatar digitali, emergono anche nuovi interrogativi sulla reale efficacia dell’AI nel prevedere il potenziale dei candidati e sull’integrità del processo di assunzione.
Categoria: News Pagina 6 di 39
Rivista.AI e’ il portale sull’intelligenza artificiale (AI) attualita’, ultime notizie (news) e aggiornamenti sempre gratuiti e in italiano
Physical Intelligence (π) : viviamo in un’epoca di rivoluzione tecnologica: l’ultimo decennio ha visto emergere assistenti AI pratici, sistemi in grado di generare immagini e video fotorealistici e modelli capaci di prevedere la struttura delle proteine. Eppure, nonostante tutti questi progressi, l’intelligenza umana supera ancora drammaticamente l’intelligenza artificiale nel mondo fisico. Per parafrasare il paradosso di Moravec, vincere una partita a scacchi o scoprire un nuovo farmaco rappresentano “problemi facili” per l’AI, mentre piegare una camicia o pulire un tavolo richiede la risoluzione di alcuni dei problemi ingegneristici più complessi mai concepiti. Per costruire sistemi AI dotati della versatilità fisica che possediamo, è necessario un nuovo approccio: dobbiamo rendere i sistemi AI “incarnati” affinché possano acquisire intelligenza fisica.
Negli ultimi otto mesi, Physical Intelligence ha sviluppato un modello di robot generale chiamato π0 (pi-zero). Credono che questo rappresenti un primo passo verso l ‘obiettivo a lungo termine di sviluppare un’intelligenza fisica artificiale, affinché gli utenti possano semplicemente chiedere ai robot di eseguire qualsiasi compito desiderino, proprio come avviene con i modelli di linguaggio di grandi dimensioni (LLMs) e gli assistenti chatbot. Come gli LLM, il modello è addestrato su dati ampi e diversificati e può seguire varie istruzioni testuali. A differenza degli LLM, π0 abbraccia immagini, testo e azioni, acquisendo intelligenza fisica grazie all’addestramento su esperienze incarnate dai robot, imparando a emettere direttamente comandi motori a basso livello tramite un’architettura innovativa. Può controllare una varietà di robot diversi e può essere guidato nell’esecuzione di un compito desiderato o perfezionato per specializzarsi in scenari applicativi complessi.
Recentemente, Sam Altman, ha rivelato come la mancanza di capacità computazionale stia limitando la velocità con cui l’azienda riesce a sviluppare e distribuire nuovi prodotti. Questa affermazione, emersa durante una sessione di domande e risposte su Reddit, ha offerto uno spaccato sulle sfide e le complessità di gestione tecnologica e strategica per una delle aziende di intelligenza artificiale più avanzate e finanziate al mondo.
Nel contesto delle prossime elezioni americane, il futuro del CHIPS and Science Act – un progetto di legge fondamentale per l’industria dei semiconduttori negli Stati Uniti – sembra incerto. Il presidente della Camera, Mike Johnson, ha recentemente accennato alla possibilità che i Repubblicani possano tentare di abrogare la legge, qualora Donald Trump vincesse le elezioni e il GOP riconquistasse la Camera. Questa dichiarazione, fatta durante un evento elettorale a supporto del deputato repubblicano Brandon Williams, ha sollevato reazioni immediate, sia da parte del candidato democratico che dell’attuale amministrazione.
Il tema della scelta tra intelligenza artificiale aperta e chiusa è di particolare rilevanza per le aziende che desiderano integrare l’IA nelle proprie operazioni, e tuttavia la risposta alla domanda su quale approccio sia “migliore” è tutto tranne che universale. Come molte scelte tecnologiche, la preferenza tra un sistema di IA open-source o uno proprietario dipende in modo determinante dal contesto aziendale, dagli obiettivi strategici e dalle risorse a disposizione.
In una società dove i valori sono in crisi, le nuove generazioni sembrano perdere la distinzione tra bene e male. I cambiamenti rapidi e l’iperconnessione fanno apparire le questioni etiche come secondarie, ma è fondamentale riflettere su come influenzano le nostre azioni e la società. Questa riflessione è necessaria per riconoscere le nostre azioni e costruire un futuro basato su principi condivisi.La prima domanda è: come definiamo il bene e il male? In un mondo globalizzato, con culture intrecciate, le definizioni rischiano di diventare soggettive. È essenziale avere strumenti di valutazione per distinguere il giusto dallo sbagliato. Qui, l’educazione è cruciale. Deve sviluppare capacità critica, empatia e consapevolezza sociale, oltre a trasmettere informazioni.
La riflessione sulla moralità deve partire da basi solide, con la tradizione filosofica come fonte di ispirazione. Filosofi come Kant, Aristotele e Mill offrono teorie utili per definire le buone azioni. I principi etici, anche se variabili, fungono da guida tra scelte e conseguenze. Una base morale condivisa è cruciale, poiché le decisioni attuali modellano la società futura.L’etica deve essere accompagnata dalla legalità. Seguire le leggi non basta per comportamenti etici; serve promuovere leggi che riflettano i valori sociali. Ciò richiede una cittadinanza attiva e informata, aumentando la responsabilità nel processo democratico e nella definizione delle norme. Trasparenza e integrità nelle istituzioni sono essenziali per ristabilire la fiducia tra cittadini e governanti.Senza un’adeguata riflessione, si rischia di navigare nell’ambiguità e confusione, valutando le azioni per convenienza o successo personale. La cultura della prestazione, influenzata dai social media e dalla pressione sociale, può portare a scelte discutibili e all’erosione dei valori morali.
Con l’introduzione di AI Ethics Advisor, la prima applicazione costruita sul motore #GPT4o, si apre un nuovo orizzonte di riflessione e guida su questioni etiche, dilemmi morali e standard di condotta. Disponibile direttamente nello store degli #GPTs di OpenAI, questo strumento rappresenta un importante passo avanti verso l’integrazione di principi etici nel processo decisionale guidato dall’IA.
LinkedIn, la piattaforma sociale utilizzata dai professionisti per connettersi con colleghi, cercare opportunità lavorative e sviluppare competenze, ha recentemente svelato il suo ultimo sforzo nell’ambito degli strumenti di intelligenza artificiale. Il nuovo prodotto, Hiring Assistant, è progettato per affrontare una vasta gamma di compiti di reclutamento, dall’elaborazione di note informali per trasformarle in descrizioni di lavoro dettagliate, fino alla ricerca di candidati e al loro coinvolgimento.
LinkedIn descrive Hiring Assistant come una pietra miliare nella sua evoluzione nell’AI: è, secondo l’azienda di proprietà di Microsoft, il suo primo “agente AI”, mirato a uno dei segmenti più redditizi di utenti di LinkedIn: i reclutatori. Attualmente, l’assistente AI è attivo con un “gruppo selezionato” di clienti, tra cui grandi aziende come AMD, Canva, Siemens e Zurich Insurance, con un’implementazione prevista su scala più ampia nei prossimi mesi.
Il BIOSECURE Act, recentemente proposto dal Congresso degli Stati Uniti (USA), rappresenta un momento cruciale nel panorama normativo riguardante le tecnologie genomiche sensibili. Questo atto si propone di stabilire una cornice giuridica solida per garantire la protezione dei dati genomici, affrontando le crescenti preoccupazioni relative all’uso improprio delle informazioni genetiche. La crescente disponibilità e il potere delle tecnologie genomiche hanno reso necessaria una regolamentazione più rigorosa, in grado di proteggere gli individui e le comunità dall’abuso dei dati genomici.
Una legge che, se sancita definitivamente, imporrebbe pesanti limitazioni alle aziende biotecnologiche cinesi – tra cui BGI, MGI, Complete Genomics e WuXi AppTec – impedendo loro di ottenere contratti federali o collaborare con entità finanziate dagli Stati Uniti. In uno scenario di crescente competizione tra Stati Uniti e Cina, il BIOSECURE Act rappresenta un passo decisivo per il controllo delle tecnologie genomiche sensibili e una salvaguardia contro l’uso improprio dei dati genomici.
Mentre gli occhi di molti si concentrano su colossi come OpenAI e Meta, che dominano la scena AI statunitense e fanno i conti con regolamentazioni e capitali giganteschi, un attore più nascosto si sta muovendo con decisione. Inception, il laboratorio di ricerca AI affiliato a G42, conglomerato tecnologico di Abu Dhabi, punta a colmare il gap dell’AI nei mercati emergenti. Supportata dall’enorme patrimonio di Sheikh Tahnoon bin Zayed Al Nahyan, questa realtà emergente sta ampliando la propria influenza, dai confini del Golfo Persico a quelli del Sud Globale.
Nel 2023, Stati Uniti e Regno Unito hanno lanciato i primi Istituti di Sicurezza dell’Intelligenza Artificiale (AISI), creando un nuovo modello per garantire lo sviluppo sicuro e responsabile dell’IA. Sebbene altre giurisdizioni abbiano seguito questo esempio, la Cina non ha ancora istituito un’organizzazione ufficialmente analoga. Tuttavia, sono stati identificati enti cinesi con attività simili agli AISI, confermando l’interesse della Cina nel monitorare e mitigare i rischi legati all’IA. Di seguito, analizziamo le principali istituzioni cinesi attive nella sicurezza dell’IA, evidenziando le loro aree di lavoro, dalla ricerca tecnica agli standard di sicurezza, fino alla cooperazione internazionale.
L’Italia si prepara a definire la sua strategia nazionale per l’idrogeno entro il 26 novembre. Il ministro dell’Ambiente e della Sicurezza Energetica, Gilberto Pichetto Fratin, ha delineato la tempistica del documento che traccerà la road map italiana per lo sviluppo di questo vettore energetico, durante il convegno organizzato da Confindustria in collaborazione con il Mase, dal titolo “Le imprese italiane e la sfida del SouthH2Corridor”. Questo corridoio è uno dei cinque corridoi di importazione di idrogeno su larga scala individuati e sostenuti dal piano RepowerEu dell’Unione Europea.
Le minacce catastrofiche ed esistenziali rappresentano un pericolo concreto per la civiltà umana, poiché pongono in gioco la sopravvivenza e il benessere a lungo termine dell’umanità. È con questa consapevolezza che il Congresso degli Stati Uniti ha approvato nel 2022 il Global Catastrophic Risk Management Act, una legge che delega al Dipartimento di Sicurezza Interna e alla Federal Emergency Management Agency (FEMA) il compito di coordinare un’analisi globale delle minacce catastrofiche e dei rischi correlati. Per realizzare questo obiettivo, la Direzione per la Scienza e la Tecnologia del Dipartimento di Sicurezza Interna, insieme a FEMA, ha richiesto il supporto del Homeland Security Operational Analysis Center. I risultati emersi da questa analisi rappresentano un importante passo avanti nella comprensione e nella gestione di rischi che potrebbero influire profondamente sull’umanità.
Il Regno Unito si prepara a svelare un’importante serie di annunci strategici sull’intelligenza artificiale (IA) nel mese di novembre, con l’obiettivo di rafforzare la propria posizione come leader globale nell’innovazione tecnologica. In un contesto di crescente competizione internazionale, il governo britannico si propone di attirare talenti di alto livello e incentivare l’adozione di soluzioni IA nei settori chiave dell’economia. Secondo quanto riportato dal Financial Times, l’iniziativa centrale di questi annunci sarà il Piano d’azione per le opportunità di intelligenza artificiale, firmato da Matt Clifford, il principale consigliere del primo ministro Rishi Sunak per le politiche di intelligenza artificiale.
Un documento interno recentemente emerso getta luce sull’acquisto da parte del comando AFRICOM degli Stati Uniti di servizi cloud di Microsoft e, con essi, delle tecnologie di OpenAI. Questo acquisto è giustificato dall’importanza crescente che AFRICOM attribuisce a soluzioni avanzate di intelligenza artificiale e apprendimento automatico per affrontare le sfide del suo mandato in Africa. L’accordo si inserisce nel quadro del progetto Joint Warfighting Cloud Capability, del valore di 9 miliardi di dollari, ma il valore specifico dell’acquisto di AFRICOM, approvato dall’Agenzia per i Sistemi Informativi di Difesa (DISA), rimane riservato, sebbene sia inferiore a 15 milioni di dollari.
Negli ultimi anni, l’intelligenza artificiale ha sollevato interrogativi che non riguardano solo il progresso tecnologico, ma coinvolgono profondamente la sicurezza nazionale, l’etica, e il futuro stesso della nostra società. Questo non è un dibattito limitato agli addetti ai lavori; personaggi influenti come Vinod Khosla, James Cameron, Thomas Friedman e Peter Kyle stanno portando alla ribalta il tema della governance dell’IA, esprimendo preoccupazioni che vanno ben oltre i rischi tecnici. Le loro prospettive illuminano una necessità emergente: leader preparati e visionari che possano prendere decisioni strategiche in un contesto di sfide globali inedite.
Il panorama dell’intelligenza artificiale si appresta a entrare in una fase straordinaria di evoluzione, grazie alle imminenti generazioni di modelli avanzati. Le principali aziende tecnologiche stanno correndo per lanciare modelli sempre più sofisticati, ciascuno con caratteristiche uniche e applicazioni rivoluzionarie. Di seguito, uno sguardo alle novità annunciate da Meta, Google e OpenAI, che delineano l’orizzonte di sviluppo e le sfide legate all’intelligenza artificiale.
Anthropic, uno dei protagonisti più attivi nel campo dell’Intelligenza Artificiale (IA), ha recentemente sollecitato i governi di tutto il mondo ad adottare misure rapide e incisive per regolamentare i rischi potenzialmente catastrofici legati all’avanzamento dell’IA. Secondo l’azienda, il tempo per un’azione preventiva si sta rapidamente esaurendo, e ogni ritardo potrebbe compromettere seriamente la capacità dei governi di prevenire potenziali crisi legate a questa tecnologia.
L’azienda sottolinea che il ritmo dello sviluppo dell’IA è tale da giustificare questa urgenza. Circa un anno fa, Anthropic aveva avvisato che i modelli di IA di frontiera avrebbero potuto presentare rischi significativi nel campo della sicurezza informatica e delle minacce chimiche, biologiche, radiologiche e nucleari (CBRN) entro un periodo di 2-3 anni. Oggi, l’azienda avverte che siamo già molto più vicini a quel tipo di rischi di quanto si pensasse inizialmente.
AGBO Studios Accende il Futuro del Cinema con l’IA: Dominic Hughes Nominato Chief Scientific Officer
AGBO Studios, il nome dietro il capolavoro “Everything Everywhere All At Once” e fondato dai celebri fratelli Russo, sta tracciando nuovi orizzonti nel campo dell’intelligenza artificiale applicata al cinema con la nomina di Dominic Hughes come Chief Scientific Officer. Questa posizione, creata appositamente per Hughes, riflette la crescente integrazione tra creatività e tecnologia nel settore cinematografico, una direzione che AGBO Studios ha scelto per continuare a innovare nella narrazione visiva e interattiva.
Nvidia, il colosso dei semiconduttori e pioniere dell’intelligenza artificiale, sta per unirsi al prestigioso indice Dow Jones Industrial Average (DJIA), sostituendo lo storico concorrente Intel. La decisione, comunicata da S&P Dow Jones Indices, non solo segna un cambiamento epocale per la leggendaria misura di Wall Street, ma riflette anche un più ampio spostamento verso i settori tecnologici che guidano l’economia moderna. Oltre alla sostituzione di Intel con Nvidia, l’indice accoglierà anche Sherwin-Williams, leader nella produzione di vernici, al posto del colosso chimico Dow Inc.. Questo avvicendamento avverrà prima dell’apertura dei mercati l’8 novembre 2024.
Il colosso dell’intrattenimento Disney sta costituendo un nuovo dipartimento, denominato “Office of Technology Enablement”, con l’obiettivo di gestire le tecnologie emergenti come l’intelligenza artificiale e la realtà mista. A riferirlo è Reuters, che ha ottenuto la notizia da un’email interna inviata venerdì scorso.
Microsoft punta $10 miliardi su CoreWeave: Una Partnership Strategica per l’Intelligenza Artificiale
Microsoft sta per compiere una mossa strategica decisiva nel campo dell’intelligenza artificiale, investendo quasi 10 miliardi di dollari entro il 2030 per affittare server dalla startup CoreWeave, una società emergente focalizzata sull’AI con il supporto di Nvidia. La cifra, che supera di gran lunga le stime iniziali, rappresenta oltre la metà dei 17 miliardi di dollari in contratti complessivi di CoreWeave con i propri clienti, evidenziando quanto Microsoft sia disposta a puntare su questo nuovo partner per rafforzare la propria infrastruttura AI.
Nel panorama automobilistico elettrico, Lucid Air rappresenta una delle innovazioni più significative degli ultimi anni. Questo veicolo non è solo un’auto elettrica di lusso, ma un concentrato di tecnologia avanzata, design elegante e prestazioni di livello superiore, con una particolare attenzione all’autonomia. Infatti, una delle caratteristiche che distingue il Lucid Air è proprio la sua capacità di coprire fino a 520 miglia (circa 837 km) con una singola carica, un risultato che lo colloca ai vertici delle vetture elettriche in termini di efficienza energetica.
Netflix ha recentemente lanciato Moments, una nuova funzionalità mobile che promette di rivoluzionare la condivisione e l’interazione degli utenti con i contenuti. Moments consente agli abbonati di salvare, rivedere e condividere le loro scene preferite da film e serie Netflix direttamente sui social. La piattaforma ha reso disponibile Moments su iOS e, nelle prossime settimane, anche su Android, consolidando un ecosistema di interazione con il quale Netflix non punta solo a trattenere gli utenti, ma a trasformarli in promotori attivi della sua libreria.
A settembre, il tenente generale He Lei, ex vicedirettore dell’Accademia delle scienze militari (AMS), ha esortato le Nazioni Unite a stabilire restrizioni sull’uso dell’intelligenza artificiale (IA) in contesti bellici. Tuttavia, questo appello sembra nascondere un intento più profondo: la Repubblica Popolare Cinese (RPC) non sta cercando di limitare i rischi associati all’IA militare, ma piuttosto sta accelerando l’integrazione della tecnologia IA nelle proprie forze armate. La RPC sta attivamente sfruttando le tecnologie occidentali, come il modello open source Llama di Meta, per potenziare le proprie capacità militari e i vantaggi strategici.
L’atteso decreto in materia di cybersicurezza slitta, improvvisamente, alla seconda metà di novembre. Il provvedimento, così come previsto, affiderebbe la competenza investigativa sulla criminalità informatica alla Procura nazionale antimafia – che dipende dal Ministero della Giustizia – limitando, di fatto, le competenze dell’Agenzia per la cybersicurezza nazionale – che dipende invece dalla Presidenza del Consiglio. Formalmente il rinvio sarebbe dovuto alla necessità di “aggiustamenti” e di coinvolgere il Quirinale sul tema, anche se i più maliziosi voluto leggere, dietro alla vicenda, un possibile segnale di conflitto tra Carlo Nordio e Alfredo Mantovano sui poteri e le competenze dei rispettivi Ministeri, tant’è che, contrario all’attuale formulazione del decreto, sarebbe anche Bruno Frattasi, attuale direttore dell’ACN, l’Agenzia per la Cybersicurezza Nazionale.
Nel panorama tecnologico odierno, l’innovazione sta raggiungendo vette senza precedenti, e l’ultima frontiera è rappresentata dagli occhiali XRAI AR One. Questi occhiali intelligenti non sono solo un accessorio futuristico, ma un potente strumento che permette alle persone di vivere conversazioni in tempo reale attraverso la trascrizione automatica e la traduzione. Questa tecnologia è stata progettata per migliorare la comunicazione e l’accessibilità, trasformando radicalmente l’esperienza di interazione tra le persone.
Nel vasto panorama dell’intelligenza artificiale generativa, una nuova e ambiziosa startup emerge dalle ombre: Decart. Fondata in Israele e guidata da Dean Leitersdorf e Moshe Shalev, Decart ha rapidamente attirato l’attenzione di Sequoia Capital grazie al partner Shaun Maguire, noto per la sua stretta collaborazione con Elon Musk. Questo collegamento ha già portato Sequoia a partecipare nei round di finanziamento di SpaceX, X e xAI, il laboratorio di intelligenza artificiale di Musk. Ora Maguire punta sulla nascente Decart, con l’obiettivo di posizionarla come un potenziale concorrente per colossi come OpenAI e Midjourney.
“Più le nostre invenzioni diventano complesse, più dobbiamo pensare a quali dei nostri limiti esse compensino o amplifichino.”
– Marshall McLuhan, “The Gutenberg Galaxy”
L’evoluzione tecnologica, dalle grandi scoperte del XVII secolo fino all’era moderna, ha portato alla creazione di enti sempre più potenti, come Stati e imprese, che hanno acquisito la capacità di trasformare la condizione umana. Oggi, l’intelligenza artificiale rappresenta l’ultima incarnazione di un fenomeno che affonda le radici nella storia: l’esternalizzazione del controllo e della responsabilità, un processo che, se non viene monitorato, può portare a conseguenze imprevedibili.
Le elezioni presidenziali statunitensi sono fissate per il 5 novembre, con la serrata competizione tra la democratica Kamala Harris e il repubblicano Donald Trump che potrebbe rimanere indecisa per giorni. Mentre i voti vengono conteggiati, un vantaggio iniziale di un candidato potrebbe ridursi man mano che vengono scrutinati più voti. Nel 2020, alcuni stati hanno visto un “miraggio rosso” con Trump inizialmente in testa, seguito da un “cambio blu” quando Joe Biden lo ha superato, cosa che Trump ha usato per sostenere le sue false affermazioni di elezione rubata.
Negli ultimi anni, Silicon Valley ha assistito a un cambiamento significativo e inatteso nella sua scena politica interna, con un numero crescente di influenti figure tecnologiche che iniziano a gravitare verso posizioni più conservatrici e, in alcuni casi, verso Donald Trump. A capo di questo nuovo orientamento c’è Elon Musk, una delle figure più visibili e polarizzanti dell’industria tecnologica, che ha aperto la strada a una serie di dichiarazioni e azioni che sfidano la tradizionale inclinazione democratica della Valley. A un anno dalle elezioni presidenziali del 2024, il settore tecnologico appare politicamente più diviso che mai.