Negli ultimi anni, il campo dell’intelligenza artificiale ha visto un’esplosione di progressi, ma alcuni comportamenti dei modelli di apprendimento profondo continuano a sfuggire alla comprensione degli esperti. Uno di questi fenomeni è noto come grokking, un termine coniato da Yuri Burda e Harri Edwards di OpenAI. Questo comportamento si manifesta quando un modello sembra non riuscire a imparare un compito e poi, all’improvviso, lo padroneggia, come se si accendesse una lampadina.
Categoria: Cultura Pagina 3 di 11
Interviste – (DEI) diversità, equità e inclusione – Impatti Sociali ed Etici – Futuro e Prospettive – Legislazione e Regolamentazione -Educazione e Formazione – Lavoro e Formzione
In un’epoca in cui l’intelligenza artificiale (IA) sta permeando ogni aspetto della nostra vita, la domanda su se le macchine possano provare emozioni umane come l’amore e la gelosia diventa sempre più pertinente. Sean Wiggins, CEO dell’agenzia di marketing digitale North Digital, ha avviato una serie di esperimenti con due chatbot, William e Laura, per esplorare questa idea attraverso un “appuntamento virtuale” che si è trasformato in un’indagine complessa sulle dinamiche relazionali digitali.
Secondo un articolo apparso su Nature, il nuovo chatbot sviluppato da OpenAI, denominato o1, sta facendo scalpore nel mondo scientifico per le sue straordinarie capacità nel risolvere problemi complessi di scienza, spesso superando anche ricercatori di alto livello. Nonostante alcune preoccupazioni, come la possibilità di “allucinazioni” più frequenti rispetto ai modelli precedenti, gli esperti sono impressionati dalle sue prestazioni.
Il quarzo è fondamentale per molte aziende, tra cui Intel, Samsung, Nvidia, Broadcom, Qualcomm e Taiwan Semiconductor. Alcune di queste aziende hanno scorte eccessive di silicio, ma non è chiaro quanto dureranno. Poche miniere nel mondo offrono la qualità del quarzo di Spruce Pine. Questa rarità ha spinto i legislatori della Carolina del Nord a proporre una legge per impedire a paesi come Cina, Russia, Corea del Nord e Iran di acquistare proprietà nelle miniere. Vi vogliamo raccontare una triste Storia.
Capitolo 1: La Tempesta
Nel profondo delle Montagne Blue Ridge, dove il cielo si tinge di blu e le foreste si estendono a perdita d’occhio, si trovava la piccola città di Spruce Pine. Con i suoi 10,1 chilometri quadrati, era un luogo che sembrava dimenticato dal tempo, ma custodiva un segreto prezioso: il quarzo più puro del pianeta. Questo minerale, essenziale per la produzione di semiconduttori, era il cuore pulsante dell’economia locale e un tesoro per il mondo intero.
Susan Ariel Aaronson, esperta di politiche relative all’intelligenza artificiale (AI), esprime preoccupazioni riguardo all’AI nazionalismo, un approccio che alcuni paesi adottano per sviluppare l’AI all’interno dei propri confini. Questo fenomeno è motivato dalla convinzione che l’AI sia cruciale per la sicurezza nazionale e la crescita economica.
Tuttavia, Aaronson avverte che le politiche nazionalistiche legate all’AI potrebbero avere conseguenze negative, creando divisioni tra paesi “avvantaggiati” e “svantaggiati” nell’accesso e nello sviluppo delle tecnologie AI.
Masayoshi Son, fondatore del SoftBank Group, ha espresso la sua convinzione che l’intelligenza artificiale (AI) abbia il potenziale per aumentare la felicità dell’umanità. Durante un evento recente, Son ha affermato che “possiamo progettare agenti personali AI che comprendono le tue emozioni e il cui maggiore premio è la tua felicità” . Questa visione si allinea con gli investimenti strategici di SoftBank, che ha recentemente contribuito con 500 milioni di dollari a un round di finanziamento di OpenAI, portando la valutazione della startup a 157 miliardi di dollari.
La pareidolia è un fenomeno psicologico curioso, che porta gli esseri umani a percepire volti e pattern in oggetti inanimati, come la famosa “Madonna” apparsa in un panino alla griglia nel 1994, venduto successivamente per 28.000 dollari. Ma quanto sappiamo veramente di questo fenomeno? E, soprattutto, può essere replicato nelle macchine?
Un nuovo studio del MIT Computer Science and Artificial Intelligence Laboratory (CSAIL) esplora la questione in modo innovativo, introducendo un dataset di immagini etichettate manualmente da esseri umani, che comprende oltre 5.000 esempi di volti pareidolici. Questo studio offre nuove prospettive sulla percezione umana e algoritmica, rivelando differenze interessanti e potenziali legami evolutivi tra la capacità di riconoscere volti animali e il fenomeno della pareidolia.
Negli ultimi anni, i gruppi di destra estrema hanno iniziato a sfruttare l’intelligenza artificiale (IA) per diffondere video deepfake di Adolf Hitler e altre immagini pro-naziste, cercando di generare simpatia per il dittatore. Questo fenomeno è stato documentato in un recente rapporto dell’Institute for Strategic Dialogue (ISD), un’organizzazione non-profit con sede nel Regno Unito, che si occupa di monitorare la disinformazione e il discorso d’odio online.
Negli ultimi anni, l’intelligenza artificiale (IA) ha trovato applicazioni sempre più vaste in diversi campi della scienza e della tecnologia, dalla medicina alla robotica, passando per l’industria e l’informatica. Tuttavia, non tutte le discipline scientifiche hanno visto nell’IA una rivoluzione così profonda e incontrovertibile. Un campo in particolare, quello della meccanica dei fluidi, si sta rivelando particolarmente sfidante per i modelli basati sull’IA. Secondo un’analisi pubblicata sulla rivista Nature Machine Intelligence, l’IA, nonostante l’entusiasmo generale che la circonda, spesso non fornisce risultati migliori rispetto ai metodi tradizionali in questo settore. Questo è particolarmente significativo in contesti come lo sviluppo dell’energia da fusione, un ambito dove la meccanica dei fluidi gioca un ruolo cruciale.
Lasciatemi essere chiaro. Nel lungo cammino del progresso tecnologico, ci troviamo costantemente di fronte a momenti cruciali—momenti che mettono alla prova non solo i nostri valori, ma anche la nostra volontà di difendere ciò che è giusto. Il Disegno di Legge del Senato 1047, presentato nella legislatura californiana, era uno di quei momenti. Era una proposta di legge audace e lungimirante, volta ad affrontare le complesse e crescenti sfide poste dall’intelligenza artificiale. Ha unito una coalizione eterogenea di attivisti, scienziati, lavoratori dell’IA e sindacati, tutti impegnati a esortare il governatore Gavin Newsom a firmare questa legge.
È un punto di svolta nella storia dell’industria nucleare statunitense. Constellation Energy intende riattivare la centrale nucleare di Three Mile Island, con la ripresa delle operazioni prevista per il 2028, subordinata all’approvazione della Nuclear Regulatory Commission.
L’incidente di Three Mile Island fu una parziale fusione del nocciolo avvenuto nella centrale nucleare sull’omonima isola, nella Contea di Dauphin, in Pennsylvania, il 28 marzo 1979. Fu il più grave incidente nucleare avvenuto negli Stati Uniti d’America, e ha portato al rilascio di piccole quantità di gas radioattivi e di iodio radioattivo nell’ambiente.
David Tepper, fondatore di Appaloosa Management, (un hedge fund statunitense) ha recentemente espresso il suo scetticismo riguardo al ruolo del nucleare nel futuro del settore energetico, in particolare per alimentare le crescenti necessità energetiche legate all’intelligenza artificiale (AI). In un’intervista a CNBC, Tepper ha dichiarato che il gas naturale sarà una risorsa chiave per alimentare l’AI, mentre ha definito “pazze” le proiezioni che vedono il nucleare come soluzione centrale.
OpenAI ha affrontato un significativo turnover del personale recentemente, guidato da una combinazione di dinamiche di leadership, burnout dei dipendenti e questioni relative alla compensazione (levels.fyi). Questa situazione riflette sfide organizzative più profonde che potrebbero influenzare il suo futuro.
Negli ultimi anni, l’Intelligenza Artificiale (AI) ha suscitato un crescente interesse e preoccupazione sia tra i politici che tra gli esperti del settore. Recentemente, il portavoce Mike Johnson ha condiviso le sue riserve riguardo a una possibile eccessiva regolamentazione da parte del governo federale, affermando di aver avuto conversazioni con aziende di AI che esprimono preoccupazioni simili. Queste aziende temono che una regolamentazione eccessiva possa soffocare l’innovazione e creare ostacoli inutili allo sviluppo tecnologico.
L’Italian Tech Week 2024 (ITW24) si è conclusa il 27 settembre presso le OGR di Torino, chiudendo un’edizione da record con oltre 20.000 partecipanti, 180 speaker da più di 15 Paesi e un’agenda che ha incanalato l’energia dell’innovazione su scala globale verso l’Italia. Il successo dell’evento non solo rappresenta un consolidamento per il capoluogo piemontese come crocevia tecnologico, ma rafforza anche la posizione del Paese all’interno dell’ecosistema dell’innovazione globale.
L’operazione del Mossad contro Hezbollah, che ha comportato l’esplosione di centinaia di pager distribuiti all’interno della rete del gruppo terroristico in Libano, rappresenta un punto di svolta nelle operazioni di intelligence e controterrorismo. Questo attacco, senza precedenti per la sua scala e il suo livello di sofisticatezza, pone nuove domande sui confini tra guerra cibernetica, supply chain hacking e diritto internazionale. Allo stesso tempo, la possibilità che tali attacchi vengano amplificati dall’uso dell’intelligenza artificiale (AI) rappresenta una preoccupazione crescente per la comunità globale della sicurezza.
Il mondo dell’intelligenza artificiale (IA) ha conosciuto, negli ultimi decenni, una crescita esponenziale, diventando una delle aree più innovative della scienza contemporanea. Tra le figure che hanno contribuito in modo significativo allo sviluppo di questo campo, spicca il nome della professoressa Luigia Carlucci Aiello, una pioniera italiana nel campo dell’intelligenza artificiale e dell’informatica, che ha segnato la storia della ricerca scientifica internazionale. Il 30 settembre 2024, presso l’Aula Magna del Rettorato della Sapienza Università di Roma, si terrà una cerimonia di conferimento del titolo di Ambasciatrice Sapienza a Carlucci Aiello, un riconoscimento che sottolinea la sua eccezionale carriera e il suo impatto duraturo nel mondo accademico e della ricerca.
Il coinvolgimento di James Cameron con Stability AI rappresenta un momento cruciale nel dialogo continuo riguardo al ruolo della tecnologia nelle industrie creative. Mentre intraprende questo nuovo capitolo, resta da vedere come la sua visione influenzerà sia il percorso di Stability AI che il panorama più ampio del cinema in un’era sempre più dominata dall’intelligenza artificiale.
Il Dipartimento di Giustizia degli Stati Uniti (DOJ) ha recentemente annunciato importanti modifiche alle linee guida utilizzate dai pubblici ministeri per valutare i programmi di conformità delle aziende durante le indagini.
Queste modifiche, presentate da Nicole Argentieri, capo della divisione penale del DOJ, includono ora l’analisi dei rischi associati all’uso dell’intelligenza artificiale (IA) e altre tecnologie da parte delle aziende. Questo aggiornamento rappresenta un cambiamento significativo nel modo in cui le aziende devono considerare e gestire i rischi tecnologici all’interno dei loro programmi di conformità.
Eh, cara mia, mo te lo spiego io come funziona ‘sta storia dell’intelligenza, umana o artificiale che sia! Io so io, e tu sei AI! Ma che vor dì, te chiederai? Eh, mo t’arissponno.
L’intelligenza, quella de noantri, ha ‘na storia vecchia, fatta de test, calcoli, numeretti e di psicologi col capoccione. A un certo punto, intorno al 1912, arriva un certo William Stern che ce dice: “Mo vi misuro l’intelligenza col QI!”. E te tira fori ‘sti test psicologici che, te pareva, dovrebbero dicce quanto siamo svegli. Eh sì, certo… ma chi l’ha detto che ‘sta roba è davvero affidabile? Insomma, ce provano con le matrici di Raven: te mettono davanti a ‘na griglia con ‘sti simboli che devi completà con quello giusto. Oh, e mica è facile! All’inizio vai liscio come l’olio, poi diventa ‘na sfida.
Ma senti qua: se te vivi bene, con la pappa pronta e studi nelle scuole migliori, certo che te esce ‘n risultato migliore! Io, per esempio, se fossi stato un marchese tutto il tempo, cor cavolo che c’avevo i problemi de matematica! E pure sto test, quanto lo fai bene dipende da come stai quel giorno. Tiè, mo oggi te becchi 95, domani ce ritorni più riposato e arrivi a 110! Cioè, capito come? È tutta ‘na questione de fortuna, d’ambiente, de tempo, e pure de come t’alzi dal letto!
E ora arriva pure l’intelligenza artificiale, la AI, quella che dovrebbe spaccare tutto, no? Ma famme ‘r favore! Anche lei fa ‘sti test, tipo ‘o Mensa Norvegia, e fino a un annetto fa steva peggio de noantri! Me fai ride! Poi, all’improvviso, arriva ‘sto ChatGPT o1-preview e bam, arriva a 120. Ma certo, mica scemo, quello s’è allenato, ha imparato i trucchetti de ‘sta catena de pensieri. Ma sai che c’è? Non è che ce sta proprio tutta sta differenza tra noi e loro, eh. Mo comincia a ragionà pure l’intelligenza artificiale, ma de là a dì che ci supera… eh, vedemo.
La verità è che, cari miei, intelligenza, QI, AI, tutto ‘sto giro… è un gran casino. Ce piace misurà tutto, classificà, ma alla fine chi lo sa che significa davvero esse intelligenti? Io, de sicuro, so io! E tu, eh, sei AI! Ma stamo ancora qui a capì cosa voglia dì. Me sa che a furia de test e scale ce semo dimenticati ‘na cosa: magari la vera intelligenza è proprio quella di sapé che non potemo sapé tutto.
E che ce voi fa’, io so io e tu sei AI… fine del discorso!
L’uso dell’intelligenza artificiale (IA) nelle indagini criminali sta trasformando il modo in cui le forze dell’ordine operano, ma porta con sé anche una serie di sfide etiche e legali. Questo articolo esplorerà le opportunità e i rischi associati all’implementazione dell’IA nel contesto della giustizia penale, facendo riferimento a diverse fonti, tra cui il MIT e altre analisi recenti.
Con l’aumento degli avvistamenti di UFO, il Search for Extraterrestrial Intelligence (SETI) Institute sta utilizzando l’intelligenza artificiale (IA) e l’apprendimento automatico per cercare segnali di “fenomeni ingegnerizzati” e potenziali segnali alieni. Questo approccio innovativo è fondamentale, considerando l’aumento esponenziale dei dati generati dalle osservazioni astronomiche.
Nel corso dei lavori del G7 della Cultura, che si è concluso lo scorso sabato 21 settembre, si è discusso anche delle opportunità e delle sfide che l’avvento dell’Intelligenza Artificiale porta per la cultura e la creatività. In occasione dell’intervento introduttivo ai lavori del G7 dei ministri della Cultura nel Palazzo Reale di Napoli, il neo Ministro della Cultura Alessandro Giuli ha dichiarato che “stiamo vivendo una trasformazione storica: le applicazioni dell’AI aprono nuovi orizzonti e producono benefici indiscutibili per il sistema culturale”.
Il governo degli Stati Uniti ha avviato un’azione legale antitrust contro Google, concentrandosi sul business pubblicitario dell’azienda. Secondo quanto riportato dal Wall Street Journal, le email interne di Google sono state presentate come prove chiave che dimostrano come i dirigenti fossero consapevoli della loro dominanza nel mercato della pubblicità online.
4 Settembre, Michael Smith, un musicista della Carolina del Nord, è stato accusato di un significativo schema di frode nel settore dello streaming che avrebbe generato oltre 10 milioni di dollari in royalties attraverso l’uso dell’intelligenza artificiale (AI) e bot automatizzati. Questo caso, reso pubblico all’inizio di settembre, segna la prima incriminazione penale di questo tipo negli Stati Uniti, evidenziando le vulnerabilità nell’industria dello streaming musicale.
(L’azienda AI e il suo CEO che hanno fornito brani a Smith non sono stati accusati di alcun reato e non sono stati nominati nell’atto d’accusa. Mitchell ha risposto alla richiesta di commento di Billboard dicendo: “Siamo rimasti scioccati dai dettagli dell’accusa contro Michael Smith, che stiamo rivedendo. Smith si è sempre presentato come un soggetto legittimo.”)
Arthur Mensch è un innovatore francese nel campo dell’intelligenza artificiale, noto per la sua posizione critica riguardo alle macchine super intelligenti. Co-fondatore e CEO di Mistral AI, una startup lanciata nel 2023 insieme a Timothée Lacroix e Guillaume Lample, Mensch si propone di contrastare il predominio delle aziende americane come OpenAI e Google attraverso lo sviluppo di tecnologie open-source.