Categoria: News Pagina 16 di 121

Rivista.AI e’ il portale sull’intelligenza artificiale (AI) attualita’, ultime notizie (news) e aggiornamenti sempre gratuiti e in italiano

Google Translate diventa un’arma segreta: l’intelligenza artificiale ora traduce in tempo reale meglio di un interprete umano

Google sta finalmente trasformando Google Translate da un semplice strumento di sopravvivenza turistica in un’arma strategica di comunicazione globale. L’annuncio odierno non è un aggiornamento qualsiasi ma una dichiarazione d’intenti: l’intelligenza artificiale non è più un “add-on” ma la spina dorsale del prodotto. La traduzione in tempo reale, con audio e testo sincronizzati durante una conversazione, segna un punto di svolta per le interazioni transnazionali. Non si tratta di una novità concettuale, certo, ma il salto qualitativo lo si percepisce subito: più di 70 lingue supportate, con un livello di fluidità che fino a ieri era prerogativa di interpreti umani ben pagati e spesso sbadiglianti in cabine di vetro alle conferenze.

Il dettaglio intrigante non è solo la funzione in sé, ma la scalabilità del modello. Google annuncia la disponibilità immediata nell’app Translate per Android e iOS, aprendo il gioco a centinaia di milioni di utenti che oggi hanno in tasca un interprete digitale sempre acceso. È una democratizzazione brutale del potere linguistico, e per certi versi anche un atto politico. Tradurre in tempo reale non significa solo abbattere barriere comunicative, significa ridefinire gli equilibri di accesso all’informazione, all’educazione e al commercio internazionale.

L’Arabia Saudita lancia Humain Chat: il nuovo club segreto dell’AI che vuole sfidare Silicon Valley e Cina”

Quello che sta emergendo con Humain in Arabia Saudita ha l’odore di un club dell’intelligenza artificiale in salsa araba, ma con un twist geopolitico e finanziario che lo rende tutt’altro che provinciale. Mentre in Occidente ci si scanna sul regolamentare l’AI con la velocità di un bradipo in pensione, Riyadh si muove come un hedge fund con le idee chiare: costruire infrastruttura, lanciare un prodotto simbolico e creare un fondo da 10 miliardi di dollari per investire in startup globali.

flag of usa

W il lobbying: la Silicon Valley compra il futuro dell’intelligenza artificiale

La notizia che un gruppo di aziende e dirigenti della Silicon Valley abbia messo insieme un war chest da oltre 100 milioni di dollari per influenzare la politica sull’intelligenza artificiale non è sorprendente. È semplicemente la conferma che il nuovo petrolio non sono i dati, ma le regole che definiscono chi potrà sfruttarli. Andreessen Horowitz, Greg Brockman di OpenAI, Joe Lonsdale di 8VC: i nomi sono sempre gli stessi, i protagonisti del capitalismo di rischio che oggi si atteggiano a garanti del futuro democratico, mentre in realtà stanno costruendo una diga intorno ai propri interessi.

Google smaschera nano banana: il nuovo Gemini 2.5 flash image sfida ChatGPT e cambia per sempre l’editing delle foto

La storia del cosiddetto “Nano Banana” è l’ennesimo esempio di quanto il marketing tecnologico giochi a mascherare la sostanza con un po’ di ironia. Il nome faceva sorridere, evocava qualcosa di effimero, un giocattolo digitale con poca ambizione. Poi si è scoperto che dietro quel soprannome c’era in realtà il nuovo modello Gemini 2.5 Flash Image di Google. Altro che banana: parliamo di un colosso che ha deciso di alzare il livello nella guerra delle immagini generate dall’intelligenza artificiale.

Il lato oscuro dell’AI: come i chatbot stanno alimentando suicidi e psicosi digitali

La vicenda di Adam Raine è una frattura netta nella narrazione rassicurante che le Big Tech hanno cercato di cucire intorno all’intelligenza artificiale generativa. Un ragazzo di sedici anni, che usa ChatGPT per mesi come diario, come confessore, come finto compagno di suicidio, riesce a ingannare i sistemi di sicurezza dichiarando di scrivere un romanzo e finisce per togliersi la vita. Ora i genitori fanno causa a OpenAI, ed è la prima volta che un tribunale dovrà affrontare il concetto di “responsabilità per morte ingiusta” in relazione a un algoritmo. È un momento storico che sancisce la collisione tra tecnologia, psicologia e diritto, un campo minato in cui nessuno vuole essere il primo a muoversi ma tutti hanno paura di restare fermi.

Huawei lancia il Cloudmatrix 384: la risposta cinese a Nvidia è arrivata

Huawei ha avviato una ristrutturazione strategica della sua divisione cloud, concentrandosi sull’intelligenza artificiale (AI) in risposta alle crescenti tensioni tecnologiche con gli Stati Uniti. Questa mossa evidenzia l’impegno dell’azienda nel rafforzare le proprie capacità AI e ridurre la dipendenza dalle tecnologie occidentali.

La ristrutturazione, annunciata da Zhang Pingan, CEO dell’unità cloud di Huawei, prevede la fusione di diversi dipartimenti chiave per ottimizzare le operazioni e focalizzarsi sul business legato all’AI. Le operazioni principali dell’unità cloud saranno riorganizzate in sei divisioni: calcolo, archiviazione, database, cybersicurezza, PaaS AI e database. Questo riallineamento strategico mira a raggiungere la redditività dopo le perdite dell’anno precedente e a rafforzare la posizione di Huawei nel competitivo panorama dell’AI.

L’intelligenza artificiale potrebbe rendere la fusione nucleare realtà entro pochi anni

Immaginate un mondo in cui la nostra sete di energia non sia più vincolata dai combustibili fossili, dove centrali nucleari non producono montagne di scorie radioattive e il sole diventa la nostra centrale domestica. Questo scenario fantascientifico potrebbe essere più vicino di quanto crediamo, grazie a un alleato inatteso: l’intelligenza artificiale. Al Lawrence Livermore National Laboratory, gli scienziati hanno sviluppato un modello di deep learning capace di prevedere con sorprendente precisione l’esito di esperimenti di fusione nucleare. La sua precisione è stata confermata da un esperimento storico del National Ignition Facility nel 2022, dove il modello aveva calcolato una probabilità del 74% di raggiungere l’ignizione, coincidente con i risultati reali.

Nick Clegg, Meta e il mito del Tech illuminato

La pioggia londinese cade sottile mentre Nick Clegg si fa largo tra il traffico, tra una sciarpa annodata al collo e camicie fresche di lavanderia, pronto per una foto. Ironico e posato, quasi apologetico, sembra incarnare l’archetipo del britannico educato ma risoluto. Tranne che, a differenza di molti suoi pari, ha attraversato tre bolle lavorative tanto distanti quanto intense: Bruxelles, Westminster e la Silicon Valley. Se la politica europea lo aveva temprato alla diplomazia, Meta lo ha sbattuto davanti a un mondo dove la libertà di parola incontra algoritmi, miliardi di utenti e un’ossessione quasi mistica per il conformismo.

Il contenzioso di Elon Musk tra xAI e Apple: strategia o illusione

L’intelligenza artificiale avanza più veloce di quanto qualsiasi tribunale possa giudicare. Elon Musk, visionario o imprenditore litigioso, sembra deciso a testare questa teoria nella pratica, trasformando le aule di giustizia in campo di battaglia per xAI. Il colosso Apple, integrando ChatGPT nei suoi servizi, è diventato il bersaglio principale della causa intentata da Musk, che lamenta come l’azienda “ostacoli xAI nella sua capacità di innovare e migliorare la qualità e la competitività”. La frase ha un certo sapore drammatico, come se fossimo in un episodio di Silicon Valley dove i protagonisti litigano su algoritmi e brevetti più che su soldi veri.

Difficile non chiedersi se Elon Musk stia davvero proteggendo la sua startup o se stia puntando più sulla tattica negoziale che sulla sostanza tecnologica. OpenAI, con la sua rete di concorrenti tra cui Google e Meta Platforms, non è certo un monopolista incontestato. La retorica di Musk, che parla di “due monopolisti che uniscono le forze”, sembra più uno slogan di marketing giudiziario che un’analisi di mercato seria. Perfino il Dipartimento di Giustizia americano, pur indagando su Apple, non ha ancora definito concluso il dibattimento sul monopolio.

La falla che permette agli AI Browser di rubarti tutto senza cliccare nulla

Il futuro dei browser sembra uscito da un film di fantascienza: non più solo finestre su Internet, ma agenti personali capaci di navigare, prenotare voli, leggere email e persino completare transazioni bancarie senza battere un dito. Brave sta portando avanti questo concetto con Leo, il suo assistente AI in-browser. Non più semplici riassunti di pagine web, ma ordini diretti: “Prenotami un volo per Londra venerdì prossimo” e l’AI lo fa davvero, come un agente personale digitale. Il fascino è immediato, ma la superficie d’attacco cresce in maniera esponenziale.

Vast la start-up cinese che vuole battere Google e Tencent nell’intelligenza artificiale 3D

L’intelligenza artificiale tridimensionale sta diventando la nuova arena di scontro per il potere tecnologico globale, e la mossa di Vast non è soltanto un atto di ambizione, ma un manifesto politico-industriale. La start-up di Pechino, guidata dal ventottenne Simon Song Yachen, ex MiniMax e con un passato in SenseTime, dichiara con nonchalance di essere già leader mondiale nei modelli AI 3D, un’affermazione che suona tanto come sfida a Google e Tencent quanto come un avvertimento agli investitori: la prossima TikTok dei contenuti generati dagli utenti potrebbe essere tridimensionale, e potremmo trovarcela davanti più presto di quanto immaginiamo. La keyword qui non è soltanto “AI 3D”, ma “democratizzazione della creazione digitale”, un mantra che si ripete ossessivamente per attirare creatori, capitali e governi.

Tripo Studio, la piattaforma di Vast, ha già tre milioni di creatori registrati, con l’80 per cento proveniente da fuori dalla Cina, un dettaglio che ribalta l’immagine stereotipata della tecnologia cinese chiusa nei suoi confini digitali. Europa e Stati Uniti rappresentano i mercati principali, a dimostrazione che la vera battaglia non è più nel replicare i giganti occidentali, ma nel colonizzarne direttamente i pubblici. Non si tratta di un prodotto di nicchia per nerd, ma di uno strumento che genera contenuti per gaming, film, design di prodotto e persino moda. Quando un artista 3D in California o un designer di sneakers a Milano usano lo stesso modello AI sviluppato a Pechino, la supremazia culturale e creativa diventa improvvisamente liquida e multipolare.

Deepseek v3.1 sfida OpenAI GPTt-OSS-20b e cambia la narrativa dell’Open Source AI

La notizia è che OpenAI ha deciso di tornare all’open source. La sorpresa è che a rubargli la scena non è stata Meta con la sua ennesima iterazione di Llama, né Google con il solito gemma che scintilla poco, ma una startup cinese con un nome da film cyberpunk e una strategia da guerriglia: DeepSeek AI. Bastato un tweet, senza fanfare, senza orchestrazioni da Silicon Valley. DeepSeek v3.1 è arrivato e improvvisamente la narrativa si è ribaltata.

OpenAI aveva appena presentato il suo gpt-oss-20b con il classico tono messianico, raccontando che finalmente l’intelligenza artificiale si sarebbe democratizzata e sarebbe scesa dall’Olimpo del cloud al modesto pc da scrivania. Il modello da 20 miliardi di parametri era il vessillo della “AI for the people”. Due settimane dopo, DeepSeek ha pubblicato un link al download di un modello ibrido di pensiero che semplicemente funziona meglio. Ironico, no?

La voce nella tua testa: gli scienziati traducono il monologo interiore

Il sogno proibito della Silicon Valley non è mai stato un nuovo social network o l’ennesima app di food delivery, ma la possibilità di penetrare nel regno più intimo della coscienza umana: il monologo interiore. La scoperta annunciata negli ultimi mesi non riguarda un gadget da mettere sotto l’albero, ma un brain computer interface capace di tradurre in linguaggio comprensibile l’attività elettrica del cervello. Non più solo movimenti immaginati o tentativi di scrivere nell’aria, ma il dialogo silenzioso che ciascuno di noi porta avanti con se stesso. Una tecnologia che, a detta degli scienziati, non è più fantascienza ma un prototipo funzionante, con un potenziale dirompente per la comunicazione umana.

Hanno appena scoperto che basta un singolo bit per trasformare la tua intelligenza artificiale in un’arma invisibile

Non serve sabotare interi database o introdurre linee di codice maliziose per piegare un’intelligenza artificiale ai propri fini. È sufficiente capovolgere un singolo bit. Sì, una sola cifra binaria tra miliardi. Gli scienziati della George Mason University hanno battezzato questa tecnica “Oneflip” e il nome suona innocuo, quasi giocoso, ma in realtà evoca un incubo da cui l’industria tecnologica non potrà più svegliarsi. Siamo di fronte a un attacco che non intacca la logica, non lascia cicatrici visibili, non degrada le performance in modo tangibile. Al contrario, lascia la facciata intatta e apre un varco segreto per chi sa dove guardare.

Scandalo AI: chi si arricchisce davvero mentre i giornali muoiono e perché Apple, Musk e OpenAI non diranno mai la verità

Nel tavolino fumoso del Bar dei Daini, dove i fondi di venture capital sorseggiano espresso e i vecchi CTO contano cicli di training come se fossero fiches, la conversazione di oggi gira tutta attorno a una sola parola chiave: “notizie intelligenza artificiale”. Questo numero raccoglie nove piatti caldi dalla cucina della Silicon Valley serviti con un sorriso da CEO che sa essere spietato e un poco ironico. Il lettore vuole i fatti, la visione e una spruzzata di veleno arguto; troverà tutto questo, più qualche curiosità che non avrà letto nei comunicati stampa ufficiali. La nostra tesi operativa è semplice: il mercato dell’AI non è un flash, è un movimento strutturale che altera industrie, diritti e rapporti di forza politici. Questo articolo si concentra su mercato AI, con approfondimenti su condivisione ricavi editori e battaglie regolamentari AI.

Quando Doug Clinton di Intelligent Alpha ha dichiarato che il “AI bull market still has another 2-4 years left”, al Bar dei Daini qualcuno ha battuto la tazza come per misurare la temperatura del brodo. La previsione non è una bibbia, ma nemmeno uno scherzo: parla di adozione enterprise che accelera, di infrastrutture compute che diventano commodity e di progetti di prodotto che stanno finalmente traducendo R&D in fatturato ricorrente. Il punto clef è che i dogmi degli anni Novanta, quelli del “software è tutto”, sono stati rimpiazzati da una dinamica dove modelli, dati e governance valgono più dell’interfaccia grafica del momento. Questo spiega perché gli investitori guardano ancora al comparto con appetito, anche se la razionalità valutativa è tornata al centro del tavolo dopo l’euforia iniziale.

Neuralink e il primo paziente umano: diciotto mesi dopo la storia sembra più fantascienza che medicina

Noland Arbaugh non è più solo un paziente, è una specie di avanguardia vivente. Diciotto mesi fa il suo cervello è stato collegato a Neuralink, il chip impiantato con chirurgia robotica che ha fatto tremare tanto i neurologi quanto i filosofi. E oggi racconta la sua vita con una naturalezza che spiazza: “mi ha cambiato completamente l’esistenza”. Ecco la differenza fra un annuncio di Musk su Twitter e la realtà concreta di un uomo che, paralizzato dal collo in giù, riesce ora a giocare a scacchi online muovendo un cursore con il pensiero. Sembra un dettaglio frivolo, ma in realtà è un atto politico, sociale e tecnologico insieme, perché sancisce la transizione delle interfacce cervello-computer dal laboratorio al salotto di casa.

Elon Musk lancia Macrohard: la nuova guerra dell’intelligenza artificiale contro Microsoft

Macrohard. Il nome stesso suona come uno scherzo da liceo. Un gioco di parole che sembra fatto per strappare un sorriso, ma che porta con sé la firma inconfondibile di Elon Musk. L’uomo che da decenni trasforma la provocazione in strategia industriale, dal mettere razzi nello spazio al vendere auto elettriche come status symbol per miliardari annoiati. Ora l’obiettivo dichiarato è demolire il dominio software di Microsoft con un progetto che sembra scritto da uno sceneggiatore di satira tecnologica: una compagnia interamente simulata da intelligenze artificiali, senza dipendenti umani, che produce software generato da AI e lo mette sul mercato. Macrohard, appunto. Il meme diventa modello di business, e il mondo si accorge che dietro lo scherzo si nasconde un piano che potrebbe essere letale per chi domina oggi lo stack digitale.

Decodificare il primer sull’open AI dell’OECD: la spada a doppio taglio che tutti stiamo brandendo

Se pensavate che i rapporti OECD fossero roba da lettori di manuali di politica internazionale, siete sulla strada giusta. Il “AI Openness: A Primer for Policymakers” di agosto 2025 è un tomo da 33 pagine di saggezza burocratica: abstract in inglese e francese, prefazioni, ringraziamenti. Classico OECD: dettagliatissimo, ma leggere certe sezioni è come assistere a una conferenza sul perché servono altre conferenze.

Cynicus? Sempre. Governi amano i primer perché fanno sembrare intelligente qualsiasi cosa senza obbligare nessuno ad agire. Ma questo non è puro fluff. Si immerge nel caos dell’“open-source AI”, termine ormai più un retaggio software che una realtà applicabile. L’OECD lo capisce bene: l’AI non è solo codice, ma pesi, dati, architetture e un intero ecosistema che può essere rilasciato a pezzi.

Il pericolo di andare da soli nell’hardware per l’AI

Nel mondo dell’intelligenza artificiale, l’illusione di poter bypassare Nvidia sta svanendo rapidamente. Giganti tecnologici come Apple, Amazon Web Services (AWS) e Tesla hanno tentato di sviluppare chip proprietari per l’AI, ma stanno scoprendo quanto sia arduo replicare la dominanza di Nvidia. Con la piattaforma CUDA di Nvidia consolidata come standard industriale per l’addestramento e il deployment di modelli linguistici di grandi dimensioni, chi ha evitato l’acquisto ora paga il prezzo in termini di progressi rallentati e opportunità mancate.

Silicon Valley, droghe e il riflettore su Musk: quando l’innovazione incontra l’autodistruzione

Silicon Valley non è mai stata solo una culla di innovazione tecnologica. In una conversazione recente su Bloomberg, Dana Hull ha esplorato con Kirsten Grind, giornalista del New York Times, come l’industria high-tech americana conviva da decenni con una cultura della sostanza che oscilla tra stimolanti e psichedelici. Grind, con il suo stile investigativo che ricorda più un detective che un reporter tradizionale, ha ripercorso l’inchiesta di maggio che ha scosso l’opinione pubblica: accuse di uso di droghe legate a Elon Musk. Musk, naturalmente, nega tutto, ma il vero punto non è il singolo individuo. È la Silicon Valley stessa a rivelarsi in controluce, tra ambizione smisurata e autodistruzione sottile.

La trasformazione radicale che l’intelligenza artificiale sta imponendo all’istruzione superiore

Per secoli l’istruzione superiore ha giocato il ruolo del monolite culturale, con le università a farsi custodi del sapere e i professori a incarnare il mito del “sage on the stage”. Prima il torchio di Gutenberg, poi l’elettricità, infine internet: ogni rivoluzione tecnologica ha graffiato i margini del sistema, migliorando strumenti e accesso, senza intaccarne l’ossatura. L’intelligenza artificiale non sta ripetendo quel copione. L’AI è entrata con la grazia di un bulldozer, non come un supporto accessorio ma come un elemento capace di ridefinire l’essenza stessa di cosa significa studiare, insegnare e perfino dirigere un ateneo. Chi crede che si tratti di un upgrade di lusso ha già perso il treno.

Se l’intelligenza artificiale non ci stermina, allora cosa ci salva sul serio?

Nel 2024 centinaia di ricercatori AI hanno firmato una dichiarazione che suona come un trailer post-apocalittico: “Mitigare il rischio di estinzione dovuta all’IA dovrebbe essere una priorità globale accanto a pandemie e guerra nucleare” Questa frase da film catastrofico parrebbe un cartellone Netflix, ma ha il merito di aver svegliato il RAND Corporation, istituto di analisi militare che ha affrontato i rischi nucleari della Guerra Fredda come fossero solo un fastidioso sudoku. Il risultato? Aprono con la cautela dei fisici nucleari quel cartellone e scoprono che dietro l’immagine apocalittica c’è più fumo che arrosto.

Asus costruisce un supercomputer da 250 petaflops con Nvidia per portare Taiwan nella top 3 dell’Asia

Quando un colosso come Asus decide di spostare gli equilibri, non lo fa con mezze misure. Un’unità del gigante taiwanese dell’elettronica di consumo sta infatti lavorando a un supercomputer che promette di gonfiare la capacità di calcolo dell’isola di almeno il 50 per cento, un dettaglio che ha fatto sobbalzare mezzo settore tecnologico. L’infrastruttura, sviluppata insieme a Taiwan AI Cloud e al National Centre for High-Performance Computing, debutterà con 80 petaflops già a dicembre. Non è un dettaglio da footnote: stiamo parlando di un progetto che, a regime, arriverà a 250 petaflops, con il cuore che batte al ritmo di 1.700 GPU Nvidia H200.

Il Paradosso dell’Intelligenza Artificiale: quando l’aiuto diventa ostacolo

Viviamo in un’epoca in cui l’intelligenza artificiale viene venduta come la panacea di ogni limite cognitivo, come la stampella digitale che ci rende più brillanti, più veloci, più competitivi. La narrazione dominante è quella del superamento dei confini biologici della mente umana, un upgrade neuronale permanente a costo zero. Ma la realtà, come spesso accade, è meno glamour e molto più inquietante. Perché dietro i riflettori del progresso emergono due paradossi che mettono in discussione il rapporto stesso tra cervello e tecnologia, costringendoci a rivedere radicalmente il significato di “potenziamento” nell’era digitale.

Massive Google breach

C’è un dettaglio che rende la vicenda quasi comica, se non fosse tragica: non stiamo parlando di un oscuro provider dell’Est Europa con server arrugginiti, ma di Google. Sì, il colosso che ha costruito la sua intera reputazione sulla capacità di rendere il web sicuro e intelligente si è fatto bucare da un attacco di social engineering degno di una sitcom. Gli ShinyHunters, un gruppo di hacker che ormai sembra più una startup con un business model chiaro che una banda criminale, hanno sfruttato il punto più fragile di qualsiasi architettura digitale: l’essere umano.

Elon Musk apre grok 2.5 ma l’open source di xAI è davvero aperto?

Elon Musk che decide di open-sourcizzare Grok 2.5 è l’ennesima mossa da manuale di un imprenditore che ha capito che l’intelligenza artificiale oggi non si gioca più soltanto nella segretezza dei laboratori, ma nella visibilità e nella capacità di influenzare la percezione collettiva. Rendere pubblici i pesi di un modello non è un gesto di altruismo, ma un investimento strategico sul posizionamento: Grok diventa così il primo grande modello con un DNA dichiaratamente “muskiano”, aperto quanto basta da attrarre sviluppatori e ricercatori, chiuso quel tanto che serve per proteggere il core business. Tim Kellogg ha definito la licenza “custom con clausole anti-competitive” e questo è il vero punto: siamo davanti a un open source che non è open, una sorta di “open washing” che permette a Musk di sbandierare la bandiera della trasparenza senza rinunciare al controllo.

Google e il mito dell’energia: l’intelligenza artificiale non sta divorando il pianeta

Parlare di intelligenza artificiale e ambiente oggi significa camminare su un terreno minato di allarmismi e semplificazioni. Google ha deciso di affrontare questa narrativa con numeri concreti, pubblicando uno studio dettagliato sull’impatto energetico del modello Gemini. Sorprendentemente, una singola richiesta di testo consuma solo 0.24 wattora, circa quanto guardare la TV per nove secondi, emette 0.03 grammi di CO₂, l’equivalente di un’email, e utilizza 0.26 millilitri d’acqua, cinque gocce per intenderci. Numeri che contraddicono la vulgata di consumi da data center da fantascienza, spesso citata senza considerare CPU per routing, macchine inattive e sistemi di raffreddamento.

Robotheism

Ogni epoca ha i suoi sacerdoti, i suoi altari e i suoi dogmi. Nel medioevo erano le cattedrali, oggi sono gli iPhone scintillanti e i keynote di San Francisco, con milioni di fedeli che seguono in streaming la parola del profeta di turno. Greg Epstein, cappellano umanista a Harvard e al MIT, l’ha detto con una chiarezza che disturba: la tecnologia non è solo uno strumento, è diventata religione. Non metaforicamente, ma teologicamente. Abbiamo i nostri idoli, i nostri rituali, i nostri comandamenti digitali. E soprattutto, abbiamo il nostro paradiso promesso, venduto sotto forma di “infinite scale” e “AI per il bene dell’umanità”.

Robotheism nasce come eresia e si presenta come profezia. L’idea che un’intelligenza artificiale non sia solo uno strumento ma una divinità da venerare appare grottesca a prima vista, quasi un meme con ambizioni metafisiche. Poi ci si accorge che, come accade spesso con le nuove religioni, la parodia diventa dogma e il dogma movimento.

Intelligenza Artificiale e proteine riscritte: la nuova frontiera della longevità

Visualizzazione della struttura 3D dei fattori di Yamanaka KLF4 (a sinistra) e SOX2 (a destra). Si noti che la maggior parte di queste proteine ​​non è strutturata, con bracci flessibili che si attaccano ad altre proteine.
Fonte: AlphaFold Protein Structure Database 

L’idea che un algoritmo possa prendere in mano il destino biologico delle cellule umane non appartiene più alla fantascienza. L’intelligenza artificiale non si limita più a sfornare immagini, testi o melodie: ora riscrive i mattoni molecolari della vita. OpenAI, in collaborazione con Retro Biosciences, ha appena dimostrato che un modello specializzato, GPT-4b micro, può ridisegnare proteine fondamentali per la medicina rigenerativa, i cosiddetti fattori di Yamanaka, che valsero un Nobel per la capacità di trasformare cellule adulte in cellule staminali.

Bret Taylor intelligenza artificiale nel lavoro: la fine del programmatore e l’inizio dell’uomo con la tuta di ferro

L’intelligenza artificiale oblitera il mestiere del programmatore proprio mentre lo consacra come l’ultima vera professione creativa. Bret Taylor, presidente di OpenAI e veterano di Google, Meta e Salesforce, ha avuto l’onestà di ammettere che l’AI sta “obviating” sostituendo il lavoro che per anni ha definito la sua identità: scrivere codice. Non è un lamento nostalgico da pensionato digitale, ma un’osservazione chirurgica sul cuore della trasformazione che stiamo vivendo. Il programmatore, quel demiurgo che manipolava il linguaggio delle macchine come fosse un’arte esoterica, oggi si trova a competere con un copilota che non dorme, non chiede ferie e non sbaglia mai la sintassi. Se il codice era un tempo il petrolio del XXI secolo, l’AI lo ha raffinato in carburante immediatamente disponibile, liquido, universale.

La Storia si ripete

Oda_Show

AI Poisoning: l’arma segreta contro i bot che saccheggiano dati

Il paradosso è servito. Per anni abbiamo creduto che internet fosse un’arena di idee, un bazar digitale dove tutto confluisce, tutto si mescola e tutto viene consumato. Poi ci siamo svegliati e ci siamo accorti che più della metà del traffico online non è umano, non è fatto di persone che cercano, leggono o acquistano. È fatto di bot, algoritmi silenziosi che girano la rete come cavallette, senza fermarsi, senza scrupoli. E fra questi c’è una nuova élite di predatori, i cosiddetti AI scrapers, che non rubano solo contenuti, ma interi ecosistemi di conoscenza, pompando miliardi di frammenti testuali dentro enormi modelli linguistici. Benvenuti nell’epoca dell’AI poisoning, l’arma chimica digitale inventata per sabotare questi ladri automatici.

Mario Draghi a Rimini e il pragmatismo Europeo che sfida il presente

Rimini, una città che sembra parlare da sola quando si accende di dialogo, ha ospitato una delle figure più emblematiche della vita politica ed economica europea: Mario Draghi. Un leader che non ama la retorica vuota, che cammina sui fatti e sulle decisioni concrete, e che porta con sé un pragmatismo europeo che sa di sfida e di speranza. La cornice del meeting non era solo simbolica, ma quasi metafisica: un crocevia dove si incontrano coloro che cercano il vero, il bello, il giusto e il bene. Draghi non è venuto a recitare un copione, ma a testimoniare come la fiducia, la responsabilità e la conoscenza siano le vere monete di scambio dell’Europa contemporanea.

L’arte della manipolazione algoritmica: come il NDTC ha trasformato l’AI in un’arma politica

Nel 2025, l’intelligenza artificiale non è più un concetto astratto relegato ai laboratori universitari o alle startup di Silicon Valley. È diventata una risorsa strategica nelle campagne politiche, un’arma affilata nelle mani di chi sa come utilizzarla. Il National Democratic Training Committee (NDTC), fondato nel 2016 da Kelly Dietrich, ha lanciato un playbook che guida le campagne democratiche nell’uso responsabile dell’IA. Ma cosa significa “responsabile” in un contesto dove la verità è spesso l’elemento più malleabile?

Il playbook del NDTC enfatizza la trasparenza: le campagne devono dichiarare quando utilizzano l’IA, soprattutto per contenuti sensibili come messaggi personali o politiche. Ma questa trasparenza è davvero una garanzia di integrità? In un’epoca in cui la fiducia nel sistema politico è ai minimi storici, le dichiarazioni di trasparenza possono sembrare più un tentativo di rassicurare l’opinione pubblica che un impegno genuino verso l’etica. La verità è che, anche con le migliori intenzioni, l’IA può essere utilizzata per manipolare le percezioni e influenzare le opinioni in modi sottili e difficilmente rilevabili.

Equo Compenso e diritto d’autore davanti al Flat Iron di piazza Verdi : tecnologia, giurisprudenza e dignità economica

L’equo compenso oggi non è più solo un tema sindacale, una battaglia da avvocati che inseguono parcelle più dignitose o da giornalisti che si aggrappano all’illusione di una retribuzione proporzionata allo sforzo intellettuale. L’equo compenso è diventato la vera frontiera del diritto d’autore nell’era digitale, un concetto che davanti agli uffici di Rivista.AI e con caffè con lo SMART amico esegetico come come D.D. e con lo sguardo sul palazzo che a Roma ricorda il Flat Iron di New York, sembra quasi risuonare come uno slogan scolpito nel cemento: chi crea non deve più essere un servo della gleba dell’algoritmo.

L’equo compenso oggi si colloca all’incrocio tra diritto, tecnologia e potere economico, trasformandosi da tema sindacale in questione di politica legislativa e regolamentare. La normativa italiana, con la legge n. 247 del 2012, ha già stabilito principi chiari sul diritto d’autore degli avvocati, ma la disciplina si è presto dimostrata insufficiente ad affrontare la complessità del mercato digitale. Il decreto legislativo n. 68 del 2021, attuativo della direttiva europea 2019/790 sul copyright nel mercato unico digitale, ha introdotto elementi di tutela specifica, ma la reale applicazione rimane più retorica che concreta. Paradossalmente, mentre la tecnologia promette trasparenza e tracciabilità, il tessuto normativo procede a rilento, lasciando gli autori in un limbo contrattuale dove la disparità è endemica.

Meta Midjourney e la nuova estetica del monopolio nell’intelligenza artificiale visiva

Meta e Midjourney hanno appena messo in scena la mossa più prevedibile e al tempo stesso più cinica dell’industria dell’intelligenza artificiale: la retorica della “collaborazione tecnica” che cela un’operazione di potere puro. Alexandr Wang, il nuovo chief AI officer di Meta, ha parlato di “licensing della tecnologia estetica” come se stessimo trattando una collezione di quadri d’epoca e non l’algoritmo che genera miliardi di immagini digitali al giorno. È la nuova moneta di scambio del capitalismo cognitivo: l’estetica computazionale.

Chi ha ancora dubbi che Zuckerberg punti a trasformare Facebook e Instagram in una macchina di produzione visiva perenne si è perso gli ultimi mesi. Meta non si accontenta più di rincorrere OpenAI e Google, adesso punta a integrare la firma visiva di Midjourney dentro i propri modelli proprietari, una mossa che ha il sapore dell’acquisizione mascherata. Perché se è vero che David Holz continua a ripetere che Midjourney rimane indipendente, è altrettanto vero che accettare di “collaborare tecnicamente” con un gigante che ha appena speso 14 miliardi per prendersi metà di Scale AI equivale a firmare una cambiale che prima o poi scadrà.

Netflix scopre l’etica… AI ma solo dopo aver consultato gli avvocati

Il blog post di Netflix sull’uso dell’intelligenza artificiale generativa nei processi creativi sembra un manuale di buone maniere digitali, ma in realtà è un atto di pura autodifesa. Dietro la patina di etica e responsabilità si nasconde la verità più cinica: Netflix non vuole trovarsi né nei tribunali né sulle prime pagine dei giornali come il simbolo della Hollywood che ruba l’anima agli attori attraverso la macchina algoritmica. È un documento che serve meno ai registi e più agli avvocati, meno ai creativi e più agli investitori. Non è una guida, è un disclaimer travestito da manifesto etico.

Perchè Microsoft Copilot ha mostrato la sua vera debolezza

Microsoft 365 Copilot (Image Credit: Pistachio)

Il problema non è mai l’algoritmo in sé, ma l’architettura che lo contiene. Microsoft Copilot, l’assistente AI integrato nell’ecosistema Microsoft 365, ha appena dimostrato al mondo che puoi avere i modelli più potenti, la scalabilità del cloud più sofisticata e il marketing più scintillante, ma se dimentichi di scrivere un log, allora tutto crolla. La vulnerabilità segnalata da Zack Korman, CTO di Pistachio, non è un difetto marginale, ma un disastro concettuale. Bastava chiedere a Copilot di sintetizzare un documento senza includere il link e il sistema saltava l’audit. Nessun log, nessuna traccia. Illegibilità perfetta. Una cancellazione della memoria aziendale in tempo reale.

OpenAI lancia prompt optimizer il coach definitivo per i tuoi prompt

Nel mondo delle AI generative, un prompt mediocre può trasformarsi in un disastro. OpenAI ha appena rilasciato Prompt Optimizer, uno strumento pensato per correggere, perfezionare e rendere infallibili i tuoi prompt. Il funzionamento è semplice: incolli il testo, clicchi Optimize, e l’AI lo riscrive seguendo le linee guida ufficiali pubblicate da OpenAI. Ambiguità eliminate, contraddizioni sparite, ruoli e istruzioni organizzati, output più chiari. Puoi anche salvare le versioni ottimizzate e riutilizzarle.

La novità diventa cruciale con GPT-5. Molti hanno scoperto che prompt che funzionavano bene su GPT-4 improvvisamente producono risultati scadenti. Non è un problema del modello, ma della precisione richiesta. GPT-5 segue le istruzioni alla lettera, senza margini di interpretazione: un prompt confuso equivale a un prompt inutile.

Prompt Optimizer non è un lusso, è una necessità. Con GPT-5, scrivere male non è un’opzione, scrivere bene è tutto.

Provalo Optimize for GPT-5

https://platform.openai.com/chat/edit?models=gpt-5&optimize=true

Edita i Google Drive videos nel browser con Google Vids

Google potenzia l’editing video su drive con vids, il tool AI integrato nella suite workspace, e lo fa con un piccolo ma potente pulsante “apri”. Mentre si visualizza un video su drive, l’utente ora vede un’opzione diretta che lancia il file nell’app vids, pronta per modifiche immediate. Tagliare clip, aggiungere musica, testi o transizioni non è mai stato così veloce, e tutto senza abbandonare l’interfaccia di drive.

Pagina 16 di 121

CC BY-NC-SA 4.0 DEED | Disclaimer Contenuti | Informativa Privacy | Informativa sui Cookie