Intelligenza Artificiale, Innovazione e Trasformazione Digitale

Tag: GDPR

Grok sotto indagine in europa: il gioco pericoloso di Elon Musk con i dati degli utenti

L’Irlanda, terra di folletti, di San Patrizio e headquarters tech europei, ha deciso di non farsi incantare dalle magie di Elon Musk. Il suo nuovo giocattolo, Grok, l’intelligenza artificiale sviluppata da xAI, è ufficialmente sotto indagine da parte del Data Protection Commission (DPC) irlandese. E come sempre, non si parla di dettagli tecnici ma di privacy, la moneta più preziosa nell’economia dell’attenzione.

Il cuore della questione è la presunta violazione del GDPR, quel famigerato regolamento europeo che ogni CEO americano sembra conoscere solo per sentito dire, ma che puntualmente riesce a ignorare finché non arriva una sanzione milionaria. Secondo l’autorità irlandese, Grok sarebbe stato addestrato usando i post degli utenti europei su X, la piattaforma social ex-Twitter, di proprietà dello stesso Musk. Il problema? Quei dati potrebbero essere stati utilizzati senza un consenso esplicito e informato, come richiesto dalla normativa comunitaria. In altre parole: “Caro Elon, non puoi usare i nostri tweet per insegnare al tuo robottino a parlare, se prima non ci chiedi il permesso.”

OpenAI ricorre in appello contro la multa da 15 milioni di euro imposta dall’Autorità Garante per la Protezione dei Dati Personali Italiana

OpenAI ha confermato l’intenzione di fare appello contro la multa da 15 milioni di euro inflitta dall’Autorità Garante per la Protezione dei Dati Personali italiana, a seguito di preoccupazioni relative alla conformità dell’azienda al Regolamento Generale sulla Protezione dei Dati (GDPR) dell’Unione Europea. La sanzione è stata emessa dopo un’indagine condotta sull’azienda, che ha sollevato dubbi riguardo alle pratiche di raccolta e trattamento dei dati da parte di OpenAI, in particolare per quanto riguarda la privacy degli utenti e la protezione dei dati personali.

L’autorità di regolamentazione irlandese indagherà su Google per violazione GDPR di PaLM 2

La Commissione irlandese per la protezione dei dati ha avviato un’indagine su Google e il suo modello di intelligenza artificiale. Il DPC ha comunicato che verificherà se Google ha rispettato il Regolamento generale sulla protezione dei dati dell’UE (GDPR) prima di usare i dati personali degli utenti europei per sviluppare il modello di intelligenza artificiale Pathways Language Model 2 (PaLM 2).

Ottimizzare le impostazioni sulla privacy di Chatbot

La privacy è una questione cruciale nell’era dell’intelligenza artificiale onnipresente. Scopri come puoi gestire meglio le tue informazioni personali.

È facile pensare che usare strumenti di intelligenza artificiale significhi interagire con una macchina neutrale e indipendente. Tuttavia, tra cookie, identificatori di dispositivo, requisiti di accesso e account, e occasionali revisori umani, i servizi online sembrano avere un insaziabile desiderio di raccogliere i tuoi dati.

La privacy è una delle principali preoccupazioni sia per i consumatori che per i governi riguardo all’intelligenza artificiale. Le piattaforme spesso mostrano le loro funzionalità di privacy, anche se sono difficili da trovare.

I piani aziendali e a pagamento generalmente escludono la formazione sui dati inviati. Ma ogni volta che un chatbot “ricorda” qualcosa, può sembrare invasivo.

In questo articolo, spiegheremo come migliorare le impostazioni sulla privacy dell’IA eliminando le chat e le conversazioni precedenti e disattivando le impostazioni in ChatGPT, Gemini (ex Bard), Claude, Copilot e Meta AI che permettono agli sviluppatori di addestrare i loro sistemi sui tuoi dati. Queste istruzioni sono per l’interfaccia desktop basata su browser di ciascuno.

CC BY-NC-SA 4.0 DEED | Disclaimer Contenuti | Informativa Privacy | Informativa sui Cookie