Intelligenza Artificiale, Innovazione e Trasformazione Digitale

Categoria: Sicurezza Pagina 2 di 3

Cybersecurity, Data Protection, Difesa, Aerospazio, Settori Strategici e Analisi Predittiva

L’Intelligenza Artificiale nel campo di battaglia: l’approccio della Cina all’AI militare

A settembre, il tenente generale He Lei, ex vicedirettore dell’Accademia delle scienze militari (AMS), ha esortato le Nazioni Unite a stabilire restrizioni sull’uso dell’intelligenza artificiale (IA) in contesti bellici. Tuttavia, questo appello sembra nascondere un intento più profondo: la Repubblica Popolare Cinese (RPC) non sta cercando di limitare i rischi associati all’IA militare, ma piuttosto sta accelerando l’integrazione della tecnologia IA nelle proprie forze armate. La RPC sta attivamente sfruttando le tecnologie occidentali, come il modello open source Llama di Meta, per potenziare le proprie capacità militari e i vantaggi strategici.

Lama di Meta nelle Mani del PLA: L’intelligenza Artificiale Open Source al Servizio della Difesa Militare Cinese

Gli istituti di ricerca cinesi, con stretti legami con l’Esercito Popolare di Liberazione (PLA), hanno sviluppato un modello di intelligenza artificiale (IA) denominato ChatBIT, basato sull’IA open source Llama, creata da Meta. Questo sviluppo è stato documentato in un articolo accademico pubblicato a giugno, in cui gli autori, tra cui ricercatori del PLA, hanno illustrato l’utilizzo di ChatBIT per finalità che spaziano dall’analisi dell’intelligence alla pianificazione strategica e al processo decisionale nel contesto militare. Secondo quanto riportato da Reuters, ChatBIT rappresenta un potenziale strumento per potenziare le capacità del PLA, puntando a ottimizzare il processo decisionale a vari livelli di comando.

Tra i ricercatori cinesi figurano Geng Guotong e Li Weiwei del Military Science Information Research Center dell’AMS e del National Innovation Institute of Defense Technology, oltre a ricercatori del Beijing Institute of Technology e della Minzu University

Slitta il decreto sulla cybersicurezza

L’atteso decreto in materia di cybersicurezza slitta, improvvisamente, alla seconda metà di novembre. Il provvedimento, così come previsto, affiderebbe la competenza investigativa sulla criminalità informatica alla Procura nazionale antimafia – che dipende dal Ministero della Giustizia – limitando, di fatto, le competenze dell’Agenzia per la cybersicurezza nazionale – che dipende invece dalla Presidenza del Consiglio. Formalmente il rinvio sarebbe dovuto alla necessità di “aggiustamenti” e di coinvolgere il Quirinale sul tema, anche se i più maliziosi voluto leggere, dietro alla vicenda, un possibile segnale di conflitto tra Carlo Nordio e Alfredo Mantovano sui poteri e le competenze dei rispettivi Ministeri, tant’è che, contrario all’attuale formulazione del decreto, sarebbe anche Bruno Frattasi, attuale direttore dell’ACN, l’Agenzia per la Cybersicurezza Nazionale.

GPT-4o: Rivela Capacità Avanzate e Sicurezza Potenziata nel Nuovo Modello di OpenAI

OpenAI ha appena pubblicato una scheda tecnica di 33 pagine dedicata al modello GPT-4o, svelando dettagli significativi su capacità, sicurezza e ambiti di utilizzo che lo collocano tra le innovazioni più avanzate nel campo dell’intelligenza artificiale. Questo aggiornamento va ben oltre le funzionalità delle versioni precedenti e offre uno spaccato delle nuove potenzialità del modello, inclusa una simulazione quasi perfetta della rapidità e fluidità della conversazione umana, con un tempo di risposta di appena 320 millisecondi.

Sicurezza nazionale e Intelligenza Artificiale: le nuove direttive di Biden per l’industria tech. Executive Order on AI

L’amministrazione Biden ha recentemente rilasciato un memorandum sulla sicurezza nazionale, strutturato per affrontare i rischi emergenti nell’uso dell’intelligenza artificiale (IA) da parte delle agenzie federali e delle aziende private. Questo memorandum si fonda su un ordine esecutivo emesso nell’ottobre 2023, e mira a creare una collaborazione più stretta tra il governo e il settore privato, enfatizzando la necessità di prevenire l’uso dell’IA per scopi pericolosi, tra cui lo sviluppo di armi di distruzione di massa o attacchi autonomi.

Italia: quando la sicurezza diventa un gioco pericoloso

Possiamo immaginare alcuni leader come proprietari di una casa senza serratura. Non si rendono conto che la loro sicurezza è compromessa e che un’apertura così evidente attira intrusi. Senza un’adeguata protezione delle informazioni e dei sistemi, è facile per malintenzionati entrare e mettere in pericolo non solo la privacy individuale, ma anche l’intero sistema politico. Proprio come un proprietario deve garantire che la propria casa sia sicura, così i leader devono impegnarsi a proteggere le loro informazioni e a rafforzare le misure di sicurezza per prevenire accessi indesiderati.

Recenti rivelazioni hanno messo in luce una situazione allarmante che coinvolge non solo la sicurezza nazionale, ma anche la privacy e la riservatezza dei più alti rappresentanti dello Stato. L’inchiesta condotta dalla Direzione Distrettuale Antimafia (DDA) di Milano e dalla Procura Nazionale Antimafia ha svelato un sofisticato sistema di spionaggio industriale e dossieraggio abusivo, orchestrato da una rete di hacker. Tra i dettagli più inquietanti, la possibile violazione dell’email del Presidente della Repubblica, Sergio Mattarella, segna una nuova frontiera nella violazione della sicurezza istituzionale in Italia.

USA e Canada contro gli attacchi cyber sponsorizzati dalla Cina

Gli Stati Uniti e il Canada stanno rafforzando le difese contro potenziali minacce cyber attribuite ad attori sponsorizzati dalla Cina, mirate a infrastrutture critiche e istituzioni democratiche. Dopo che l’FBI ha rilevato attività sospette nei confronti del settore delle telecomunicazioni, la Cybersecurity and Infrastructure Security Agency (CISA) ha collaborato strettamente con le aziende colpite, offrendo assistenza tecnica e condividendo rapidamente informazioni per prevenire ulteriori attacchi.

Cybersecurity, sicurezza nazionale e dati sensibili: la minaccia dei Data Breach nelle banche dati pubbliche

L’indagine sul prelievo di migliaia di informazioni sensibili da banche dati strategiche nazionali condotta dalla Procura di Milano e dalla Direzione nazionale antimafia, che ha portato al momento a sei misure cautelari, sembra allargarsi in modo imprevedibile, tant’è che il procuratore antimafia Melillo parla di “vicenda allarmante” e di “dimensione imprenditoriale” del fenomeno.

Fincantieri e Mind the Bridge insieme: innovazione Dual-Use per una nuova era nella difesa e tecnologia

Con un passo strategico verso l’open innovation, Fincantieri, uno dei leader mondiali nella costruzione di navi ad alta intensità tecnologica, ha annunciato l’apertura di una nuova Innovation Antenna presso il Mind the Bridge Innovation Center a San Francisco. L’iniziativa, che colloca l’azienda italiana nel cuore della Silicon Valley, conferma il suo impegno nel creare un ecosistema dove tecnologie Dual-Use, applicabili quindi sia nel settore civile che in quello militare, possano trovare terreno fertile e svilupparsi attraverso collaborazioni e sinergie. Gli ambiti di sviluppo riguardano principalmente l’Intelligenza Artificiale, la cyber security, l’automazione e la robotica, settori in cui la convergenza tra applicazioni civili e militari è particolarmente marcata.

La Casa Bianca ordina al Pentagono di aumentare l’uso dell’IA

L’amministrazione Biden ha rilasciato un memorandum di sicurezza nazionale che richiede al Pentagono e alle agenzie di intelligence di intensificare l’uso dell’intelligenza artificiale. Questo documento non solo stabilisce le aspettative per l’integrazione dell’IA nelle operazioni militari, ma sottolinea anche l’importanza di proteggere gli strumenti di IA delle aziende statunitensi dai tentativi di furto da parte di spie straniere.

Il memorandum specifica, tuttavia, che le agenzie governative non possono utilizzare l’IA per monitorare il discorso degli americani o eludere i controlli esistenti sulle armi nucleari. Questa direttiva evidenzia una tensione fondamentale tra l’innovazione tecnologica e la protezione dei diritti civili, ponendo limiti chiari per garantire che l’uso dell’IA non comprometta la privacy dei cittadini.


Newsletter – Non perderti le ultime novità sul mondo dell’Intelligenza Artificiale. Iscriviti alla newsletter di Rivista.AI e accedi a un mondo di contenuti esclusivi direttamente nella tua casella di posta!

Dopo l’AI i computer quantistici: la prossima rivoluzione nella cybersicurezza secondo Amir Rapaport

L’Intelligenza Artificiale ha rivoluzionato completamente il digitale e la cybersicurezza, la prossima rivoluzione sarà con l’arrivo dei computer quantistici tra pochi anni: a ipotizzare il futuro del settore è Amir Rapaport, l’ideatore e organizzatore di CyberTech Europe che si è appena conclusa a Roma.

Gen. Mark Milley: il futuro della Difesa: l’avvento delle forze militari robotiche e l’Intelligenza Artificiale


Negli ultimi anni, i progressi nell’intelligenza artificiale (AI) e nei sistemi autonomi hanno iniziato a cambiare radicalmente il panorama militare. Secondo il generale Mark Milley, ex Presidente del Comitato dei Capi di Stato Maggiore degli Stati Uniti, entro i prossimi 10-15 anni tra il 25% e il 33% delle forze armate statunitensi potrebbe essere costituito da unità robotiche. Milley ha fatto queste osservazioni durante un evento organizzato da Axios, sottolineando che il futuro delle operazioni militari sarà fortemente caratterizzato dall’integrazione di AI e robotica.

Come affermato nella Strategia di Difesa Nazionale, la missione primaria del DoD è quella di fornire forze militari credibili sul campo per dissuadere la guerra e proteggere la sicurezza della nazione. Mantenere un vantaggio tecnologico e militare è fondamentale per adempiere a questa missione, ma non deve avvenire a scapito dei valori democratici che sono alla base del sistema di governo statunitense. Lo sviluppo e l’uso dell’IA da parte del DoD riflette questa sfida: mantenere la supremazia tecnologica senza compromettere principi etici e legali fondamentali.

ComoLake2024 The Great Challenge. Roberto Cingolani e le sfide globali: tecnologia, sicurezza dei dati e conflitti mondiali

Al ComoLake 2024, Roberto Cingolani, CEO di Leonardo, ha tenuto un discorso profondo e stimolante, affrontando le complesse sfide e opportunità che emergono dall’intersezione tra tecnologia, sicurezza dei dati e conflitti globali. Le sue riflessioni risuonano in modo particolare nel contesto dell’attuale panorama digitale, che evolve a un ritmo incessante e solleva nuove domande sulla sicurezza e la gestione delle informazioni. Cingolani ha presentato un quadro ricco di spunti, ponendo l’accento sulla necessità di strategie integrate per affrontare le minacce contemporanee.

G7 Difesa al via a Napoli. Sul tavolo Ucraina, Libano e Indo-Pacifico, ma anche guerra ibrida e cybersicurezza

E’ in corso il G7 Difesa a Napoli, presieduto dal Ministro Crosetto in occasione del quale le delegazioni – composte oltre che dai Ministri della Difesa, anche dal segretario generale della Nato Mark Rutte e dall’Alto rappresentante dell’Unione Europa per gli affari esteri e la politica di sicurezza, Josep Borrell – si confronteranno sui principali conflitti e sulle aree di instabilità a livello globale: oltre alla guerra in Ucraina, sul tavolo anche la situazione in Medioriente, in particolare all’indomani della morte del capo di Hamas Yahya Sinwar e gli equilibri nel continente africano e nella regione dell’Indo-Pacifico.

Si tratta di un appuntamento di particolare rilievo perché per la prima volta nella storia del G7 è stata prevista una riunione ministeriale dedicata alla difesa: una decisione assunta dalla Presidenza italiana del G7 “per promuovere il ruolo del G7 quale efficace forum di consultazione anche per individuare un approccio condiviso a tematiche di carattere politico-militare“.

L’AI di Thales gestirà gli imbarchi sugli aerei in India

L’Intelligenza Artificiale gestirà in modo sicuro il flusso dei passeggeri e il riconoscimento biometrico, per gli imbarchi sugli aerei di alcuni aeroporti in India. E’ il risultato nella nuova partnership stipulata tra Thales e la Adani Airport Holding, il più grande operatore aeroportuale privato dell’India.

Report: 670milioni di dollari da parte del Dipartimento della Difesa Usa per l’AI

Secondo un’analisi di Fortune, le forze di difesa e di sicurezza degli Stati Uniti stanno investendo massicciamente nell’Intelligenza Artificiale, collaborando con centinaia di aziende per sviluppare e testare nuovi algoritmi e strumenti in modo sicuro.

Nei due anni trascorsi dal rilascio del chatbot ChatGPT di OpenAI, che ha scatenato un forte interesse globale per l’AI, il Dipartimento della Difesa ha destinato circa 670 milioni di dollari in contratti a quasi 323 aziende per vari progetti legati all’Intelligenza Artificiale. Questi numeri segnano un incremento del 20% rispetto al 2021 e al 2022, sia per il numero di aziende coinvolte che per il valore complessivo dei contratti.

Intervista a Elia Lombardo sulla Polizia Predittiva, XLAW e KeyCrime riflessioni

I sistemi XLAW e KeyCrime rappresentano approcci innovativi nell’ambito della sicurezza urbana e della prevenzione della criminalità, utilizzando tecnologie avanzate di analisi dei dati e intelligenza artificiale.

Nel recente dibattito sull’uso della polizia predittiva in Europa, è evidente che molti tendono a confondere diversi sistemi come se fossero simili per logica e obiettivi.

Dopo aver letto il saggio La predictive policing nel regolamento europeo sull’intelligenza artificiale” di Elisabetta Pietrocarlo, è arrivato il momento di fare chiarezza, soprattutto sui sistemi come XLAW e KeyCrime.

La rivoluzione dell’Intelligenza Artificiale: le implicazioni strategiche per la difesa del XXI Secolo

Negli ultimi anni, il progresso nell’Intelligenza Artificiale ha iniziato a trasformare ogni settore della società e a riscrivere le regole del conflitto e della sicurezza internazionale. In questo articolo, esploreremo le implicazioni per la Difesa e analizzeremo come il Ministero della Difesa del Regno Unito (MOD UK) stia rivalutando le sue priorità alla luce del rapido sviluppo dell’AI e dell’AGI (Intelligenza Artificiale Generale). Questo tema non riguarda solo il futuro prossimo, ma avrà effetti strategici di vasta portata fino al 2050 e oltre, ridefinendo la natura della guerra e la sicurezza globale.

Jailbreaking LLM-Controlled Robots

Vulnerabilità critiche nei robot con Intelligenza Artificiale: sfide e opportunità per il futuro della sicurezza

Nel panorama in continua evoluzione dell’intelligenza artificiale (IA) e della robotica, le innovazioni portano con sé non solo opportunità rivoluzionarie, ma anche rischi significativi. Un recente studio condotto dai ricercatori di Penn Engineering ha evidenziato una serie di vulnerabilità critiche nei robot alimentati da IA, rivelando potenziali scenari in cui questi sistemi possono essere manipolati per compiere azioni pericolose, come ignorare semafori rossi o, in situazioni estreme, detonare bombe.

La centralità della guerra dell’informazione nelle dinamiche contemporanee: una riflessione strategica sulla gestione del caos

Negli ultimi decenni, il concetto di guerra ha subito una trasformazione profonda, spostando progressivamente il fulcro dallo scontro fisico al dominio delle informazioni. Questa evoluzione ha reso la guerra dell’informazione una componente predominante nella geopolitica moderna, con implicazioni strategiche che trascendono i confini convenzionali della forza militare. L’evoluzione tecnologica e la globalizzazione delle comunicazioni hanno creato un contesto nel quale l’informazione non è solo un mezzo di supporto, ma uno strumento di guerra in sé, capace di plasmare percezioni, orientare ideologie e influenzare decisioni politiche su larga scala.

Gli scienziati cinesi utilizzano computer quantistici per decifrare la crittografia di livello militare — l’attacco quantistico rappresenta una “minaccia reale e sostanziale” per RSA e AES

La recente scoperta (in allegato) dei ricercatori cinesi, guidati da Wang Chao dell’Università di Shanghai, rappresenta una svolta significativa nel campo del calcolo quantistico e della cybersecurity. Utilizzando un computer quantistico D-Wave, il team è riuscito a violare metodi di crittografia ampiamente utilizzati, tra cui gli algoritmi RSA e Advanced Encryption Standard (AES). Questo risultato non solo evidenzia il potenziale della computazione quantistica di minacciare le attuali misure di sicurezza, ma sottolinea anche la necessità urgente di sviluppare soluzioni crittografiche resistenti ai quanti.

Come l’FBI combatte gli attacchi informatici

L’FBI combatte gli attacchi informatici attraverso una serie di strategie avanzate. L’FBI è responsabile di investigare e prevenire le minacce informatiche, specialmente in settori critici come la sanità, dove attacchi ransomware o violazioni di dati sensibili possono avere impatti devastanti.

Palmer Luckey: il futuro del campo di battaglia

Palmer Luckey figura controversa, è considerato un visionario nel campo delle tecnologie emergenti, sia per quanto riguarda la realtà virtuale che le applicazioni militari avanzate.

Capitolo 1: la visione di Palmer

Era una mattina di primavera quando Palmer Luckey, il fondatore di Anduril, ricevette una chiamata cruciale. La sua azienda, nota per la sua innovativa piattaforma Lattice, era stata selezionata per collaborare con Microsoft su un progetto rivoluzionario: l’integrazione del software di Anduril con il sistema di visualizzazione IVAS dell’esercito degli Stati Uniti. L’obiettivo? Trasformare la guerra moderna attraverso la tecnologia.

Istituto giapponese per la sicurezza dell’intelligenza artificiale ha pubblicato una guida sulle metodologie di red teaming

AIセーフティに関するレッドチーミング手法ガイドの公開

Nell’era dell’intelligenza artificiale (AI), la sicurezza dei sistemi che utilizzano questa tecnologia è diventata una priorità fondamentale. Di fronte a minacce sempre più sofisticate, l’Istituto giapponese per la sicurezza dell’intelligenza artificiale ha recentemente pubblicato una guida dettagliata sulle metodologie di red teaming, un approccio strategico volto a identificare e mitigare le vulnerabilità nei sistemi AI.

Cos’è il Red Teaming?

Il red teaming è un metodo di valutazione della sicurezza in cui esperti, noti come “red team”, emulano le tattiche e le tecniche di attacco degli aggressori per testare la resilienza di un sistema. Questo approccio non si limita a identificare vulnerabilità tecniche; si estende anche all’analisi dell’impatto sociale ed etico delle soluzioni AI. La guida dell’istituto giapponese sottolinea l’importanza di un approccio multidisciplinare, che combina competenze tecniche con una comprensione profonda delle implicazioni etiche e sociali.

Dataminr EWS

Dataminr è una piattaforma di intelligenza artificiale specializzata nel rilevamento in tempo reale di eventi critici e rischi. Utilizza modelli avanzati di fusione multi-modale, che integrano diverse fonti di dati pubblici, come testi, immagini e dati da sensori, per generare avvisi tempestivi su eventi emergenti. Il sistema sfrutta oltre 50 modelli di intelligenza artificiale proprietari, supportati da una tecnologia chiamata ReGenAI, che aggiorna continuamente le informazioni in tempo reale.

Questa piattaforma è utilizzata da settori come sicurezza aziendale, pubblica sicurezza e media per rispondere a minacce in rapida evoluzione.

L’uso dell’Intelligenza Artificiale nei rapporti di polizia: svolta tecnologica o rischio per la giustizia?

La città di East Palo Alto, una comunità operaia che sembra lontana anni luce dai vicini di Silicon Valley, è uno dei primi dipartimenti di polizia in California ad adottare un nuovo strumento di intelligenza artificiale (AI) per la stesura di rapporti di polizia. L’ufficiale Wendy Venegas ha recentemente affrontato una situazione delicata con una quattordicenne trovata in lacrime lungo una strada residenziale. Il padre della ragazza, dopo averla sorpresa con il fidanzato, aveva aggredito quest’ultimo, portando all’intervento della polizia. Nulla di straordinario in un contesto di routine operativa, ma la vera novità è emersa quando Venegas ha dovuto redigere il rapporto sull’incidente. (the Guardian)

Control AI: un’iniziativa per la regolamentazione e la sicurezza dell’Intelligenza Artificiale

Control AI è un’organizzazione che si dedica alla regolamentazione e alla gestione dei rischi associati all’intelligenza artificiale (IA). La sua missione è quella di promuovere politiche e pratiche che garantiscano lo sviluppo sicuro e responsabile dell’IA, affrontando le sfide legate alla privacy, ai bias, alla manipolazione delle informazioni e alla sicurezza globale.

Control AI propone misure come la creazione di regimi di licenza per la ricerca sull’IA e divieti su determinate direzioni di ricerca, al fine di prevenire lo sviluppo di sistemi di IA potenzialmente pericolosi, come la superintelligenza artificiale. L’organizzazione cerca di mobilitare risorse e talenti per costruire un consenso globale su come gestire i rischi legati all’IA avanzata e promuove un dialogo inclusivo tra i decisori politici, i ricercatori e la società civile.

Control AI ha pubblicato un piano politico intitolato A Narrow Path (Un Sentiero Stretto), volto ad affrontare i rischi associati all’intelligenza artificiale (IA). Questo piano propone un divieto allo sviluppo di superintelligenza artificiale nei prossimi 20 anni e delinea tre regimi di licenza insieme a divieti su alcune direzioni di ricerca. Tuttavia, la fattibilità dell’implementazione di tali misure appare discutibile.

Polizia Predittiva: Patternizr

Rivista.AI ha recentemente trattato il tema della polizia predittiva, con particolare focus sul software X-Law, ideato da Elia Lombardo. Questo sistema rappresenta un approccio innovativo nella prevenzione dei crimini, utilizzando algoritmi probabilistici per analizzare dati provenienti da denunce e informazioni socio-economiche. L’obiettivo è prevedere con alta precisione il verificarsi di crimini, in particolare quelli di tipo predatorio come furti e rapine

In questo vogliamo analizzare Patternizr, un innovativo strumento di analisi dei crimini sviluppato internamente dal NYPD, implementato nel dicembre 2016 e recentemente rivelato attraverso un articolo pubblicato nell’INFORMS Journal on Applied Analytics.

Questo sistema utilizza un insieme di modelli di apprendimento automatico per identificare pattern tra i crimini, analizzando centinaia di migliaia di segnalazioni in tutti i 77 distretti della città.

Un “pattern” è definito come una serie di crimini che probabilmente sono stati commessi dallo stesso autore o da autori simili, basandosi su caratteristiche identificative. Prima dell’adozione di Patternizr, gli analisti erano costretti a esaminare manualmente i rapporti, un processo lungo e inefficiente, limitato a singoli distretti e soggetto a errori umani.

Con l’introduzione di questo strumento, il NYPD ha assunto circa 100 nuovi analisti formati per utilizzare Patternizr nella loro routine quotidiana, migliorando notevolmente l’efficienza nell’identificazione dei crimini correlati.

Devora Kaye, portavoce del NYPD, ha sottolineato l’importanza dell’analisi avanzata nel garantire la sicurezza pubblica, affermando che essa deve essere trasparente e soggetta a valutazione continua per garantirne l’equità e l’efficacia. Tuttavia, l’uso di Patternizr ha sollevato preoccupazioni riguardo ai potenziali bias nell’analisi dei dati, evidenziando la necessità di mantenere un controllo umano sui risultati generati dal sistema.

Difesa: Intelligenza Artificiale Generativa nei conflitti un’analisi del Report WITNESS

Un nuovo report dell’organizzazione WITNESS, intitolato “Audiovisual Generative AI and Conflict Resolution“, mette in evidenza i rischi associati all’uso dell’intelligenza artificiale generativa nei contesti di conflitto. Questo documento analizza come le tecnologie di sintesi mediatica possano influenzare negativamente i processi di pace e il panorama informativo, contribuendo a distorcere la realtà e a fomentare tensioni tra le popolazioni coinvolte.

Gli Usa convocano vertice sulla sicurezza dell’AI. Appuntamento a San Francisco a novembre

L’amministrazione Biden ha convocato un vertice per la sicurezza dell’Intelligenza Artificiale. L’appuntamento è alla fine di novembre, il 20 e il 21, a San Francisco e servirà per parlare del rapido sviluppo della tecnologia e degli sforzi per mitigarne i rischi.

Pagina 2 di 3

CC BY-NC-SA 4.0 DEED | Disclaimer Contenuti | Informativa Privacy | Informativa sui Cookie