Sebbene sia diventato un argomento main stream solo nell’ultimo anno, gli albori dell’Intelligenza Artificiale (IA) come disciplina scientifica affondano le radici addirittura negli anni ’50, un’epoca caratterizzata da studi e ricerche scientifiche sui calcolatori e sulla loro applicazione nello sviluppo dei sistemi intelligenti.
Nel 1956, al Dartmouth College nel New Hampshire, si svolse un convegno epocale con la partecipazione dei principali esponenti dell’informatica dell’epoca. Questo evento, il Dartmouth Summer Research Project on Artificial Intelligence, è considerato come l’evento ufficiale che segna la nascita di questa disciplina e non solo permise di raccogliere i primi contributi sui fondamenti dell’IA ma proiettò anche lo sguardo verso gli sviluppi futuri, delineando il percorso di una disciplina destinata a trasformare il panorama tecnologico contemporaneo. Nel corso della conferenza si discusse anche di reti neurali, teoria della computabilità, creatività ed elaborazione del linguaggio naturale.
Alan Turing, già riconosciuto come uno dei padri dell’informatica moderna per i suoi contributi del 1936 sui concetti di calcolabilità, la macchina di Turing e per aver immaginato, progettato e realizzato un computer in grado di decifrare i messaggi cifrati dai tedeschi tramite Enigma, contribuendo non poco al successo degli alleati nella seconda guerra mondiale, giocò un ruolo cruciale al convegno di Dartmouth.
Nel 1950, anticipando ancora una volta il futuro, Turing propose il “Computing machinery and intelligence“, noto come Test di Turing, stabilendo che una macchina poteva essere considerata intelligente se il suo comportamento, osservato da un essere umano, risultava indistinguibile da quello di una persona.
Il lavoro di Turing catalizzò l’attenzione della comunità scientifica sull’IA, generando approcci innovativi. La logica matematica emerse per dimostrare teoremi e inferire nuova conoscenza, mentre le reti neurali, nell’ultimo decennio, evolsero concretamente, trovando applicazioni nel Deep Learning, una sottobranca del Machine Learning.
Con il passare del tempo, le aspettative sull’IA crebbero. Nel 1957, Herbert Simon previde che entro dieci anni si sarebbe sviluppata un’IA capace di competere con i campioni di scacchi. non andò proprio così. Le limitazioni computazionali dell’epoca non permisero di mantenere queste aspettative e si dovette attendere fino al 1997 quando il supercomputer IBM Deep Blue sconfisse il campione del mondo di scacchi Garry Kasparov.
Dagli anni Ottanta in poi le prime applicazioni di Intelligenza Artificiale trovarono spazio nell’ambito industriale, con esempi concreti come R1, sviluppato nel 1982 da Digital Equipment per configurare ordini di nuovi computer, permettendo all’azienda di risparmiare 40 milioni di dollari all’anno.
Oggi, l’IA rappresenta uno dei principali campi di interesse nella comunità scientifica informatica, con aree di ricerca che includono Machine Learning, elaborazione del linguaggio naturale e robotica.
Le grandi aziende del settore dell’hi-tech stanno investendo sempre più in questo settore e i progressi tecnologici sono sotto gli occhi di tutti, basti pensare allo straordinario numero di programmi e applicazioni lanciati nel corso dell’ultimo anno.
La sua portata rivoluzionaria richiede però grande attenzione perché se il futuro dell’IA si profila come una costante evoluzione, con applicazioni sempre più sofisticate e integrate in ogni aspetto della vita quotidiana, è anche vero che bisogna aver ben presenti non solo le opportunità offerte da questa nuova tecnologia ma anche i potenziali elementi di rischio che questa tecnologia comporta per la società.