Gian Luca Foresti, docente di Visione Artificiale e Cybersecurity presso l’Università degli Studi di Udine dove dirige il Master in Intelligence e ICT, ha tenuto una lezione al Master in Intelligence dell’Università della Calabria, diretto da Mario Caligiuri.
Foresti esordisce dicendo che il continuo sviluppo e la crescita dei microprocessori ha contribuito negli ultimi anni all’avvicinamento dell’intelligenza artificiale a quella naturale. In tale contesto, Foresti cita il test di Alan Turing per verificare se una macchina abbia un comportamento intelligente, cioè se si avvicina in modo indistinguibile all’intelligenza umana. Si è quindi diffuso lo sviluppo di macchine che sfruttano la capacità di apprendere conoscenza specifica di un problema per poi utilizzarla per prendere decisioni in modo appropriato nello stesso contesto applicativo. La strada dell’intelligenza artificiale è lastricata da grandi successi e sconfitte: negli anni 50 c’è stata un’euforia iniziale con lo sviluppo da parte di Rosemblatt del primo schema di rete neurale artificiale (perceptron) poi notevolmente ridimensionate allorché nel 1969 Minsky e Papert, nell’opera Perceptrons. An Introduction to Computational Geometry, mostrano i limiti delle reti basate sul percettron in grado di risolvere solo problemi linearmente separabili. Si dovette attendere la metà degli anni ottanta per un nuovo rilancio dell’Intelligenza Artificiale con le scoperte di Rumelhart che definì una generalizzazione dell’algoritmo di apprendimento per il percettrone riuscendo a risolvere problemi non lineari. Negli anni successivi continuarono le ricerche in campo AI affrontando e risolvendo problemi sempre più complessi. Negli ultimi anni, il salto di capacità di calcolo in termini di CPU e GPU ha permesso di raggiungere in molti contesti applicativi (guida autonoma, droni, robotica, medicina, etc.) risultati impressionanti ed inaspettati. A questo proposito, per esempio, in Cina i medici di base vengono già affiancati e forse sostituiti in alcuni casi da algoritmi di Intelligenza Artificiale.
Foresti prosegue poi sottolineando come l’intelligenza artificiale provi a risolvere problemi così come fa la mente umana, addestrando un algoritmo con grandissime quantità di dati. Più numerosi sono i dati a disposizione, maggiore è la capacità decisionale dell’algoritmo.
L’intelligenza artificiale è un’area dell’informatica, ma nel suo campo di analisi rientrano tutte le scienze dalla fisica alla matematica, dalla sociologia alla medicina, dall’etica al campo giuridico. tra le quali ambiti etici, giuridici, fisica e medicina.
Il Prof. Foresti spiega in seguito brevemente il funzionamento principale del cervello umano, che va verso la soluzione di problemi sfruttando le sue capacità cognitive. Il cervello è l’organo più importante del sistema nervoso centrale e regola numerose funzioni dell’essere umano. Esso è composto da circa 100 miliardi di neuroni, collegati tra loro attraverso sinapsi. Le connessioni tra neuroni hanno una lunghezza straordinariamente grande – circa 160 km – in quanto sono molto piccole ma numerosissime: mediamente 125.000 miliardi. Grazie a queste connessioni, il cervello riesce ad effettuare operazioni che vengono svolte contemporaneamente e parallelamente in diverse parti di esso. In un neonato questa rete di connessioni è praticamente inesistente, mentre a due anni inizia a prendere forma; infatti, le capacità cognitive di un essere umano si formano nei primi 3-4 anni di età. La capacità di apprendere e immagazzinare dati cresce con l’aumentare del numero di neuroni e di sinapsi.
La struttura del neurone è molto semplice, costituita da una parte centrale dove si svolgono processi elettrochimici che, raggiungendo un certo livello di energia, attivano il neurone che invierà nuovi impulsi elettrici agli altri neuroni. La velocità di questi impulsi è di 130 metri al secondo, circa 450 km all’ora, che se confrontata con la velocità della luce, 300.000 km al secondo, è infinitamente inferiore.
Foresti prosegue poi confrontando il cervello umano con quello di un super calcolatore artificiale. Il cervello umano è caratterizzato da un numero elevato di neuroni e sinapsi, basso peso e consumi energetici, ma per contro da una velocità di elaborazione limitata. Al contrario, il calcolatore artificiale è contraddistinto da un numero più limitato di circuiti neurali e interconnessioni (rispettivamente 3 e 4 ordini di grandezza in meno rispetto al cervello), consumi energetici notevoli, ma velocità di calcolo estremamente elevate (8 ordini di grandezza in più rispetto al cervello, ovvero 100 milioni di volte più veloce). È proprio questo vantaggio a permettere all’intelligenza artificiale di avvicinarsi a quella naturale. Quando si realizzerà il breakpoint, ovvero il punto di contatto tra le due intelligenze, non si sa ancora. Secondo Ray Kurzweil, l’anno della singolarità potrebbe essere il 2040.
Diversi sono i metodi in cui un’intelligenza artificiale può essere addestrata: si va dall’apprendimento supervisionato, assistito cioè da un operatore umano, a quello non supervisionato che non necessità dell’intervento del supervisore. Si ha poi il reinforcement learning, in cui gli algoritmi sono aggiornati dinamicamente con l’acquisizione di nuovi dati. In ogni caso è di vitale importanza – e al contempo molto complessa – la traduzione dei dati in termini numerici, in quanto gli algoritmi lavorano con numeri binari.
Foresti elenca in seguito alcune delle numerose applicazioni dell’intelligenza artificiale. Amazon ne fa largo utilizzo per anticipare le richieste degli utenti. Ha poi citato la guida elettronica, che con un complesso sistema di sensori cerca di riprodurre i sensi umani, aggiungendo che in un sistema reale – che non sempre segue le regole della logica -possono avvenire incidenti perché gli algoritmi non hanno una sufficiente conoscenza pregressa degli imprevisti che si possono verificare. Si hanno poi il food recognition, i settori della robotica industriale e delle telecomunicazioni, il volo autonomo dei droni, la realtà aumentata e diminuita.
Foresti ha infine parlato della crittografia e del trend relativo all’approccio quantistico, in cui si passa dalle leggi della fisica tradizionale a quelle della fisica quantistica (che valgono solo per le particelle elementari ma non per il mondo macroscopico). In particolare, la crittografia quantistica si basa sul principio di indeterminazione di Heisenberg, secondo cui non è possibile conoscere contemporaneamente la posizione e la quantità di moto (velocità) di una particella. Grazie a questa legge, la cifratura quantistica stravolgerà quella tradizionale. Ciò avrà un impatto estremamente rilevante sia per gli attacchi attivi che per quelli passivi, tipici dell’intelligence, in cui si cerca di intercettare le informazioni in transito su una rete dati senza essere scoperti.