Rende (24.2.2026) – “Algoritmi e sicurezza: un’analisi di intelligence” è il titolo della lezione tenuta da Gian Luca Foresti, ordinario di Informatica presso l’Università degli Studi di Udine, direttore dell’Artificial Vision and Real-Time Systems (AViReS Lab) al Master in Intelligence dell’Università della Calabria, diretto da Mario Caligiuri.
L’intervento di Foresti offre una panoramica approfondita sulle dinamiche dell’Intelligenza Artificiale (IA), confrontandola con l’intelligenza biologica (Natural Intelligence) ed esplorando i modelli di apprendimento, con un focus specifico sulle applicazioni per la sicurezza e l’intelligence.
La lezione inizia con alcune definizioni, a partire da quella di “intelligenza naturale” che viene descritta come la capacità di un essere vivente di compiere un adattamento evolutivo al proprio ambiente per sopravvivere. L’Intelligenza Artificiale, invece, è un sistema (hardware e software) in grado di risolvere compiti tipici della mente umana.
Uno degli aspetti maggiormente divisivi e specifici dei due tipi di “intelligenza” è che Il cervello umano eccelle nel generalizzare e nell’imparare da pochissimi esempi (few-shot learning). Al contrario, l’IA è strettamente vincolata ai dati con cui viene addestrata e fatica a generalizzare in contesti nuovi.
Analizzando differenze quantitative fra i due sistemi, apprezziamo che il cervello umano possiede circa 100 miliardi di neuroni, consuma pochissima energia (circa un miliardesimo di Watt per neurone) e opera a velocità relativamente basse (circa 130 m/s). I sistemi artificiali, pur essendo infinitamente più veloci (frequenze nell’ordine dei Gigahertz), richiedono un dispendio energetico enorme: per eguagliare il numero di connessioni del cervello servirebbero gigawatt di potenza. E questo è uno dei temi caldi delle discussioni attuali sul consumo di energia a livello globale per l’AI e le aziende cosiddette “energivore”.
Inoltre, un altro aspetto importante del parallelo fra intelligenza artificiale e naturale è che il funzionamento matematico di base di una rete neurale artificiale riproduce in modo semplificato le sinapsi biologiche, utilizzando operazioni matematiche elementari (somme e moltiplicazioni di pesi) abbinate a una soglia di attivazione.
Foresti evidenzia poi la differenza fondamentale tra i due principali approcci dell’IA, Machine Learning e Deep Learning. Il primo (ML) richiede l’intervento umano per estrarre le caratteristiche rilevanti dai dati (feature engineering). Lavora bene con problemi meno complessi ed è altamente interpretabile, permettendo all’operatore di capire perché l’algoritmo ha commesso un errore. Invece, il secondo (DL) utilizza reti neurali profonde con migliaia di strati. È un approccio “a forza bruta” che prende i dati grezzi (es. un’intera immagine) ed estrae le caratteristiche in autonomia. Sebbene sia estremamente potente, richiede massicce capacità computazionali (GPU) e soffre del problema della spiegabilità (black box): è difficilissimo capire il processo decisionale della macchina. Un esempio celebre è un’IA addestrata per distinguere cani Husky dai lupi, che in realtà aveva imparato a riconoscere la presenza della neve sullo sfondo anziché le caratteristiche dell’animale.
Analizzando quindi i paradigmi di apprendimento, si comprende come gli algoritmi necessitino di apprendere dei dati prima di poterli analizzare e rispondere a quesiti specifici. I metodi principali di apprendimento sono due.
Il metodo “supervisionato”, dove i dati vengono etichettati manualmente dall’uomo (es. “questo è un quadrato”), ottiene ottimi risultati, ma è costoso, richiede enormi moli di dati e soffre dell’eventuale sbilanciamento del set di dati. Inoltre, presenta vulnerabilità alla manipolazione (ad esempio, un attaccante può inserire dati malevoli per falsare le decisioni del sistema).
Esiste poi il sistema “non supervisionato”, nel quale il sistema riceve dati non etichettati e cerca in autonomia similitudini e differenze (il cosiddetto clustering). Una delle applicazioni più importanti è l’Anomaly Detection (rilevamento delle anomalie): il sistema viene addestrato solo su dati “normali” (es. il traffico di rete standard di un’azienda o pazienti sani) per poi segnalare qualsiasi deviazione: un approccio vitale per la cybersecurity e la diagnostica medica.
Altri due aspetti dell’apprendimento dei sistemi di intelligenza artificiale sono il Reinforcement Learning e il Continuous Learning. Il primo si basa su premi e penalità (usato ad esempio nei giochi come scacchi). Il secondo è la vera sfida del futuro: fare in modo che l’IA continui ad apprendere anche durante la fase operativa, adattandosi alle mutazioni dell’ambiente.
La lezione si arricchisce anche di numerosi esempi pratici di applicazioni operative, di sicurezza e intelligence. Per esempio, droni autonomi capaci di inseguire un bersaglio e veicoli subacquei che ispezionano infrastrutture critiche (come i gasdotti) dove le comunicazioni esterne sono impossibili. E, ancora, telecamere non fisse che seguono un bersaglio (Pan-Tilt-Zoom) e adattano l’apertura dell’iride in tempo reale per catturare dettagli (come una targa o un volto) anche passando da zone di luce al buio totale.
Viene trattato anche il tema dei deepfake e della manipolazione: la generazione di immagini o audio fittizi da parte dell’IA sta diventando sempre più sofisticata, correggendo i vecchi errori sui pixel e lasciando solo imperfezioni semantiche (come ombre incoerenti), obbliga chi fa intelligence a inserire un modulo di verifica per testare l’attendibilità del dato, pena l’invalidamento dell’intero ciclo decisionale che ne consegue.
Foresti conclude illustrando il concetto di “realtà diminuita”, capovolgendo l’approccio dei deepfake. Mostra un video in cui un algoritmo riconosce un oggetto specifico (un pacchetto di sigarette riflesso in uno specchio) e lo cancella in tempo reale durante la ripresa, in pochissimi millisecondi. Questo esempio finale serve a lanciare un monito cruciale per il mondo dell’intelligence: bisogna sempre dubitare dei dati visivi acquisiti, poiché le immagini e i video analizzati potrebbero essere stati oggetto di manipolazione avanzata e occultamento.

- Tags: calabria, intelligence, Rende, Università


