Rende (25.2.2026) – “Algoritmi, dati e democrazia” è il titolo della lezione tenuta da Domenico Talia, docente presso l’Università della Calabria e vicepresidente della Società italiana di intelligence, al Master in Intelligence dell’ateneo calabrese, diretto da Mario Caligiuri.
Talia, nella sua lezione, ha esplorato il rapporto tra le macchine e l’intelligenza spiegando, in particolare, come l’intelligenza artificiale funzioni secondo un nuovo paradigma: estrarre conoscenza “leggendo dentro” una grande mole di dati, che noi conosciamo come “big data”.
Posto che esistono nel mondo varie forme di intelligenza, da quella animale e vegetale fino a quella umana, si può affermare che l’intelligenza artificiale, sia una nuova forma di intelligenza inventata dall’uomo ma, se impiegata senza regole, in grado di metterlo in crisi.
La citazione fatta da Talia e tratta dall’ultimo libro scritto da Henri Kissinger prima della sua recente scomparsa, dal titolo “L’era dell’intelligenza artificiale” è, al riguardo, illuminante poiché ci spiega come, in futuro, le decisioni più importanti potrebbero venir prese attraverso una sorta di collaborazione intellettuale tra uomo e macchina, con un impatto significativo sull’autonomia decisionale umana.
Talia ha poi illustrato come, al centro di questa nuova forma di intelligenza vi sia quello che è ormai divenuto un agente invisibile delle nostre esistenze: l’algoritmo, definibile come una sequenza finita di operazioni che trasformano i dati di input in risultati.
Tuttavia, Talia ammonisce sul fatto che gli algoritmi stiano diventando sempre di più dei veri e propri mediatori tra l’individuo e il mondo esterno, assumendo la sostanza di una sorta di moderno logos: “sono parola e pensiero affidati alle macchine per rendere potenti ed efficienti gli umani del nuovo millennio”.
Una delle questioni centrali, sottolineata da Talia, risiede nell’acquisire consapevolezza che, gli attori tecnologici in grado di governare e impiegare gli algoritmi, tramite piattaforme digitali di scala globale, si siano ormai trasformate da big tech in veri e propri attori geopolitici: siamo, dunque, nell’era della tecno-politica, dove la tecnologia diventa strumento per il perseguimento di fini politici.
Talia fa anche notare che, in un certo senso, lo aveva già predetto Marx nel suo Grundrisse del 1858, parlando di “general intellect” e affermando che i prodotti dell’industria umana siano “capacità scientifica oggettivata”.
Nel proseguire la sua trattazione, Talia si sofferma sull’ambiguo ruolo che hanno, nel mondo attuale, i c.d. data brokers cioè aziende private che raccolgono informazioni personali su individui, consumatori e cittadini dal web, carte di credito, telefoni cellulari, e-mail, GPS, social media e archivi pubblici, per poi rivenderle a soggetti terzi. In pratica, ogni aspetto della nostra vita, dalle informazioni che ci riguardano ai nostri comportamenti, preferenze o scelte, alle nostre stesse emozioni, sono divenute merce da scambiare in un mercato planetario dei contenuti digitali, dando vita ad una nuova forma di economia, definita “infonomics”.
Successivamente Talia dirige la sua attenzione sul tema dei “big data”, caratterizzati dalle cosiddette “quattro v”: volume enorme di dati, velocità del loro flusso, varietà per quanto attiene alla tipologia di formato e veridicità, quale caratteristica necessaria per il loro impiego; di recente una quinta v si è aggiunta alle precedenti, per indicare il valore che si può estrarre dai dati stessi, assurti, oggi, a una forma nuova di capitale, quello informativo.
Infatti, a partire dai primi anni del nuovo millennio, le big tech hanno cominciato a investire massicciamente in sofisticate tecniche di analisi, per generare utili dai dati che avevano raccolto nei loro enormi archivi digitali.
Le stesse tecniche di analisi dei dati, basate sul machine learning ma oggi soprattutto su una sua sottoclasse, definita deep learning, hanno poi condotto anche allo sviluppo dei modelli di intelligenza artificiale generativa pre-addestrata, come la notissima ChatGPT e i suoi diversi epigoni.
Pertanto, continua Talia, gli algoritmi di machine e deep learning sono dotati di funzioni di apprendimento a partire da grandi quantità di dati e di esempi, consentendo ai modelli di AI di eseguire ragionamenti induttivi e predittivi, sulla base dei dati ricevuti in ingresso. Ma essi presentano anche un lato oscuro o, meglio, un lato poco trasparente: il loro funzionamento interno non è “leggibile” e dunque nemmeno spiegabile, tanto che si parla, a tal riguardo, di non explanable AI.
Siamo, dunque, in presenza di una sorta di inquietante ghost in the machine dai connotati eterei e sfuggenti che pone, però, al genere umano, un enorme problema circa il controllo e la trasparenza degli algoritmi, spesso viziati da tutta una serie di bias sia di origine umana che di matrice algoritmica stessa.
Nel concludere il suo intervento, Talia nota come la diffusione esponenziale delle tecnologie digitali si vada configurando come una nuova forma di egemonia culturale che sta costruendo una supremazia basata sul consenso.
Sia gli Stati, infatti, che le Big tech sono oggi in grado di proiettare un’enorme influenza attraverso il dominio delle tecnologie avanzate e il controllo degli algoritmi che stanno alla base delle piattaforme globali. Tutto ciò sta assumendo la connotazione di un nuovo potere orientato a fondare forme di supremazia politica ed economica, che Talia, sulla falsariga di Joseph Nye, definisce con il neologismo di “software power”.

- Tags: intelligence, Mario caligiuri, Rende, Università



