Forse era scontato immaginare, ormai da qualche tempo, che creare un mondo parallelo, della rete, dei social, della comunicazione tecnologica avrebbe finito con l’indurre molti di noi a non sapersi più orientare.
E a confondere il modo virtuale con quello reale.
Ma davvero in pochi, credo, avrebbero potuto pensare che alcuni dispositivi di intelligenza artificiale (in particolare i voice engine realizzati da Open AI) avrebbero potuto clonare perfettamente la voce umana e farle dire (ad esempio in un podcast) ciò che si vuole.
Difficilmente avremmo potuto immaginare Krea: dispositivo che consente di rendere artistico, creando veri e propri dipinti, qualsiasi editing.
Oppure DALL-E 3, Leonardo o Midjourney, che consentono di realizzare fotografie di oggetti inesistenti o realizzare immagini che appaiono indistinguibili da quelle reali, inserendo o sostituendo individui all’interno dei contesti più disparati.
Tanto che sul suo sito web, Midjourney si descrive come un “laboratorio di ricerca finalizzato a esplorare nuovi strumenti di pensiero ed espandere il potere di immaginazione della specie umana”.
Non dimentichiamo Sora, che consente di creare contenuti video partendo da semplici descrizioni testuali cioè immaginare una verità, descriverla per sommi capi e vederla realizzata un attimo dopo, con persone, animali, oggetti graditi.
Insomma, già oggi, ciò che sentiamo e vediamo non è più affidato alla nostra percezione sensoriale perché può essere un artefatto pensato e voluto dai sistemi di AI e da chi li manovra.
Riusciamo a immaginare quali conseguenze tutto ciò può generare?
Le foto e i video che, ad esempio, tanta parte hanno avuto nelle aule di giustizia, come prove di fatti accaduti o meno, potranno ancora essere utilizzate?
Quali riverberi avrà questa tecnologia sulle informazioni che quotidianamente riceviamo dai media?
E quali correttivi è possibile immaginare?
Certo, i sistemi complessi di certificazione delle informazioni esistono già ma chi sarà disposto a pagarne i costi, specie nei settori dell’editoria e dell’informazione, che non fanno più ricavi?
In un mondo dove, nel 2024, oltre due miliardi di persone sono chiamate al voto (solo in Europa a giugno saranno 400 milioni), la facile e massiccia manipolazione delle informazioni quali rischi può determinare per la democrazia?
È vero, l’Unione europea ha varato per prima al mondo un AI act che regolamenta la materia.
Non si tratta però solo di regolamentare ma anche di acquisire la disponibilità di sistemi sempre più evoluti e sofisticati di AI.
Sappiamo infatti bene che nel recente passato pochi grandi operatori (Meta, Microsoft, Alphabet, Apple, OpenAI, Nvidia, Amazon..) hanno concentrato investimenti di miliardi di dollari in acquisizioni e in ricerca e sviluppo; quali sistemi pubblici sono in grado di fare altrettanto?
Certo, la verità è sempre stata un concetto imperscrutabile e tutti noi ricordiamo il mondo (di Schopenhauer) fatto di volontà e rappresentazione.
Ma queste ultime sono completamente manipolate, oggi, da chi detiene la tecnologia informativa e i nuovi strumenti di intelligenza artificiale.
Lo confermano i commenti degli stessi “addetti ai lavori” come Sam Altman, padre di Chat GPT, il quale dice: “Non dormo la notte se penso ai rischi e alla mancanza di regole in materia di AI”.
E allora, nel soppesare i sicuri benefici che l’intelligenza artificiale comporta con gli altrettanto importanti rischi che introduce (all’informazione, alla sicurezza, ai diritti delle persone.., ecc), viene da chiedersi, cui prodest?
Il famoso utility monster, descritto da Robert Novick, che ci induce a chiederci se sia migliore un mondo popolato da solo cinque persone, ciascuna con grado di felicità 10 (totale 50) o da 10 persone, ciascuna con grado di felicità 6 (totale 60), cosa può suggerire al riguardo?
È giusto chiedere sacrifici a tutti per massimizzare i benefici “dell’utility monster“?
Meglio ridurre la felicità media ed aumentare quella totale?
O ridurre quella totale per aumentare la media?








