Intelligenza artificiale, miti e paure

Nella foto: Un’immagine choc sui robot “padroni” dell’umanità.
BRESCIA – Una delle paure che in questo momento attanagliano milioni di individui sulla faccia della terra è proprio quella di comprendere se l’intelligenza artificiale potrà eventualmente in futuro prendere sopravvento sull’umanità. Il terrore che i robot, con il continuo progresso della IA, imparino a diventare autonomi fino a impadronirsi del potere sugli umani – la fantascienza è piena di romanzi e di film in questa chiave – non è soltanto degli sprovveduti. Adesso, per cercare di capire allo stato attuale quali possono essere questi rischi sono state avanzate ricerche molto sofisticate, impostando diversi modelli di simulazione con le logiche dei più conosciuti sistemi di intelligenza artificiale oggi esistenti ed utilizzati a vari livelli della società.
*
“Ci siamo avvalsi di una base di dati simulata – spiegano gli esperti del laboratorio di ricerca Olitec che ha fatto l’indagine – che ha replicato per circa 5 miliardi i modelli comportamentali e relazionali di un campione di individui che si è prestato alla sperimentazione, mettendo a disposizione per un periodo di sei mesi il proprio dataset di informazioni relative alle loro attività di natura digitale e a quelle attività che diventano digitali prendendo spunto dalle attività fisiche dell’individuo stesso, quindi abbiamo ricreato con alcune modificazioni di questi gruppi di informazione ciò che potenzialmente un sistema di intelligenza artificiale può avere acquisito nel tempo su tutta la popolazione umana che potremmo definire “popolazione umana attiva”.
*
Olitec ha elaborato alcune pagine della sua ricerca, con una serie di conclusioni che per brevità riassumiamo in questo paragrafo.
“L’Intelligenza Artificiale (IA) in sé non ha l’intenzione di distruggere il mondo conosciuto, ma come qualsiasi altra tecnologia potrebbe avere effetti indesiderati se non gestita correttamente.
“In linea di principio, l’IA potrebbe rappresentare una minaccia se venisse utilizzata per scopi nefasti o se non fosse sufficientemente controllata o regolamentata. Ad esempio, se un’IA potente finisse nelle mani sbagliate, potrebbe essere utilizzata per attaccare sistemi informatici, violare la privacy delle persone, diffondere disinformazione o provocare danni fisici.
“Inoltre, l’IA potrebbe anche presentare rischi indiretti, ad esempio se venisse utilizzata per creare armi autonome, oppure se sostituisse troppi posti di lavoro umani, causando disoccupazione di massa e instabilità sociale.
“Per evitare questi rischi, è importante che l’IA sia sviluppata in modo responsabile, con un’attenzione particolare alla sicurezza, alla privacy, all’etica e alla responsabilità sociale. Ciò implica la definizione di norme e standard per la progettazione e l’uso dell’IA, nonché la formazione e la sensibilizzazione delle persone sulle sue implicazioni e i suoi limiti.”