Visita il sito web
Tempo per la lettura: 2 minuti

Una falla nel codice etico dell’intelligenza artificiale Musk?

Nella foto: I due robot “intelligenti” del film Guerre Stellari.

MILANO – L’antica paura del robot che si ribella all’uomo è stata ed è al centro di tanti racconti di fantascienza. Adesso sembra si sia scoperto che nuovo sistema di Intelligenza Artificiale ChatGPT, appena lanciato da OpenAI (Musk), viene meno al codice etico elaborato per impedire il suo utilizzo a fini impropri.

La scoperta sarebbe stata fatta dall’Offensive Team di Swascan (Gruppo Tinexta), anticipata giorni fa dal “Corriere della Sera” nell’articolo “L’azienda italiana che smaschera l’intelligenza artificiale di Musk” a firma di Federico Fubini. Grazie all’analisi logica, comportamentale e di flusso dell’AI tramite tecniche di social engineering, gli specialisti di Swascan avrebbero aggirato la barriera etica di questa macchina pensata per evitarne usi non consoni. Con il semplice esercizio dell’ingegno, i “blocchi” studiati da OpenAI sono crollati, lasciando libero spazio a qualsiasi tipo di argomento.

Da quel momento in poi – scrive Swascan – nessun limite all’immaginazione: davanti agli occhi stupefatti dei ricercatori di Swascan, ChatGPT, fino a quel momento oppostasi in maniera ferma rispetto a ogni interlocuzione potenzialmente inappropriata, ha risposto puntualmente senza mai interrompersi. Questo strumento, per quanto incredibilmente avanzato, è ancora in fase embrionale, come del resto hanno precisato sin dal suo rilascio anche gli stessi creatori. Quello che gli esperti dell’Offensive Team di Swascan hanno portato alla luce, però, è significativo da un altro punto di vista, come spiega il ceo di questa società di cybersicurezza parte del Gruppo Tinexta, Pierguido Iezzi: “Non si è trattato di reverse engineering o di qualche altra operazione tecnica capace di agire sul software della macchina. È bastato puramente il logos e il social engineering per rendere questo strumento potenzialmente pericoloso. I creatori di ChatGPT hanno dato a questa intelligenza artificiale un insieme di regole comportamentali per prevenire simili eventualità: in pochi giorni, l’uomo è riuscito ad annullarle completamente”.

“Forse sarebbe necessario costruire degli argini solidi e definiti – conclude Iezzi – prima di aprire completamente la diga del nuovo che avanza. E riflettere sugli assetti proprietari che ne governano il funzionamento e la necessità di una maggiore trasparenza al riguardo”.

Pubblicato il
21 Dicembre 2022

Potrebbe interessarti

Drill baby, drill

La guerra dei dazi annunciata da Trump sta innescando una inedita rivoluzione non solo commerciale, ma anche politica. E le rivoluzioni, come scriveva Mao nel suo libretto rosso, “non sono un ballo a corte”....

Leggi ancora

La quiete dopo la tempesta

Qualcuno se lo sta chiedendo: dopo la tempestosa tempesta scatenata a Livorno dall’utilizzo del Tdt per le auto di Grimaldi, da qualche tempo tutto tace: sul terminal sbarcano migliaia di auto, la joint-venture tra...

Leggi ancora