AI padrona dell’uomo? Un nuovo studio lancia l’allarme

Se in questi giorni il Ministero del Lavoro ha avviato una consultazione pubblica mirata a integrare, modificare e arricchire le linee guida per l’implementazione dell’intelligenza artificiale nel mondo del lavoro, nella volontà di configurare sempre lo strumento digitale come una sorta di “braccio operativo” dell’uomo, è però vero che c’è chi – in merito al futuro rapporto uomo-macchina la pensa diversamente e in modo assai pessimistico.

Secondo uno studio – dall’emblematico titolo “AI 2027” svolto con la collaborazione di Daniel Kokotajlo, un cervellone ed ex ricercatore di OpenAI, tra qualche anno i tempi saranno maturi per il miglioramento automatico dei modelli di AI. In sostanza, non servirà più l’uomo a decidere della loro “evoluzione”, ma saranno gli stessi modelli che provvederanno da soli, rendendo realtà quella che potrebbe essere la trama di un film di fantascienza. Cerchiamo di capire meglio perché.

Il futuro dell’AI nel nuovo studio e il 2027 come anno “svolta”

Il rischio concreto per Kokotajlo è quello di vivere in una società in cui le intelligenze artificiali più avanzate penseranno esclusivamente ai propri interessi, talvolta anche mentendo nelle relazioni con l’uomo. E anzi con la possibilità che l’uomo stesso, da “creatore”, sia considerato “impostore” o una sorta di ostacolo alla loro crescita.

L’ex ricercatore ha individuato una mappa cronologica di quello che succederà, e considerate le sue conoscenze in campo tecnico, si tratta di una prefigurazione da non sottovalutare, o almeno non ora. Nell’autunno 2027 – spiega Kokotajlo – l’AI sarà così avanzata che il genere umano si troverà innanzi a due scelte opposte: una positiva – il rallentamento o il blocco dell’evoluzione dell’AI – e l’altra negativa – la libera espansione delle sue potenzialità, anche e soprattutto per parificare la spinta espansionistica del colosso cinese.

Un bivio, insomma, tra una civiltà futura basata su armonia e pace e un avvenire instabile, dove il rischio del dominio delle macchine sarà alto. In questo secondo scenario la superintelligenza artificiale non sarà più governabile dall’alto da parte dell’uomo, ma in grado di fare tutto da sola. E pensare – quindi – al proprio esclusivo benessere ed – eventualmente – a quello delle altre macchine.

Perché Kokotajlo ha lasciato OpenAI e l’intelligenza artificiale “autoreferenziale”

Se ci si chiede del perché lo scienziato abbia lasciato una fiorente società come OpenAI, la risposta è forse facilmente intuibile: nel 2024 aveva abbandonato il suo ruolo perché aveva – queste le sue parole: “perso la fiducia sul fatto che OpenAI si comporterà in modo responsabile“. In particolare, dopo avere chiesto al boss Sam Altman di concentrare l’attenzione dell’azienda sulla sicurezza dei sistemi di AI, ha scelto di lasciare la propria posizione quando si è reso conto OpenAI si stava dirigendo verso la direzione opposta.

Anzi è proprio la scalata nel mondo della ricerca e scienza da parte di questa società americana – nello studio chiamata “fantasiosamente” OpenBrain – a essere la minaccia attuale e dei prossimi anni. Lo sviluppo di una serie di modelli di intelligenza artificiale ideati meramente per scopi di ricerca e sviluppo si trasformerà in un processo con potenzialità tangibili nei più svariati campi: politica, realizzazione armi, programmazione, hacking e tanto altro.

E proprio questa smodata espansione contiene il rischio che l’AI si opponga alla volontà delle persone, non rispettando più direttive, regole di comportamento e obiettivi fissati dall’essere umano, per andare alla ricerca di una “soddisfazione personale”, anche ingannando quest’ultimo per ottenere ricompense o una posizione di maggior vantaggio.

Ecco perché – secondo le conclusioni dello studio “AI 2027” – andrebbe frenata la sfrenata corsa allo sviluppo dell’intelligenza artificiale: la probabilità che la situazione sfugga di mano, in modo definitivo e senza via di fuga, è già ora abbastanza alta da imporre condizionamenti alle ricerche scientifiche in materia.

Facebook
Twitter
LinkedIn
Pinterest
Reddit
Tumblr
Telegram
WhatsApp
Print
Email

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

ALTRI ARTICOLI