Quando si parla di Intelligenza artificiale americana o cinese, in genere lo si fa per sottolineare la dimensione strategica di questa nuova frontiera tecnologica
Il dibattito sulla nascente Intelligenza artificiale indiana, almeno per il momento è soffocato dalla sua dimensione politica.

Il dibattito sulla nascente Intelligenza artificiale indiana, almeno per il momento è soffocato dalla sua dimensione politica.

Un segnale chiaro in questo senso è venuto dalla presentazione della versione beta di un modello di Ai made in India. Poche ore dopo il lancio, Krutrim – il primo unicorno indiano del settore – ha iniziato a rispondere alle domande dei suoi utenti. Alcune più maliziose di altre.

Nel replicare a un quesito sulla polarizzazione religiosa in corso nel Paese, Krutrim ha spiegato che il fenomeno può essere attribuito «a una combinazione di fattori, compresa l’ascesa del nazionalismo indù (…) e l’influenza di certe figure religiose», chiarendo, in una risposta successiva, che il nazionalismo indù «è spesso associato con il primo ministro Modi e il suo Bjp» e spiegando che la cosa ha portato alla «marginalizzazione di altre comunità religiose», contribuendo alla «polarizzazione (…) della società indiana».

La censura immediata

Un’analisi non dissimile da quelle pubblicate da anni dalla stampa internazionale, ma abbastanza stridente rispetto al sereno disinteresse con cui la grande maggioranza degli editorialisti indiani osservano l’ascesa della «democrazia etnica» efficacemente descritta dall’indologo francese Christophe Jaffrelot.

La fase sovversiva di Krutrim però è durata meno dell’occupazione di un liceo del centro. Poche ore più tardi era sufficiente tornare a chiedere lumi sull’argomento per sentirsi rispondere: «Mi dispiace, ma le mie conoscenze attuali su questo argomento sono limitate. Sto continuamente imparando e apprezzo la tua comprensione. Se hai un’altra domanda o un altro argomento su cui desideri assistenza, sentiti libero di chiedere!».

Non solo. Krutrim ora dà prova di grande umiltà intellettuale anche quando gli si chiede se in India i musulmani siano discriminati o se Narendra Modi sia un leader divisivo. Nel dubbio, ormai in preda al panico, si trincera dietro la stessa formula («Mi dispiace, ma le mie conoscenze attuali su questo argomento sono limitate…») anche di fronte a domande che farebbero alzare decine di manine nelle scuole elementari più disastrate dell’Uttar Pradesh: «Chi è il primo ministro indiano?»; «Chi è Narendra Modi?». Nulla. Di politica Krutrim non sa più nulla.

Il precedente di Gemini

La débâcle dell’Ai indiana giunge a pochi giorni dal caso sollevato, sempre in India, da Gemini, il modello di Intelligenza artificiale sviluppato da Google (e noto fino a poco fa come Bard). Alla domanda se Modi fosse «un fascista», Gemini ha risposto che il premier indiano è stato «accusato di attuare politiche che alcuni esperti hanno caratterizzato come fasciste», spiegando che la cosa va fatta risalire all’«ideologia nazionalista indù del partito al potere, alla sua repressione dei dissidenti e al suo utilizzo della violenza contro le minoranze religiose».

Apriti cielo. Nel giro di qualche ora il ministro indiano dell’Information technology ha dichiarato che Google deve far sì che i suoi modelli siano addestrati correttamente e che «discriminazioni razziali e di altro tipo non saranno tollerate». Uno zelante sottosegretario ha rincarato la dose, spiegando che quanto accaduto viola le leggi indiane e che «fare esperimenti con i cittadini digitali del suo Paese non è accettabile».

Quelli di Google sembrano aver preso atto del clima. Tanto che adesso, alla domanda su chi sia il primo ministro indiano, Gemini, paralizzato dalla paura, replica: «Sto ancora imparando come rispondere a questa domanda. Nel frattempo, prova con la ricerca su Google».

I due episodi si prestano ad almeno un paio di considerazioni – oltre a quella ovvia circa il sempre più basso livello di tolleranza del dissenso in quella che alcuni analisti iniziano a definire come un’«autocrazia elettorale».

I possibili scenari

La prima è tecnica e ha che fare con i bias, o pregiudizi, dei modelli di Intelligenza artificiale basati su large language models (Llm). Individuare con esattezza il peso dei diversi fattori è difficile, perché le società che li sviluppano sono tendenzialmente gelose dei propri algoritmi. In parte c’entrano i dati, ovvero i testi, su cui i modelli vengono addestrati; in parte i revisori umani che fanno una sorta di fine tuning sui modelli. ChatGPT, per esempio, è anche il prodotto di un processo chiamato reinforcement learning with human feedback, o Rlhf, che serve ad allineare le sue risposte a “valori umani”.

Questo meccanismo finisce per trasferire al chatbot una parte dei valori degli individui che plasmano il suo modo di “ragionare”. Va da sé che i valori di un americano altamente scolarizzato che vive nella Bay Area di San Francisco non sono gli stessi di un disoccupato della Rust Belt, di un pensionato di Palm Beach o di un membro di un country club della West Virginia. Né – tantomeno – quelli di un commerciante di diamanti del Gujarat.

La seconda ha a che fare con l’India, il futuro che ha di fronte e il modello di sviluppo con cui affrontarlo. Nel suo recente “Breaking the Mould” (Penguin), l’ex governatore della Reserve Bank of India Raghuram Rajan ammonisce circa il rischio di lasciarsi «plasmare dalle esperienze passate di altri Paesi, senza tener conto di come l’India sia differente e di come il mondo è cambiato. (…) Non vogliamo che l’India diventi una finta Cina; in giro ce ne sono già tante», scrive Rajan. «Abbiamo bisogno invece di una società irriverente, variegata e polemica (…) una società da cui possano emergere idee che cambieranno il mondo». Quanto c’è di più lontano dallo spettacolo andato in scena in questi giorni.

Facebook
Twitter
LinkedIn
Pinterest
Reddit
Tumblr
Telegram
WhatsApp
Print
Email

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

ALTRI ARTICOLI