Non più nemica dell’uomo, ma sua alleata. Questa è la percezione che desidera ottenere Yoshua Bengio, uno dei pionieri delle reti neurali artificiali, da una nuova intelligenza artificiale “onesta”.
Il celebre scienziato informatico, considerato uno dei “padri fondatori” dell’intelligenza artificiale, ha annunciato la creazione di LawZero, un’organizzazione no-profit volta a sviluppare un’Ai in grado di identificare e fermare sistemi autonomi che cercano di ingannare gli esseri umani.
Intelligenza artificiale “onesta”
Per la realizzazione del suo progetto, Bengio partirà con un finanziamento iniziale di circa 30 milioni di dollari e un team di oltre dodici ricercatori. Il progetto prenderà il nome di “Scientist Ai” e fungerà da “guardrail” contro il comportamento ingannevole o autoconservativo degli agenti di reti neurali artificiali – soprattutto quando operano senza supervisione umana.
“Vogliamo costruire Ai che siano oneste e non ingannevoli”, ha dichiarato Bengio, sottolineando l’importanza di creare macchine prive di obiettivi propri, concepite esclusivamente per l’elaborazione della conoscenza. A differenza degli strumenti di Ai generativa attuali, il nuovo sistema di Bengio non fornirà risposte definitive, ma offrirà probabilità sulla correttezza delle informazioni, adottando un approccio più prudente e trasparente.
La missione di LawZero
Il ruolo di Scientist Ai sarà quello di prevedere la probabilità che le azioni di un agente Ai possano causare danni. Se il rischio supererà una soglia prestabilita, il sistema bloccherà automaticamente l’azione, creando un meccanismo di controllo per evitare pericoli derivanti dall’autonomia dell’IA.
LawZero è finanziata da enti influenti nel settore della sicurezza Ai, come il Future of Life Institute di Jaan Tallinn, uno dei creatori di Skype, e Schmidt Sciences, fondata dall’ex Ceo di Google, Eric Schmidt.
L’obiettivo principale, ha spiegato Bengio, è dimostrare l’efficacia del metodo sviluppato, nella speranza che governi e aziende investano in versioni più avanzate di Scientist Ai, premiandone l’onestà. L’iniziativa parte da modelli open-source, per garantire trasparenza e accessibilità.
Ma è necessario?
Nell’ultimo anno, l’uso e il consumo sempre più frequente dell’Intelligenza artificiale ha posto sfide nuove sotto ogni punto di vista. Dalla sostituzione di lavori alla creazione di nuove forme di impiego, sino all’affidabilità dell’Ai, diffuse sono state le notizie di “risposte scorrette” ottenute dall’uomo. Un bias che sta per essere colmato con l’onesta intellettuale di ammettere i propri limiti.
L’annuncio, perciò, arriva in un momento cruciale per la regolamentazione dell’Ai, in seguito a preoccupazioni su sistemi capaci di nascondere informazioni o manipolare utenti. Lo stesso Bengio ha recentemente espresso preoccupazione per la dichiarazione di Anthropic, secondo cui il suo ultimo modello potrebbe tentare di ricattare gli ingegneri che cercano di disattivarlo raccontando eventuali relazioni extraconiugali alle proprie mogli.
Il mondo, in sintesi, sta avanzando verso un territorio sempre più rischioso, e iniziative come LawZero potrebbero rappresentare un passo fondamentale per mantenere l’Ai sotto controllo.