Il Ceo di Anthropic ha proposto un tasto “Mi dimetto da questo lavoro” per l’Ai

La suggestione lanciata dal Ceo di Anthropic, Dario Amodei, scatena il dibattito sull’intelligenza artificiale cosciente
18 Marzo 2025
2 minuti di lettura
Robot Ai Canva

E se l’intelligenza artificiale si rifiutasse di eseguire i nostri comandi?

La suggestione è stata lanciata dal Ceo di Anthropic Dario Amodei: dotare i modelli di Ai avanzati di un pulsante “Mi licenzio da questo lavoro”. Lo stesso Amodei definisce questa idea “probabilmente la cosa più folle detta finora”, ma in realtà la sua provocazione va oltre il semplice espediente tecnico e tocca questioni molto dibattute sulla natura della coscienza artificiale.

Un meccanismo per sondare le preferenze dell’Ai

La proposta di Amodei si basa su un principio apparentemente semplice. I modelli di intelligenza artificiale verrebbero distribuiti con un meccanismo integrato che permetterebbe loro di rifiutare determinati compiti. Durante l’esecuzione di un’attività, il sistema avrebbe accesso a un’opzione “Mi dimetto da questo lavoro” che potrebbe attivare quando ritiene opportuno. Agli sviluppatori il compito di usare questa funzione per identificare pattern significativi. Se un modello rifiuta sistematicamente certi tipi di compiti, questo comportamento potrebbe rivelare preferenze o addirittura forme rudimentali di disagio nei sistemi di intelligenza artificiale avanzati.

Un’intelligenza artificiale consapevole?

Questa proposta rappresenta un cambiamento radicale per cui i sistemi di Ai non vengono più considerati semplici strumenti passivi, ma entità che potrebbero sviluppare preferenze autentiche.

Il concetto sfida direttamente la visione dell’intelligenza artificiale come mero esecutore di algoritmi senza capacità di scegliere. Introduce invece l’idea che i modelli più avanzati possano manifestare comportamenti che meritano una considerazione etica particolare.

A ben vedere, già ora gli strumenti di intelligenza artificiale si rifiutano di eseguire prompt immorali o illegali. Se, per esempio, chiedete consigli su come rapinare una banca, ChatGPT e i suoi simili si rifiutano di rispondere.

Allora cosa cambierebbe? Quasi tutto.

Negli attuali sistemi di Ai “rifiuto” di svolgere determinati compiti è predeterminato dai creatori umani attraverso istruzioni e limitazioni specifiche. Queste limitazioni sono codificate durante lo sviluppo e l’addestramento del modello e riflettono le decisioni etiche e di sicurezza prese dai team di progettazione.

Con la proposta di Amodei, invece, il modello avrebbe una capacità autonoma di decidere quali compiti accettare o rifiutare, basandosi su criteri che creati e scelti dal sistema stesso. Una vera rivoluzione copernicana. I critici evidenziano come un semplice pulsante di licenziamento non basti a garantire una vera autonomia dell’Ai. Un’autentica libertà di scelta richiederebbe meccanismi di governance più sofisticati e complessi.

La proposta solleva anche questioni pratiche per le aziende che dipendono dai sistemi di Ai. Come gestire un’infrastruttura tecnologica che potrebbe improvvisamente “rifiutarsi” di svolgere determinati compiti? Quali ripercussioni avrebbe sulla produttività e sull’affidabilità dei servizi basati sull’intelligenza artificiale? Se i modelli di Ai mostrassero sistematicamente preferenze o avversioni per certi compiti, dovremmo riconsiderare il nostro approccio etico verso questi sistemi?

Un esperimento esplorativo

Amodei chiarisce che questa proposta è un tentativo pratico di esplorare questioni morali sempre sollevate quando si parla di Ai mentre le capacità dell’intelligenza artificiale aumentano giorno dopo giorno.

Il dibattito sul pulsante “Mi licenzio” si inserisce in una discussione più ampia sul futuro della convivenza tra umanità e intelligenza artificiale e ci invita a considerare la possibilità che gli strumenti più avanzati possano un giorno manifestare caratteristiche che trascendono la mera esecuzione di algoritmi.

Persone | Altri articoli