Aumenterà le disuguaglianze: dall’Fmi a Bill Gates, tutti gli appelli sull’intelligenza artificiale

Ma il Fondo sconsiglia di introdurre una tassa specifica sull’Ai
26 Giugno 2024
5 minuti di lettura
Ai robot misura febbre a una anziana donna

Il Fondo monetario internazionale (Fmi) allerta le istituzioni sulla intelligenza artificiale: c’è il rischio che questa tecnologia, sempre più presente nei meccanismi produttivi, aumenti le disuguaglianze sociali.

Per evitare questa esternalità negativa dell’AI, l’Fmi indica ai governi tre linee d’azione:

  • Rafforzare le reti di sicurezza sociale;
  • Aumentare gli investimenti in istruzione;
  • Riformare i sistemi fiscali.

Queste misure sono considerate cruciali per sostenere i lavoratori durante la transizione verso l’Ai e mitigare le disuguaglianze che potrebbero emergere.

Rafforzare le reti di sicurezza sociale implica migliorare e ampliare i sistemi e i programmi che forniscono supporto economico e protezione ai lavoratori, specialmente nei momenti di difficoltà economica o sociale. Quindi, il primo punto significa anche dare assistenza a coloro che perdono il lavoro a causa dell’automazione. I governi devono aiutare queste persone a trovare nuove opportunità lavorative attraverso sussidi di disoccupazione e programmi di riqualificazione.

Anche i sistemi fiscali possono contenere l’allargamento delle differenze sociali. Ad esempio, implementare politiche fiscali più progressive può far in modo che le nuove entrate fiscali siano utilizzate per migliorare i servizi pubblici e i programmi di assistenza sociale.

Opportunità e sfide dell’Ai

Era Dabla-Norris e Ruud De Mooij, vicedirettori del Dipartimento Affari Fiscali dell’Fmi, hanno evidenziato come la nuova tecnologia dell’Ai stia trasformando settori a livello globale, con un potenziale significativo per aumentare la produttività e migliorare i servizi pubblici.

Accanto alla protezione sociale, programmi di formazione settoriale, apprendistato e riqualificazione saranno essenziali per preparare i lavoratori all’era dell’Ai. Questi programmi aiuterebbero a mantenere la forza lavoro competitiva e pronta ad affrontare le nuove sfide tecnologiche.

Tassazione e investimenti

Nonostante queste premesse, il Fondo sconsiglia l’introduzione di una tassa specifica sull’Ai, poiché potrebbe rallentare gli investimenti e l’innovazione, limitando i potenziali incrementi di produttività. Invece, i funzionari dell’Fmi propongono un rafforzamento delle imposte sui redditi da capitale per proteggere la base imponibile e contrastare l’aumento delle disuguaglianze di ricchezza. Un aumento delle entrate pubbliche sarà necessario per finanziare maggiori investimenti nell’istruzione e nella spesa sociale, che servono a massimizzare i benefici di questa nuova tecnologia.

Collaborazione internazionale

Lo scenario internazionale sull’Ai ricorda quello delle auto elettriche. Anche in questo caso, infatti, non basta che ci siano delle regole, ma occorre che tutti i Paesi seguano gli stessi principi. Il rischio è che si generi una concorrenza sleale che, per quanto riguarda le auto green, sta già alimentando la tensione Ue-Cina

L’Fmi sottolinea l’importanza della cooperazione tra i Paesi per evitare che le disuguaglianze sociali si accentuino a causa del progresso tecnologico. Le decisioni dei responsabili politici, ammonisce il Fondo, avranno un impatto significativo sull’evoluzione dell’Ai nei prossimi decenni.

Gli altri appelli sull’intelligenza artificiale

A dispetto del clamore che su questa nuova tecnologia ha una vita molto giovane, gli appelli per una equa integrazione dell’Ai nella società si moltiplicano da anni. Alcuni, arrivano anche da chi ha interessi enormi nello sviluppo di questa tecnologia.

Unione Europea

Già nel 2019, la Commissione Europea ha pubblicato delle linee guida etiche per l’uso dell’intelligenza artificiale -, mirate a garantire che lo sviluppo e l’applicazione dell’Ai rispettino i diritti fondamentali e promuovano il benessere sociale. Le linee guida si concentrano su sette requisiti chiave:

  1. Azione e supervisione umana: l’Ai deve essere controllata dall’uomo;
  2. Robustezza e sicurezza: deve essere sicura e affidabile;
  3. Privacy e governance dei dati: i dati personali devono essere protetti;
  4. Trasparenza: i sistemi di Ai devono essere comprensibili;
  5. Diversità, non discriminazione ed equità: l’Ai deve evitare pregiudizi e discriminazioni;
  6. Benessere sociale e ambientale: deve essere garantita una redistribuzione della ricchezza e l’energia utilizzata deve rispettare i criteri di sostenibilità;
  7. Responsabilità: devono esserci meccanismi per affrontare i danni causati dall’Ai e rintracciare i responsabili dei contenuti.

Le linee guida mettono in guardia sul fatto che l’IA potrebbe aumentare le disuguaglianze se non regolamentata adeguatamente, e sottolineano l’importanza di uno sviluppo etico e trasparente dell’IA perseguito recentemente dal Non sono per niente ottimista.

Nazioni Unite

L’Alto Commissario delle Nazioni Unite per i Diritti Umani ha espresso preoccupazioni riguardo all’uso dell’IA, specialmente in aree che potrebbero minacciare i diritti umani come la sorveglianza di massa e la profilazione algoritmica. Nel 2021, Michelle Bachelet, l’Alto Commissario, ha richiesto una moratoria sull’uso della tecnologia IA che presenta rischi elevati per i diritti umani, come i sistemi di riconoscimento facciale, fino a quando non saranno implementate adeguate salvaguardie. La preoccupazione è che tali tecnologie possano essere usate per violare la privacy (ne abbiamo parlato con Guido Scorza), perpetuare pregiudizi e discriminazioni, e limitare le libertà fondamentali.

Elon Musk

Anche Elon Musk, fondatore di Tesla e SpaceX, ha spesso parlato dei rischi esistenziali dell’intelligenza artificiale. In numerose occasioni, il magnate ha dichiarato che l’Ai avanzata potrebbe rappresentare una delle più grandi minacce per l’umanità, paragonandola addirittura ad una “invocazione del demonio”. Musk ha sostenuto la necessità di regolamentazioni proattive per garantire che l’Ai venga sviluppata in modo sicuro e responsabile investendo nella ricerca sulla sicurezza dell’IA attraverso OpenAi, società che ha scoperto il Vaso di Pandora con il rilascio di ChatGPT.

Recentemente, il padre di Tesla ha espresso una posizione molto meno catastrofista sul tema, dicendo che con l’intelligenza artificiale “Non sono per niente ottimista“ e “dovremo dare un nuovo significato alla vita”.

Sam Altman

A proposito di Open Ai, persino il Ceo Sam Altman ha evidenziato i potenziali rischi dell’IA, inclusa la possibilità che possa essere utilizzata per fini malevoli. Altman ha allertato i governi: senza adeguate misure di sicurezza, le conseguenze di questa tecnologia potrebbero essere devastanti. Per questo, il Ceo della società leader nello sviluppo di questa tecnologia ha sottolineato la necessità di un’ampia collaborazione tra governi, aziende e ricercatori per sviluppare linee guida e regolamenti che ne garantiscano un utilizzo etico e sicuro.

Stephen Hawking

Il novero di coloro che mettono in guardia sull’Ai è molto ampio. Il celebre fisico teorico Stephen Hawking, già nel 2014 sintetizzava splendidamente la questione sull’Ai: potrebbe essere sia la migliore invenzione dell’umanità che la peggiore.
Per lo scienziato il rischio maggiore è che l’intelligenza artificiale avanzata potrebbe agire in modi che superano la capacità di controllo umano, mettendo a rischio l’esistenza stessa dell’umanità. Per questo, già dieci anni Hawking sottolineava l’importanza di sviluppare misure di sicurezza rigorose e una governance globale per prevenire scenari catastrofici, dichiarando che “lo sviluppo di una piena intelligenza artificiale potrebbe significare la fine della razza umana

Bill Gates e Salvatore Aranzulla sui posti di lavoro

Bill Gates ha avvertito che l’automazione e l’IA potrebbero eliminare molti posti di lavoro, creando una necessità urgente di ridistribuire le risorse e riqualificare la forza lavoro. Il papà di Microsoft ha proposto l’idea di tassare i robot, e quindi le relative aziende, che sostituiscono i lavoratori umani per finanziare programmi di riqualificazione e supporto sociale. Anche per lui, quindi, gli effetti di questa tecnologia possono essere eccezionalmente positivi o eccezionalmente negativi: tutto dipenderà dalla capacità delle istituzioni di redistribuire la ricchezza che verrà generata.

Salvatore Aranzulla condivide l’allerta sui posti di lavoro. Ospite del podcast Bsmt di Gianluca Gazzoli, il noto esperto di coding ha detto che questa tecnologia rende inutili oltre il 90% dei lavori che attualmente facciamo “Bisognerà dare uno scopo a chi si sveglia la mattina. Io oggi porto avanti la mia famiglia e il mio lavoro, risolvo i problemi della sera prima, cresco mia figlia. Se la metà di ciò non dovesse più esistere che scopo avrò la mattina? Non sono per niente ottimista. Finirà male”.

Gli ultimi articoli

Da non perdere