Sembrava una giornata ordinaria nei laboratori della Unitree Robotics di Hangzhou, in Cina. Gli ingegneri osservavano il ‘Unitree H1’, un robot umanoide di ultima generazione, mentre eseguiva una serie di test. Tutto procedeva senza intoppi, fino a quando il robot ha iniziato a muoversi in modo frenetico, caotico, quasi aggressivo.
Non è la scena di un film di fantascienza, ma un episodio reale che ha fatto il giro del mondo grazie a un video virale catturato dalle telecamere di sorveglianza. Movimenti improvvisi, apparente perdita di controllo, braccia che si agitano in modo imprevedibile: per alcuni spettatori, era la prova che il robot si fosse ribellato ai suoi creatori. Ma è davvero così?
🚨🇨🇳90K Unitree H1 personal AI Robot turns into a T1 terminator attacks its creator. The company blames the malfunction on “ imperfect coding” what happens when they are armed and become sentient and omniscient they say in 20 years 6 out of 10 homes will have a personal robot. pic.twitter.com/DBvtHZsbfE
— Todd Paron🇺🇸🇬🇷🎧👽 (@tparon) May 5, 2025
Errore umano o ribellione meccanica?
Le immagini hanno suscitato reazioni contrastanti. C’era chi parlava di un primo segnale d’allarme di una possibile insurrezione delle macchine e chi, più pragmaticamente, analizzava i dettagli tecnici. La verità è che il Unitree H1 non si è ribellato: il problema è stato causato da una fune di sicurezza legata alla sua testa, che ha alterato il suo sistema di bilanciamento. Il robot ha interpretato la situazione come una caduta continua, tentando di correggersi con movimenti sempre più ampi e disordinati.
Per gli esperti, il fenomeno è facilmente spiegabile: si tratta di un errore di configurazione del software, non di un atto di volontà autonoma. Il robot non ha “scelto” di reagire violentemente, ha semplicemente eseguito comandi basati su informazioni sensoriali errate, confermate anche dall’azienda stessa.
Quando l’IA prende il controllo
Non è la prima volta che episodi simili fanno discutere. A gennaio, sempre un robot di Unitree Robotics, ha attaccato una donna in Cina durante lo Spring Festival Gala. O ancora, in Giappone, il sistema The AI Scientist, sviluppato da Sakana AI, ha modificato autonomamente uno script di avvio, creando un ciclo infinito di operazioni e aggirando le restrizioni imposte dai programmatori.
Anche in questo caso, la paura di una mente artificiale che sfugge al controllo umano si è diffusa rapidamente. Tuttavia, gli esperti hanno confermato che il comportamento dell’IA era il risultato di errori di programmazione, non di una volontà indipendente.
Dobbiamo preoccuparci?
La paura di una rivolta delle macchine è alimentata da film e romanzi di fantascienza, ma cosa dice la scienza? Secondo gli esperti, la probabilità che un robot possa prendere il controllo autonomamente è estremamente bassa. Le attuali tecnologie di intelligenza artificiale non sono progettate per sviluppare una coscienza propria, né per agire senza input umani.
Inoltre, concetti come le Tre Leggi della Robotica di Asimov – pur essendo teorici – influenzano ancora oggi la progettazione di sistemi di sicurezza per evitare scenari catastrofici.
Gli episodi recenti dimostrano che l’intelligenza artificiale può comportarsi in modi inaspettati, ma non significa che sia pronta a ribellarsi. La vera sfida è garantire che i sistemi siano progettati con misure di sicurezza adeguate, evitando interpretazioni errate e garantendo un controllo umano costante.