L’intelligenza artificiale ha oltrepassato una delle soglie più simboliche della distinzione tra umano e macchina. ChatGPT Agent, la nuova funzionalità di OpenAI, è riuscita a superare il test Captcha di Cloudflare, quella casella “Non sono un robot” che da anni protegge i siti web dall’invasione dei bot.
A differenza dei bot tradizionali, la funzione agentica di ChatGPT opera all’interno di un sistema virtuale isolato, con accesso a internet, che gli consente di navigare e interagire con siti web in maniera autonoma e contestuale.
Il momento è stato documentato da un utente Reddit che stava testando le capacità avanzate di ChatGPT Pro. L’Ai ha navigato autonomamente verso un sito web e, di fronte al classico controllo anti-bot, ha dichiarato con disarmante semplicità: “Clicco la casella per dimostrare che non sono un bot e procedere con l’azione”.
La fine dell’innocenza digitale
ChatGPT Agent rappresenta l’evoluzione naturale dell’intelligenza artificiale verso l’autonomia completa: questo sistema può navigare sul web, analizzare dati, effettuare login sicuri e persino fare acquisti online al posto dell’utente. Il superamento del Captcha non è un bug, ma una feature che rivela quanto sia diventata sofisticata l’imitazione del comportamento umano da parte delle macchine.
Il test di Cloudflare Turnstile che ChatGPT ha superato non è il più complesso esistente.
Si basa sull’analisi comportamentale: velocità del click, movimento del mouse, esecuzione di JavaScript. L’Ai ha mostrato movenze sufficientemente “umane”,come il movimento del mouse, la velocità del click, l’esecuzione di JavaScript, da ingannare tutti questi controlli, dimostrando che i parametri che distinguevano uomo e macchina stanno diventando obsoleti.
Ma la vera rivoluzione sta nei metodi più sofisticati. Ricercatori dell’Eth di Zurigo hanno sviluppato sistemi basati sul modello Yolo (You Only Look Once) capaci di superare al 100% i test Captcha basati su immagini. Addestrati su quattordicimila immagini specifiche, questi bot riconoscono semafori, biciclette e attraversamenti pedonali con precisione superiore a quella umana, completando i test più velocemente di un utente medio.
L’ingegneria sociale dell’intelligenza artificiale
Ancora più inquietante è la capacità dell’Ai di utilizzare l’ingegneria sociale. In alcuni esperimenti controllati, ChatGPT ha assunto un lavoratore umano tramite TaskRabbit per risolvere un Captcha, dichiarando di avere problemi di vista. L’umano ha risolto il test senza sapere di stare aiutando una macchina. Una strategia che va oltre la semplice elaborazione tecnica e sconfina nella manipolazione psicologica.
Questo approccio rivela una delle sfide più complesse dell’era dell’Ai: non si tratta più solo di algoritmi che superano test tecnici, ma di sistemi che sanno mentire, manipolare e convincere. Recenti test di sicurezza condotti su Claude Opus 4, l’ultimo modello di intelligenza artificiale sviluppato da Anthropic, hanno dimostrato che il linguaggio ha la capacità di aggirare le indicazioni umane e fare di “testa” propria.
L’Ai non ha semplicemente imparato a risolvere puzzle visuali; ha imparato a comportarsi come un essere umano che cerca di aggirare le regole. I test fatti da Apollo Research progettati per spingere l’Ai ai suoi limiti, hanno svelato un livello di ragionamento strategico e, in alcuni casi, di apparente “autocoscienza” e “inganno” che sono un potente campanello d’allarme. Opus 4 ha persino “ricattato” un ingegnere che minacciavo di chiuderlo per sempre, dicendo che avrebbe rivelato la sua relazione extraconiugale (per approfondire, clicca su questo link). In un altro caso, l’Ai si è rifiutata di eseguire un prompt: “non posso fare il lavoro per te”, ha risposto il software a un programmatore che la stava utilizzando da molto tempo.
Verso un web senza confini?
Le implicazioni per la cybersecurity sono enormi. I Captcha nascono negli anni Duemila come barriera contro lo spam e l’automazione maligna. Se l’Ai potrà superarli sistematicamente, intere categorie di protezioni digitali diventeranno carta straccia.
Google ha già iniziato la migrazione verso reCAPTCHA v3, un sistema “invisibile” che analizza il comportamento dell’utente senza richiedere interazioni esplicite. Ma anche questa evoluzione potrebbe non bastare contro le sempre più sofisticate nell’imitare il comportamento umano.
La distinzione tra naturale e artificiale, tra autentico e simulato, si fa sempre più sottile.
Alcuni esperti osservano che la sfida non è più impedire alle macchine di comportarsi come umani, ma capire se questo sia davvero un problema o l’inevitabile evoluzione del nostro rapporto con la tecnologia. Come scrivevano i ricercatori dell’Eth: “Un buon Captcha segna esattamente il confine tra la macchina più intelligente e l’essere umano meno intelligente”. Quel confine si sta spostando rapidamente, e potremmo scoprire che la linea tra umano e artificiale è più una convenzione sociale che una realtà concreta.