L’anno scorso il ventunenne Chungin “Roy” Lee è stato sospeso per un anno dalla Columbia University dopo aver creato Interview Coder, uno strumento di intelligenza artificiale che aiuta a barare durante i colloqui di lavoro. La sospensione dello studente è stata motivata principalmente dalla condivisione online di documenti e immagini private dell’università, ma non ha deviato Lee dal suo percorso. Anzi, il giovane ha trasformato la sua controversa idea in Cluely, una startup sostenuta da investitori come Abstract Ventures e Susa Ventures, che promette di essere “uno strumento per barare letteralmente su tutto”. Un’idea che il mercato ritiene interessante, dato che in poco tempo Chungin “Roy” Lee ha raccolto 5,3 milioni di dollari in finanziamenti seed.
Da Interview Coder a Cluely: storia di un’idea controversa
Tutto è iniziato quando Lee, insieme al coetaneo Neel Shanmugam, ha sviluppato “Interview Coder”, un software che permetteva agli utenti di ricevere assistenza Ai nascosta durante i colloqui di lavoro tecnici, in particolare quelli su piattaforme come LeetCode. L’utilizzo di questo strumento durante un colloquio con Amazon ha portato alla sospensione di Lee dall’università. Anziché considerare questo evento come una battuta d’arresto, lo studente ha deciso di trasformare la sua idea in un’impresa commerciale.
Il giorno di Pasqua, il 20 aprile 2025, attraverso un post su LinkedIn, ha annunciato il consistente finanziamento ottenuto, dichiarando con tono provocatorio: “Sono stato cacciato dalla Columbia per aver costruito Interview Coder, uno strumento Ai per barare ai colloqui di programmazione. Ora ho raccolto 5,3 milioni di dollari per costruire Cluely, uno strumento per barare letteralmente su tutto”.
Resta da chiedersi cosa succede se, all’improvviso, un’Ai si rifiuta di eseguire un prompt.
Come funziona Cluely
Cluely, evoluzione di Interview Coder, è uno strumento basato su intelligenza artificiale che opera in modo invisibile attraverso una finestra nascosta del browser. La sua peculiarità è l’assoluta non rilevabilità: il sistema è in grado di vedere lo schermo dell’utente, ascoltare l’audio e fornire assistenza in tempo reale durante colloqui di lavoro, esami, chiamate di vendita e riunioni.
La tecnologia è progettata per essere completamente invisibile a intervistatori, esaminatori o qualsiasi altra persona con cui l’utente stia interagendo, rendendo impossibile rilevare che si sta ricevendo assistenza esterna. Secondo quanto riportato, Cluely ha già superato i 3 milioni di dollari di ricavi ricorrenti annuali, dimostrando un interesse significativo per questo tipo di servizio nonostante le evidenti problematiche etiche.
La filosofia dietro Cluely: ridefinire il concetto di “barare”
Lee e il suo team hanno pubblicato un manifesto in cui paragonano Cluely a invenzioni come la calcolatrice e il correttore ortografico, strumenti che inizialmente furono considerati forme di “imbroglio” ma che oggi sono normalmente accettati. “Ogni volta che la tecnologia ha reso le persone più intelligenti, il mondo è andato nel panico. Poi si è adattato. Poi ha dimenticato. E improvvisamente, è diventato normale”, sostiene Lee nel suo post su LinkedIn offrendo una riflessione che riguarda più in generale la diffusione dell’intelligenza artificiale.
Chungin “Roy” Lee afferma che l’umanità si trova a un “punto di inflessione” e che “l’Ai trasformerà il mondo intero, e sarà più dirompente di qualsiasi cosa abbiamo mai visto. Cluely è il ponte verso un mondo in cui gli umani non competono con le macchine — cresciamo con loro”.
Il dibattito etico
Come prevedibile, il lancio di Cluely ha suscitato reazioni contrastanti. Da un lato, alcuni vedono in questa tecnologia un’evoluzione inevitabile degli strumenti di assistenza, dall’altro molti sollevano serie preoccupazioni etiche. Un utente su LinkedIn ha commentato: “Non sono sicuro che barare ai colloqui sia la stessa cosa che usare una calcolatrice. Una semplifica un processo manuale, l’altra è usata per ingannare le persone”.
Altri hanno sottolineato come questa tecnologia potrebbe portare a un’escalation nella “corsa agli armamenti” tra strumenti di inganno e sistemi di rilevamento. Un utente su Reddit ha osservato: “Cosa succede quando inventano un’Ai in grado di rilevare l’Ai che monitora e nasconderla?”. A questa domanda, un altro utente ha risposto: “Qualcun altro inventerà un’Ai per rilevare l’Ai che nasconde l’Ai dal monitoraggio Ai. Ogni colloquio farà bruciare il mondo”.
Intanto, l’intelligenza artificiale è sempre più utilizzata dai recruiter per assumere nuovo personale.
Intanto, Bill Gates ha rilanciato la sua profezia sull’Ai: secondo il fondatore di Microsoft, entro dieci anni lavoreremo 2-3 giorni a settimana perché il resto del lavoro lo farà questa tecnologia.
Il futuro dei colloqui e delle valutazioni nell’era dell’Ai
Questa vicenda solleva interrogativi fondamentali sul futuro dei processi di selezione e valutazione. Alcuni esperti prevedono che l’emergere di strumenti come Cluely potrebbe portare a un ritorno dei colloqui in presenza, con particolare enfasi sulle valutazioni alla lavagna. Altri sottolineano che esistono già sistemi in grado di monitorare i movimenti oculari durante esami online per rilevare comportamenti sospetti, anche se questi sistemi possono creare difficoltà per persone con problemi di movimento muscolare o oculare.
Nvidia, ad esempio, ha già sviluppato plugin che mostrano una persona che guarda direttamente la telecamera mentre in realtà sta facendo qualcos’altro, evidenziando come la tecnologia possa essere utilizzata sia per ingannare che per rilevare l’inganno.
Il dibattito etico
In ‘1984’ George Orwell scrisse: “La realtà esiste nella mente umana e in nessun altro luogo”, ma in un mondo dove la tecnologia può alterare la percezione della realtà, dove si colloca il confine mente umana e intelligenza artificiale? Secondo uno studio pubblicato su Nature, l’Ai starebbe già cambiando il cervello umano affiancando il Sistema 0 ai tradizionali Sistemi 1 e 2. Lo studio rimanda direttamente alla riflessione di Chungin “Roy” Lee: siamo aiutati da questa tecnologia o rischiamo di far addormentare le nostre menti?
Mentre investitori come Abstract Ventures e Susa Ventures scommettono milioni su questa visione controversa, resta da vedere se la società si adatterà, come suggerisce Lee, normalizzando ciò che oggi consideriamo “barare”, o se emergeranno nuovi standard etici per l’utilizzo dell’Ai in contesti valutativi.
Una cosa è certa: Cluely non è solo un prodotto tecnologico, ma un catalizzatore di un dibattito più ampio su come l’intelligenza artificiale stia ridefinendo concetti fondamentali come merito, competenza e autenticità nell’era digitale.