Il deepfake prima dell’Ai: quel famoso video di Beckham era reale?

La possibilità di fare video fake, che sembrano reali, arrivò ben prima di ChatGpt
5 Dicembre 2025
2 minuti di lettura
David Beckham video spiaggia fi
Uno screenshot del video che mostra David Beckham centrare tre cestini senza mai sbagliare

Nel 2011 un video mostrava David Beckham che, su una spiaggia californiana, calciava tre palloni in tre cestini diversi e non sbagliava neanche un colpo, nonostante la notevole distanza dagli obiettivi.

Il filmato, che in realtà era uno spot pubblicitario per Pepsi, scatenò un dibattito feroce: era tutto vero o si trattava di un trucco digitale sofisticato? L’intelligenza artificiale generativa non esisteva ancora, eppure milioni di spettatori gridarono al falso. Quel dibattito, che oggi ricordiamo con un sorriso, rappresenta una finestra privilegiata su come sia cambiata la nostra percezione della manipolazione video – e su quanto fossimo vulnerabili già prima dell’era dei deepfake.

Cosa mostra quel video e perché fece discutere

Lo spot dura 69 secondi: Beckham, scalzo sulla sabbia e con una lattina di Pepsi in mano, viene sfidato da un operatore dietro la telecamera a colpire tre bidoni della spazzatura distanti. Uno dopo l’altro, i palloni descrivono traiettorie improbabili e centrano i bersagli. Il video superò rapidamente i 2 milioni di visualizzazioni su YouTube, ma molti commentatori si dissero certi che si trattasse di “un tremendo trucco tecnico”. La leggenda inglese del calcio giurò il contrario. Intervistato dal Toronto Star, Beckham assicurò che le prodezze erano “reali al 100%”, aggiungendo: “Ho passato cinque o sei ore sulla spiaggia, avevo molto tempo per esercitarmi”.​​

Gli strumenti del fake prima dell’Ai

Ma quali erano gli strumenti a disposizione quattordici anni fa, ben prima che OpenAi rilasciasse presentasse al pubblico ChatGpt 3-5 (30 novembre 2022) infiammando la corsa dell’intelligenza artificiale generativa?

Nel 2011, manipolare un video richiedeva competenze tecniche elevate e software professionali. L’arsenale a disposizione comprendeva compositing digitale (sovrapposizione di elementi generati al computer su riprese reali), rotoscoping (ritaglio manuale fotogramma per fotogramma), motion tracking e match-moving (ricostruzione tridimensionale del movimento della telecamera per inserire oggetti di Computer graphic animation coerenti con la scena). Programmi come Adobe Premiere, After Effects, Final Cut Pro e Autodesk Maya erano già strumenti standard nell’industria cinematografica e pubblicitaria.​​

Un’analisi dettagliata del video – condotta anni dopo da Captain Disillusion, celebre debunker su YouTube – ha smontato pezzo per pezzo le dichiarazioni di Beckham. Stabilizzando il filmato e ricostruendo la geometria tridimensionale della scena, l’esperto ha evidenziato numerose incongruenze: ritardi nel suono non coerenti con la distanza percorsa dai palloni, traiettorie che cambiano improvvisamente direzione, anomalie nel motion blur e la presenza di una palla rimossa digitalmente dalla sabbia nei fotogrammi finali. “La vera sfera deve essere finita a destra del cestino – e là, negli ultimi secondi del video, si intravede una macchia scura che non dovrebbe esserci”, spiega lo Youtuber.

La svolta “deepfake” del 2014

Eppure, credere che il deepfake sia una “trovata” degli ultimi tre anni è un errore.

La svolta arrivò già nel 2014, quando Ian Goodfellow e il suo team introdussero le Generative Adversarial Networks (Gan), architetture neurali capaci di generare immagini e video sintetici sempre più realistici. Tre anni dopo, nel settembre 2017, un utente Reddit col nickname “deepfake” pubblicò i primi video manipolati con l’intelligenza artificiale, scambiando volti di celebrità in contenuti pornografici. Nel 2018 apparvero strumenti open source come DeepFaceLab, che abbatteva importanti barriere tecniche. Dal 2023 ad oggi, il mercato degli strumenti deepfake è cresciuto del 44%.​

Ironia della sorte, lo stesso David Beckham è diventato protagonista di un deepfake “buono” nel 2019: una campagna della charity Malaria No More lo ha mostrato parlare fluentemente nove lingue diverse grazie alla tecnologia di video synthesis sviluppata dalla startup Synthesia. Un utilizzo etico della stessa tecnologia che oggi alimenta truffe, disinformazione politica e frodi finanziarie.​

Una riflessione che vale ancora oggi

Oggi l’Ai Act, che l’Ue sta ridimensionando, impone obblighi di trasparenza sui deepfake e la legge italiana prevede fino a 5 anni di reclusione per chi diffonde contenuti falsificati causando danni.​

La distanza tra il compositing artigianale di un’agenzia pubblicitaria del 2011 e i video generati da Sora – il software di Ai per generare video scaricato oltre un milione di volte in meno di cinque giorni – dimostra quanto velocemente si sia evoluto il nostro rapporto con l’autenticità delle immagini.

Tendenze | Altri articoli