C’è una cosa che tutti abbiamo sperimentato almeno una volta: guardi un’immagine e sei sicuro di vedere qualcosa… poi scopri che non è affatto così. Linee che sembrano curve ma sono dritte, figure immobili che paiono muoversi, colori che cambiano a seconda di come li osservi. Le illusioni ottiche fanno parte del nostro immaginario da sempre e, in fondo, ci divertono proprio perché mettono in crisi una certezza che diamo per scontata: “vedo, quindi è reale”. La notizia curiosa è che oggi non siamo più gli unici a cadere in questi tranelli. Anche alcune intelligenze artificiali, quelle usate per “vedere” immagini e video, si lasciano ingannare dalle illusioni ottiche. E questa cosa, per quanto possa sembrare un dettaglio da nerd, in realtà dice molto su come funziona il nostro cervello.
Partiamo da un punto semplice: il cervello umano non è una macchina fotografica. Non registra tutto in modo preciso e neutro. Sarebbe impossibile farlo. Il mondo è troppo pieno di stimoli, colori, movimenti. Per questo il cervello fa una cosa molto intelligente: seleziona, semplifica, anticipa. Prende scorciatoie. In pratica, cerca di capire velocemente “cosa sta succedendo” senza analizzare ogni singolo dettaglio. Le illusioni ottiche nascono proprio da qui. Non sono bug o difetti, ma effetti collaterali di un sistema che funziona benissimo nella vita di tutti i giorni. Se il cervello non usasse queste scorciatoie, saremmo lentissimi a reagire, a muoverci, a capire l’ambiente intorno a noi.
L’inganno dell’efficienza: perché l’AI “vede” come noi?
Ora entra in scena l’intelligenza artificiale. Alcuni sistemi di IA che analizzano immagini e video non si limitano a riconoscere forme o colori, ma cercano di “prevedere” cosa succederà dopo. Un po’ come facciamo noi quando guardiamo una scena: se vediamo qualcosa che assomiglia a un movimento, diamo per scontato che continuerà a muoversi. E qui succede la magia (o l’inganno). Davanti a certe illusioni ottiche, come quelle in cui immagini statiche sembrano girare o scorrere, alcune IA reagiscono esattamente come un essere umano. “Vedono” movimento dove non c’è. Nessuno le ha programmate apposta per sbagliarsi, eppure ci cascano lo stesso. Questo è affascinante perché suggerisce una cosa molto semplice: quando un sistema, umano o artificiale, impara a interpretare il mondo basandosi sull’esperienza e sulle aspettative, prima o poi può essere tratto in inganno nello stesso modo. Non perché è stupido, ma perché sta cercando di essere efficiente.
Ovviamente, le differenze restano enormi. Il nostro cervello è legato al corpo, all’attenzione, alle emozioni. Se fissiamo un punto preciso di un’illusione, a volte l’effetto svanisce. Se guardiamo con la coda dell’occhio, ritorna. L’IA, invece, guarda tutto insieme, senza preferenze, senza distrazioni, senza “attenzione” come la intendiamo noi. Per questo vede l’inganno in modo più uniforme, quasi meccanico. Eppure, il fatto che anche una macchina possa “sbagliare” come noi cambia il modo in cui pensiamo sia all’intelligenza artificiale sia a noi stessi. Ci ricorda che vedere non significa solo registrare dati, ma interpretare la realtà. E interpretare, per definizione, vuol dire anche rischiare di sbagliare.

Luca Caviglia è un autore di capitolivm.it specializzato in tecnologia e internet. Si occupa di guide pratiche, approfondimenti digitali e novità dal mondo tech, con un focus su innovazione, servizi online e strumenti utili per semplificare la vita digitale. I suoi contenuti sono pensati per offrire informazioni chiare, aggiornate e facilmente fruibili, sia per utenti esperti sia per chi si avvicina al mondo digitale.





