L’intelligenza artificiale è diventata, nel giro di pochi anni, la tecnologia più desiderata, finanziata e narrata del nostro tempo. E come ogni grande promessa, attrae anche chi ne approfitta.
Mentre Meta investe oltre 15 miliardi di dollari in Scale AI per inseguire il sogno della super intelligenza (artificial general intelligence), a Londra crolla l’illusione di Builder.ai, startup che affermava di generare app con l’AI ma impiegava invece 700 sviluppatori umani in India.
Sono già due le aziende USA sanzionate dall’autorità di settore Sec, per 400 mila dollari, per aver pubblicizzato un uso dell’AI che in realtà non avevano. Siamo di fronte a segnali importanti di un fenomeno sempre più diffuso, l’AI-washing.
Cos’è l’AI-washing
Il termine richiama concetti come greenwashing o sportswashing, si tratta dell’uso strategico e ingannevole di una narrativa, in questo caso quella dell’AI, per aumentare la propria reputazione, attirare investimenti e posizionarsi come innovatori.
Con l’AI-washing, le aziende millantano capacità di intelligenza artificiale che in realtà non possiedono o ne esasperano il ruolo nel loro prodotto, per trarne vantaggi economici e mediatici.
Un trucco di marketing travestito da innovazione. Le implicazioni sono tutt’altro che marginali, si parla di milioni raccolti da investitori, valutazioni gonfiate, e clienti attratti da promesse tecnologiche irrealistiche.
Il caso Builder.ai, Natasha non era un’AI
Builder.ai, fondata nel 2016 da Sachin Dev Duggal, si presentava come piattaforma che avrebbe reso lo sviluppo software “facile come ordinare una pizza”, grazie a Natasha, un sedicente assistente AI in grado di costruire app da zero. In realtà, secondo diverse inchieste (tra cui Business Standard, India Today e Financial Times), l’AI era una facciata: il lavoro veniva svolto manualmente da circa 700 ingegneri in India, che interagivano con i clienti tramite script studiati per mascherare la componente umana. Il paragone con il celebre “Mechanical Turk”, evocato dal Financial Times, rende bene l’idea.
Si trattava di un automa del XVIII secolo, apparentemente in grado di giocare a scacchi da solo, ma che in realtà nascondeva al suo interno un essere umano. Una metafora perfetta per descrivere soluzioni pseudo-AI dove la macchina è solo una facciata e il lavoro è svolto da esseri umani nascosti dietro l’interfaccia. Una macchina apparente, con un essere umano dietro le quinte. Oltre alla finzione tecnologica, l’azienda è accusata di aver gonfiato le proiezioni di fatturato da 50 a 220 milioni di dollari per il 2024.
Secondo un’indagine condotta da Bloomberg, queste cifre includevano pratiche di “round-tripping”, emissione fittizia di fatture tra Builder.ai e VerSe Innovation, per circa 180 milioni di dollari.
Il castello è crollato a maggio 2025, quando un creditore ha sequestrato 37 milioni di dollari e Builder.ai ha dichiarato fallimento. L’azienda ha lasciato dietro di sé oltre 1.000 dipendenti licenziati, milioni di debiti con Amazon e Microsoft per servizi cloud non pagati e numerosi progetti di clienti incompleti. Secondo documenti interni e testimonianze di ex dirigenti, come Robert Holdheim, che ha citato l’azienda per 5 milioni di dollari, i sistemi di intelligenza artificiale di Builder.ai erano a malapena funzionanti e l’azienda veniva pubblicizzata come pioniera del software generativo.
Le prime sanzioni ufficiali, la SEC agisce
Il caso Builder.ai è eclatante ma non isolato. A fine maggio, la U.S. Securities and Exchange Commission (SEC) ha multato due società d’investimento, Delphia e Global Predictions, per dichiarazioni “false e fuorvianti” sull’uso dell’intelligenza artificiale. Delphia affermava di “prevedere quali aziende e tendenze stanno per esplodere” grazie all’AI, mentre Global Predictions si definiva “il primo consulente finanziario regolamentato basato sull’AI” e pubblicizzava previsioni finanziarie guidate da intelligenza artificiale. In entrambi i casi, le tecnologie AI vantate non esistevano nella forma annunciata.
Le due aziende hanno accettato di pagare una multa complessiva di 400.000 dollari. Gary Gensler, presidente della SEC, ha dichiarato: “Troviamo che Delphia e Global Predictions hanno dichiarato di usare l’AI in certi modi quando, in realtà, non era così. L’AI-washing danneggia gli investitori.” Anche il direttore dell’applicazione normativa, Gurbir Grewal, ha aggiunto che “chi dichiara di usare modelli AI deve assicurarsi che le rappresentazioni non siano false o ingannevoli. Le società pubbliche devono fare lo stesso”. “Abbiamo riscontrato che Delphia e Global Predictions pubblicizzavano ai propri clienti l’utilizzo dell’AI in determinati modi, quando in realtà non era così”.
Meta e Scale AI, tra acquisizione strategica e reputazione AI-driven
Oltre ai casi di frode, esistono azioni più sottili ma strategiche. Secondo diverse fonti internazionali, Meta sarebbe in trattativa per acquisire una partecipazione del 49% in Scale AI, una delle principali aziende specializzate nella data annotation per l’addestramento di modelli di intelligenza artificiale.
L’investimento previsto ammonterebbe a circa 14,8 miliardi di dollari e includerebbe anche il coinvolgimento del fondatore e CEO Alexandr Wang nella guida di un nuovo super-laboratorio Meta dedicato alla “superintelligenza”.
Sebbene non si tratti di un caso di AI-washing in senso stretto, l’operazione ricorda quanto alte – forse gonfiate – siano le valutazioni delle aziende AI e quanto siano disposti a investire le big tech per inseguire il sogno evanescente dell’AI generale.
Non solo: è significativo che Meta scelga Scale AI per rincorrere OpenAI e Google sull’AI – rispetto alle quali è in ritardo per posizionamento e forse innovazione in senso stretto.
Scale AI e il lavoro umano
Scale AI fa la differenza infatti grazie al forte utilizzo del lavoro umano. Il Financial Times commenta ironico in questi giorni, notando che l’arma segreta di Meta per inseguire il sogno dell’AI è il cervello umano.
L’azienda si affida a una vasta forza lavoro di freelance e collaboratori esterni, circa 100 mila, spesso con compensi bassi, per svolgere attività fondamentali di etichettatura dei dati. E’ quello che si chiama Reinforcement Learning from Human Feedback e sempre più centrale per lo sviluppo dell’AI, man mano che i dati disponibili per il training classico si esauriscono.
Una recente indagine del Dipartimento del Lavoro degli Stati Uniti ha contestato l’errata classificazione di questi lavoratori come appaltatori indipendenti, privandoli di tutele come ferie e malattia. Sebbene l’indagine sia stata archiviata senza sanzioni, restano cause legali aperte intentate da ex collaboratori.
L’umano sempre più importante (e sottovalutato) nel boom dell’AI
Finora, la creazione dell’IA è stata principalmente un esercizio di gestione di risorse scarse digitali.
Vedi i chip di nVidia.
La maggior parte delle spese in conto capitale di Meta, stimate fino a 72 miliardi di dollari quest’anno, è stata destinata a server e data center, l’equivalente tecnologico dei mattoni e del cemento.
Ma anche altri ingredienti stanno diventando scarsi. Uno di questi è la disponibilità di dati di qualità, essenziali per addestrare efficacemente i modelli di IA. Il cofondatore di OpenAI, Ilya Sutskever, ha avvertito che potremmo raggiungere il “picco dei dati” proprio come il pianeta sta andando incontro al “picco del petrolio”.
Scale AI è un’azienda che cerca di posticipare il momento in cui i dati si esauriranno. Etichetta, pulisce, categorizza e corregge i cosiddetti “token” e i modelli che li utilizzano. Il fondatore Alexandr Wang afferma che i dati liberamente disponibili hanno raggiunto i loro limiti e che ciò che verrà dopo sarà più difficile da tradurre in una forma utilizzabile da questi algoritmi.
Questo è un problema anche per il capo di Meta, Mark Zuckerberg. La privacy è una delle questioni che l’azienda sta affrontando: gli utenti europei, ad esempio, possono negare all’azienda il diritto di utilizzare i loro post pubblici su Instagram per addestrare i modelli, mentre i loro amici negli Stati Uniti non possono farlo. Il forum online Reddit ha citato in giudizio il produttore di modelli di IA Anthropic per aver “scrapato” i post degli utenti senza autorizzazione.
Parte della soluzione, come sanno Meta e i suoi concorrenti, è coinvolgere più persone. Scale AI è un sostenitore del “reinforcement learning from human feedback” (apprendimento rinforzato dal feedback umano), o RLHF, in cui i dipendenti correggono e istruiscono i modelli. Wang ritiene che gli algoritmi funzionino meglio quando sono affiancati da una persona, e che sarà così anche nel prossimo futuro: un approccio ibrido talvolta noto come “centaur AI”.
AI Washing e benchmark
Inoltre, non sempre l’AI-washing assume forme esplicite. Talvolta si manifesta in meccanismi opachi di misurazione e presentazione delle performance.
Secondo un’inchiesta di TechCrunch, Meta avrebbe usato versioni “ottimizzate” dei propri modelli di AI per test comparativi, in particolare per la classifica su LMSYS Arena.
Queste versioni, non disponibili al pubblico, avrebbero incluso personalizzazioni volte a migliorare i punteggi nei benchmark (es. risposte più lunghe, emoji, stili narrativi più fluidi), rendendo difficile una valutazione onesta della reale efficacia operativa dei modelli come Llama 4.
AI: l’hype che crea pressione e illusioni
A rafforzare questa corsa all’adozione contribuiscono anche i dati pubblicati nel report “Impact of Technology on the Workplace”, uno studio internazionale che fotografa il ritmo dell’adozione dell’AI tra le aziende.
Il documento mostra come, nel giro di un solo anno, la percentuale di imprese che dichiarano di non utilizzare affatto tecnologie di intelligenza artificiale sia scesa dal 34% al 15%. Un dato che segnala un cambiamento strutturale, ma che va letto con attenzione. In un contesto dove “non usare l’AI” inizia a essere percepito come un handicap competitivo, aumenta la probabilità che le aziende enfatizzino o gonfino la propria integrazione tecnologica per non restare escluse dal trend. Questo clima di pressione narrativa, alimentato da comunicazioni aziendali, marketing e storytelling strategico, può spingere anche attori legittimi verso comportamenti opportunistici, fino ad arrivare, nei casi più estremi, a vere e proprie pratiche di AI-washing. Ma non sempre usare l’AI porta valore. Il caso Klarna con l’AI è illuminante: l’azienda aveva automatizzato gran parte del customer service con chatbot AI, salvo poi tornare ad assumere operatori umani a causa di insoddisfazione diffusa e qualità scadente del servizio.
Il rischio è che l’intelligenza artificiale diventi una buzzword come blockchain o NFT: evocata, venduta, promossa, ma non realmente compresa. Il problema va oltre la comunicazione. A oggi, molti modelli di business fondati sull’AI mostrano segni di fragilità economica, con strutture di costo insostenibili, dipendenza da incentivi temporanei o investimenti a fondo perduto e un’incertezza generalizzata sui percorsi di monetizzazione. Le modalità con cui le aziende implementano l’AI restano spesso poco chiare o scarsamente valutate in termini di efficacia, e la stessa capacità delle soluzioni AI di generare valore reale per clienti e dipendenti è ancora oggetto di indagini.
Studi recenti come quelli di McKinsey segnalano che la maggior parte delle aziende si trova ancora in una fase sperimentale, con ritorni molto disomogenei e spesso inferiori alle aspettative. L’AI è senza dubbio una tecnologia potente ma solo se utilizzata in modo responsabile, con trasparenza operativa, modelli economici sostenibili e metriche misurabili che ne attestino l’impatto reale.
Servono quindi meno promesse e più accountability, soprattutto ora che le aspettative rischiano di superare di gran lunga i risultati. Chi investe, siano essi venture capitalist, clienti o semplici cittadini, deve imparare a distinguere tra ciò che è reale e ciò che è verniciatura. L’AI-washing non è solo un problema etico, è una minaccia sistemica per un settore che ha bisogno di fiducia, rigore e verità per costruire il proprio futuro.
***** l’articolo pubblicato è ritenuto affidabile e di qualità*****
Visita il sito e gli articoli pubblicati cliccando sul seguente link