L’intelligenza artificiale sta cambiando il linguaggio umano (e non è vero che non puoi farci niente)

AI writing
© Fiore & Conti GbR
By Angela
2

Tempo fa ascoltavo uno youtuber americano dire che le carote sporche di terra gli danno sicurezza, perché gli danno l’impressione di avere fra le mani un vero vegetale, con vere fibre, vere vitamine, veri nutrienti e non solo la versione sintetica di qualcosa che dovrebbe apparire sano. Ecco, a me gli errori di battitura fanno lo stesso effetto. Il che è ridicolo, per chiunque mi conosca, perché io sono il tipo di persona che fatica a contenere il desiderio di correggere la grammatica altrui, quando discute. Per la maggior parte della mia vita adulta, ho preteso precisione da chiunque, persona o azienda, osasse pretendere accesso alla mia attenzione o al mio tempo. Da un po’ di tempo, però, gioisco quando trovo un refuso in un articolo online o persino in un libro, perché gli errori di battitura si verificano naturalmente, quando gli esseri umani scrivono. Certo, esiste l’editing, ma gli errori, gli accenti sbagliati, le doppie mancanti o le lettere fuori posto a volte sfuggono al processo di revisione, specialmente se chi scrive e chi corregge le bozze è la stessa persona. I testi scritti con l’intelligenza artificiale, invece, non hanno errori di battitura. Praticamente tutto il resto è sbagliato, ma gli errori di battitura o di grammatica sono ancora il segno di un’azione reale che si è verificata: le mani di un essere umano si sono mosse su una tastiera, per digitare parole e, a un certo punto, un dito ha toccato il tasto sbagliato. Questo vuol dire che stiamo ricevendo la comunicazione di un essere umano. Sapete perché l’intelligenza artificiale scrive senza errori di battitura? Perché l’intelligenza artificiale non scrive. Per essere precisi, l’intelligenza artificiale non può scrivere e non sa scrivere. È un copia-incolla su scala globale, è la versione superumana del copiare i compiti dal compagno di banco. Nelle ultime settimane, ho sentito dare, in diverse occasioni, quella che mi pare come una definizione assolutamente calzante dell’IA: la più grande macchina da plagio mai costruita.

Facciamo qualche passo indietro e partiamo dall’inizio, dall’evento che mi ha spinto ad avventurarmi in questa analisi, che non era neppure in programma. Wikipedia ha pubblicato per la prima volta una guida per rilevare contenuti generati dall’IA. La pagina, che, al momento in cui scrivo, è disponibile solo in 6 lingue, non è pensata come strumento per insegnare a utenti umani a riconoscere tutti i testi scritti con l’intelligenza artificiale, ma si presenta specificamente come “guida pratica per aiutare a rilevare contenuti generati dall’IA non dichiarati su Wikipedia“. L’introduzione afferma anche che l’elenco è “descrittivo, non prescrittivo; consiste di osservazioni, non regole”. Nonostante questi limiti, è un ottimo inizio e vi consiglio di leggerla per intero, perché la maggior parte delle osservazioni vi saranno utilissime anche fuori da Wikipedia.

Perché, vi chiederete, dovreste preoccuparvi di imparare a individuare la scrittura con IA, quando esistono i rilevatori di intelligenza artificiale che sono fatti apposta? Mi fa davvero piacere ricevere questa domanda dai miei lettori immaginario, che ho appena inventato proprio per questo scopo! A proposito, tenete a mente questa domanda retorica bizzarra, barocca e convoluta: l’ho scritta per un motivo preciso. Ne parliamo più avanti.

Ragione numero uno: perché se improvvisamente non sapete più cosa è reale e cosa no è proprio perché avete già iniziato a permettere che sia l’IA a pensare al posto vostro.

Ragione numero 2: perché i risultati dei rilevatori di IA sono, come la maggior parte dei risultati di tutti i prodotti basati sull’intelligenza artificiale, mai più che mediocri.

Ragione numero 3: perché la lista di Wikipedia può insegnarvi competenze fondamentali nella lettura e nell’analisi di un testo, competenze che vi permetteranno di capire se e quando la fonte che ha prodotto il messaggio che avete davanti ha scelto di non investire, nella comunicazione con voi, il proprio tempo e la propria attenzione, così che possiate ripagarla con la stessa moneta e dedicare il vostro tempo e la vostra attenzione a contenuti più degni.

E questo è importante, perché l’IA non viene usata solo per scrivere articoli sui blog, sui giornali o all’interno delle newsletter commerciali che vi arrivano ogni giorno. Sempre più spesso, c’è chi la usa per scrivere messaggi in chat, semplici email di lavoro nella propria lingua madre, persino per flirtare sulle app di incontri. Collettivamente, abbiamo iniziato a usare l’intelligenza artificiale per sbrigare compiti che ci sembravano noiosi, pensando di risparmiare energie mentali da dedicare poi a cose più complesse, più interessanti. E invece, sempre più spesso, ci ritroviamo a rifiutarci di dedicare qualsiasi forma di energia mentale a qualsiasi attività, al punto che, nelle rare situazioni in cui dobbiamo pensare da soli, lo sforzo è quasi intollerabile. Abbiamo trasformato quello che avrebbe potuto essere un eccellente maggiordomo in un pessimo padrone.

Come individuare i testi scritti con l’intelligenza artificiale senza usare un rilevatore di IA (e perché a Wikipedia è sfuggito un dettaglio)

Sebbene, come abbiamo detto, il suo ambito di pertinenza sia solo quello degli articoli di Wikipedia, la lista appena pubblicata inquadra alcune delle peculiarità specifiche che permettono di individuare piuttosto facilmente quando un testo è stato scritto con l’IA, almeno in inglese. Il discorso è leggermente diverso per l’italiano e per tutte le altre lingue e, in un certo senso, il fatto che l’IA sia addestrata su un dataset prevalentemente anglofono è un bene per noi: nelle altre lingue è assai facile che la sua “scrittura” suoni innaturale e perfino fastidiosa.

Non riporterò l’intera lista, perché è piuttosto lunga, ma penso possa essere utile, in questo contesto, spiegare cosa intendevo quando ho detto che l’intelligenza artificiale non sa scrivere. I modelli linguistici come ChatGPT o Claude (chiamati in breve LLM, ovvero Large Language Models) non comprendono il linguaggio alla stessa maniera degli esseri umani, soprattutto perché non sono destinati a “comprendere” nulla, sono destinati a compilare. Operano attraverso il riconoscimento di pattern, analizzando miliardi di campioni di testo (ed essendo addestrati, per scopi commerciali, su contenuti protetti da copyright che vengono plagiati senza conseguenze, incluso questo articolo perché ancora non abbiamo “avvelenato” il sito web per proteggerlo dall’IA). Il loro “lavoro” consiste nel prevedere quale parola abbia più probabilità di seguire la precedente o, più precisamente, quale specifica sequenza di caratteri ha più probabilità di apparire subito dopo qualsiasi altra specifica sequenza di caratteri.

Senza entrare troppo nei dettagli, pensate ai riff musicali o ai modi di dire che vengono usati in modo collaborativo da due parlanti della stessa lingua, per cui il primo parlante cita la prima parte del “ritornello” e il secondo lo completa o, almeno, sa esattamente cosa aspettarsi dopo. L’italiano ha dozzine di esempi, centinaia se si includono i regionalismi e alcuni sono anche molto divertenti. Uno dei più famosi a livello nazionale è “sopra la panca?” “La capra campa”. Un altro, senza assonanze, potrebbe essere “Piove!” seguito da “governo ladro!”. Sono sicura che, prima che i vostri occhi si posassero sulla seconda parte di ogni frase, sapevate già esattamente cosa aspettarvi e il motivo è ovvio: tutti abbiamo sentito queste frasi così tante volte da sapere con certezza che la frase “la capra campa” seguirà ogni volta che qualcuno pronuncia “sopra la panca”. Per capire come funzionano gli LLM basta immaginarli come “parlanti” di un linguaggio, che applicano esattamente la stessa tecnica di riconoscimento dei pattern a ogni parola o combinazione di parole, in modo da poter prevedere (non “decidere”) quali caratteri abbiano statisticamente più probabilità di trovarsi in un dato contesto. Per ChatGPT, ogni parola, ogni gruppo di parole, ogni alternanza di spazio e virgola va usata come noi usiamo “sopra la panca”.

Tornando alla lista di Wikipedia, c’è una caratteristica comune a moltissimi testi prodotti dall’intelligenza artificiale che è stata tralasciata e che, per lo più, viene ignorata anche dai rilevatori di intelligenza artificiale. Nella mia esperienza, si tratta addirittura del marchio di fabbrica più facilmente riconoscibile e anche più fastidioso dell’IA generativa. Sto parlando delle domande retoriche mal formulate.

I chatbot usano le domande retoriche principalmente perché queste sono quasi sempre incluse nei prompt per la scrittura “naturale”. Questo tipo di prompt sono particolarmente ricercati dagli studenti, ma anche da alcuni creativi, ben consapevoli del fatto che i rispettivi insegnanti e clienti useranno strumenti di rilevamento dell’IA per scansionare i loro testi e coglierli in fallo. Per cercare di farla franca senza scrivere una riga, quindi, si chiede ai chatbot di scrivere con uno stile pensato per appositamente per ingannare tali sistemi di rilevazione dei contenuti scritti dall’intelligenza artificiale. Lo scopo, in teoria, dovrebbe essere l’impiego di uno stile abbastanza impreciso, emotivo e ridondante da sembrare “umano”. Il problema è che, quando chiediamo a una macchina di comportarsi come un essere umano, dobbiamo anche spiegarle come si comporta un essere umano nel contesto che ci interessa. Limitarsi a dire “scrivi come un essere umano” o “scrivi in modo che i rilevatori di IA non si accorgano che questo testo è stato scritto dall’IA” non produrrà risultati particolarmente efficaci. Leggermente migliori sono invece i contenuti che vengono prodotti se si descrivono esattamente le caratteristiche specifiche dello stile “umano” che si vuole implementare.

Ci sono diversi prompt piuttosto popolari pensati per questo scopo e la maggior parte di essi individua l’utilizzo domande retoriche come caratteristica essenziale dei pattern di scrittura degli esseri umani. E l’intelligenza artificiale se la cava malissimo con le domande retoriche, perché ne comprende la funzione, ma non rileva l’importanza della struttura. Ricordate quando vi ho chiesto di tenere a mente la strana formulazione che ho usato in una domanda retorica qualche paragrafo più su? Nessun LLM saprebbe porla nella stessa maniera. 

Nella mia esperienza di studio e utilizzo degli LLM, questo fatto si traduce in una tecnica infallibile per “stanare” un’intelligenza artificiale che cerca di mascherarsi da intelligenza umana. Le domande retoriche prodotte con questo tipo di prompt sono composte in genere da due o tre parole e hanno una struttura elementare e invariabile. Il sito della Treccani ci dice quanto segue: “Per definizione, le interrogative retoriche sono frasi che presentano caratteristiche formali tipiche delle frasi interrogative, ma che non hanno lo stesso valore funzionale, poiché non sono enunciate per ottenere una risposta”. Finora nessun LLM, per quanto ho avuto modo di osservare, è in grado esplorare il significato di questa frase e agire di conseguenza. L’unico tipo di domanda retorica che gli LLM producono viene creato estrapolando il concetto iniziale di una frase e trasformandolo in una domanda di due parole.

Facciamo un esempio pratico. Mettiamo che io voglia “umanizzare” questa frase: “Abbiamo sostituito l’80% dei veicoli della nostra azienda con modelli elettrici o ibridi, il che ha portato a una diminuzione del 30% delle nostre emissioni totali di CO2”. Un chatbot al quale sia stato chiesto di “sembrare” umano potrebbe scrivere “La nostra azienda ha deciso di compiere un passo significativo nella direzione della sostenibilità: sostituire l’80% della nostra flotta con veicoli elettrici o ibridi. Il risultato? Una riduzione del 30% delle emissioni di anidride carbonica complessive dell’azienda”.

È una frase pacchiana, macchinosa, talmente superficiale che leggerla fa quasi male agli occhi. E non perché sia verbosa: verbosa è anche la prosa che sto adottando io e lo sto facendo con uno scopo preciso, ovvero rendere chiaro, al di là di ogni ragionevole dubbio, che ogni singola lettera di questo testo è stata digitata su una tastiera. Nemmeno la traduzione è automatica: se andate a leggere la versione inglese, troverete differenze significative, in questo paragrafo come in altri, perché, in questo contesto, la lingua conta. La frase “umanizzata” dall’IA è sgradevole perché l’enfasi della domanda è posta nel punto sbagliato.

L’IA non sa costruire le domande retoriche perché non è in grado di capire realmente a cosa servano. Si limita a registrare la richiesta di inserire domande inutili all’interno dei testi, simulando un pubblico immaginario, ma non ne costruisce la struttura andando a ritroso di più di una proposizione, a meno che qualcuno non la addestri specificamente a farlo. Soprattutto, non è in grado di scegliere con criterio quale parte della frase trasformare in una interrogativa. Nell’esempio qui sopra, avrebbe più senso concentrarsi sul movente dell’azione, piuttosto che sul risultato, perché il movente (l’interesse dell’azienda per la sostenibilità) è ciò che si dovrebbe promuovere, mentre il risultato è solo il mezzo con cui lo si promuove. Se io, un essere umano, dovessi riformulare la frase originale includendo una domanda retorica, probabilmente scriverei qualcosa del genere: “quest’anno, abbiamo investito X per rivoluzionare la nostra flotta aziendale, sostituendo l’80% dei nostri veicoli con modelli ibridi o completamente elettrici. Come mai abbiamo compiuto una scelta così drastica, se tutte le nostre auto e i nostri furgoni erano ancora perfettamente funzionanti? Perché abbiamo capito che ridurre l’impatto ecologico della nostra attività era una necessità non più rinviabile. E siamo orgogliosi del risultato: le nostre emissioni di CO2 sono diminuite del 30%”. C’è bisogno di specificare che ci ho messo circa un minuto per riformulare questa frase, ovvero circa 20 volte di più di quanto un chatbot qualsiasi impiega per creare la sua versione “sbagliata”?

Per completezza e per puntiglio, ho verificato come si comportano diversi chatbot alla presenza di prompt diversi per questo particolare tipo di contenuto: l’esempio di domanda retorica composta da 2 parole che ho menzionato (esempio: “Il risultato?…”) è ciò che l’intelligenza artificiale produce alla richiesta di “scrivere come un essere umano”. Inserendo nel prompt una singola frase e chiedendo al bot di riformularla per includere una domanda retorica, si producono variazioni più lunghe, ma è ancora probabile che si manchi completamente il punto e quindi siano necessari diversi tentativi per produrre un risultato utilizzabile, con un tempo stimabile di lavorazione di circa 10 minuti per questa singola frase. Il che significa che, per questo compito particolare, l’IA risulta comunque più lenta di un essere umano competente. Certo, si possono “suggerire” al bot tutte le formulazioni giuste, in modo il più possibile vicino al risultato che si vuole ottenere, ma, a questo punto, si impiega lo stesso tempo che a scrivere il testo in modo tradizionale. E sì, è possible provare a standardizzare il prompt se si vuole addestrare un chatbot a eccellere proprio nelle domande retoriche, ma i risultati saranno probabilmente peggiori se il tipo di contenuto, la sua forma e le sue premesse deviano troppo dal modello originale.

In breve: è possibile far scrivere testi di qualità all’intelligenza artificiale, però farlo è più costoso, più lento, più frustrante e meno ecologicamente sostenibile rispetto alla scrittura “tradizionale”, cioè prodotta da un essere umano con le giuste competenze, che non ha bisogno di sentirsi ripetere le stesse istruzioni centinaia di volte con minime variazioni per capire cosa deve fare.

Bot che plagiano esseri umani che plagiano bot che plagiano altri bot

Ho usato l’esempio delle domande retoriche per evidenziare una tendenza inevitabile: l’IA non ha altra opzione che semplificare qualsiasi materiale da cui attinge. Non può condurre ricerche e indagini reali, nel migliore dei casi può abbinare fonti che confermano dati simili e valutarle come più o meno degne di menzione, ma anche in quel caso, il rischio di allucinazioni è incredibilmente alto. Negli LLM, si parla di allucinazioni quando il bot produce dati o fonti inesistenti, presentandoli come reali.

Il problema dell’IA, quindi, non è che produca prosa di qualità mediocre, ma piuttosto che non produce assolutamente nulla, perché non è capace di farlo. Anche se non vi disturba l’idea del plagio e non vi fate problemi a utilizzare il lavoro intellettuale altrui per creare i “vostri” contenuti, dovreste preoccuparvi del fatto che, ogni volta che utilizzate l’IA generativa per compilare un testo, state “avvelenando” la vostra stessa riserva di informazioni.

Quando gli LLM sono stati resi disponibili al grande pubblico, intorno al 2022, la maggior parte di essi aveva accesso solo a ciò che era disponibile su internet fino al 2020, cioè attingeva da contenuti quasi interamente prodotti dall’uomo ed era due anni indietro sulla storia del mondo nel quale si trovava a operare. Da allora, il loro utilizzo è esploso. Non sono riuscita a trovare dati affidabili e coerenti a riguardo, specificamente in riferimento ai testi scritti dall’intelligenza artificiale: su media di diversi Paesi ho trovato stime che indicano una percentuale compresa fra il 50% e il 90% di tutti i testi scritti attualmente presenti su internet come generata dall’IA (non su questo blog. Questo blog è cotto a legna). Non li citerò qui, perché nessuno degli articoli che ho trovato fornisce una fonte affidabile o spiega come la ricerca sia stata condotta. Le poche fonti puntuali che ho trovato non si possono considerare imparziali, perché pertengono ad aziende direttamente coinvolte nello sviluppo di algoritmi di IA generativa.

Quale che sia la percentuale reale di contenuti generati dall’intelligenza artificiale, ci sono osservazioni empiriche che hanno comunque un qualche valore. Per esempio, possiamo tutti concordare che i testi generati dall’IA attualmente presenti su internet sono più che sufficienti perché gli LLM vi attingano come a qualsiasi altra fonte, quando devono produrre nuovi contenuti. È ragionevole pensare che un LLM, rispondendo a un prompt, possa trovarsi addirittura ad attingere esclusivamente da testi preesistenti generati dall’intelligenza artificiale. In questo caso, possiamo aspettarci che il risultato sia una versione semplificata e di qualità inferiore di qualcosa che era, a sua volta, una versione semplificata e di qualità inferiore di qualcos’altro.

A centinaia di iterazioni dal contenuto presunto “originale” umano, che ormai non è più rintracciabile, ci troveremo inevitabilmente di fronte a un risultato di qualità infima, presentato in una forma che oggi consideriamo accettabile, perché ci condiziona la presenza schiacciante di quello che si chiama “AI slop“, ovvero “pattume IA”. Con questo termine si intendono i contenuti completamente privi di valore e qualità, che occupano spazio su internet senza comunicare alcunché. Gli LLM non sono in grado di aggiungere nulla al materiale su cui sono stati addestrati. Possono solo rielaborarlo, ma non possono integrarlo, non possono trarre ispirazione o fare connessioni con altri piani dell’esistenza umana, diversi dal contesto che viene loro indicato all’interno di ogni prompt. Non possono suggerire punti di vista unici, perché non sono unici, possono simulare emozioni umane, ma non possono far passare alcun pezzo di conoscenza attraverso il filtro dell’esperienza umana, perché sono ontologicamente incapaci sia di “vedere” che di “esperire”. L’IA è quel collega di lavoro parecchio stolido, incapace di seguire le istruzioni, che svuota il frigo dell’ufficio, getta le cartacce per terra, cerca di rubarvi le idee e pure il pranzo e che comunque guadagna comunque più di voi e non può essere licenziato perché è il nipote del capo, il quale lo ritiene un genio incompreso. Abbiamo preso una caratteristica che troveremmo spregevole in un essere umano e l’abbiamo elevata ad accessorio imprescindibile nella tecnologia più usata sul pianeta – peraltro rubando il lavoro a tutti quegli esseri umani che riuscirebbero benissimo a essere fastidiosi, imbroglioni e parassiti in modo “naturale”.

Vi è già capitato di chiedervi se per caso gli esseri umani abbiano iniziato iniziato a parlare come l’IA? La risposta è sì e il motivo è semplicissimo: stiamo già incorporando il modo in cui i chatbot utilizzano il linguaggio nella nostra comunicazione organica. Abbiamo dato in pasto agli LLM milioni di terabyte di testi scritti da esseri umani e i chatbot li hanno rigurgitati in una forma leggermente diversa. Poi abbiamo ripetuto il processo e ora siamo noi a nutrirci di questi risultati scadenti, per poi rigurgitarli a nostra volta. E questo processo, inevitabilmente, renderà sempre più difficile distinguere fra scrittura umana e scrittura prodotta dall’intelligenza artificiale, perché ci stiamo alimentando di contenuto che l’IA ha prodotto a partire da materiale ancora precedente, le cui ultime tracce di umanità rimangono sempre più indietro. Quello che ne consegue è un drastico impoverimento del dibattito pubblico e della comunicazione in tutti i settori, dalla politica al marketing, dall’arte alla commedia.

Paragrafo bonus: l’intelligenza artificiale e la degenerazione delle lingue

Un discorso a parte va fatto per la metamorfosi che la lingua italiana subisce, quando viene gestita dagli LLM. Questo paragrafo non lo troverete nella versione inglese dell’articolo, perché ha a che fare con conseguenze dell’uso dell’IA generativa che non sono rilevanti in inglese, proprio perché dipendono dal fatto che il corpus di addestramento dell’intelligenza artificiale sia profondamente anglocentrico. Alla base, ci sono algoritmi per la traduzione che erano già stati sviluppati da altri software (come Deepl) e che gli LLM sono in grado di applicare in automatico, per decodificare immediatamente la lingua nella quale l’utente scrive i prompt e rispondere nella stessa lingua.

Come qualsiasi “cattivo” studente di lingue, però, il chatbot non “pensa” nella lingua di destinazione, bensì in quella d’origine, ovvero l’inglese. Questa è una metafora un po’ tirata per i capelli, prima di tutto perché l’algoritmo non pensa affatto e poi perché il metodo in cui computa è indipendente dal linguaggio, in base al meccanismo sopra descritto. Sta di fatto, però, che, quando si tratta di “produrre” contenuto, la ricerca si orienta sempre prima di tutto su dati in inglese e quindi parte dei risultati che l’IA usa per compilare i propri testi sono copiati, incollati e automaticamente tradotti da originali in questa lingua.

Le conseguenze di questo fenomeno sono piuttosto articolate. L’unica positiva è che la povertà lessicale e la bizzarria dei costrutti che ne conseguono rendono immediatamente identificabili i testi scritti in italiano dall’IA. Ci sono alcune espressioni in particolare che tradiscono l’origine algoritmica di un testo quanto il gesto del “tre” fatto nel modo sbagliato tradisce la spia inglese Hicox nella celebre scena di Inglorious Basterds. Gli esempi più eclatanti si hanno quando i chatbot mescolano la loro innata propensione al linguaggio “promozionale” di ispirazione statunitense alle traduzioni automatiche. 

Per parlare di un’esperienza particolarmente significativa, per esempio, non è raro che gli LLM la descrivano come “un evento che risuonerà con il pubblico” o che “lascerà ricordi duraturi per gli anni a venire”. Queste sono traduzioni letterali di espressioni inglesi particolarmente usate nel gergo del marketing, specialmente negli USA. Il verbo “to resonate” viene infatti spesso impiegato nel senso di “avere un’eco” o “far parlare di sé“, mentre l’italiano “risuonare” è un pessimo adattamento, che chiede al lettore di uniformarsi alla traduzione più banale, senza tenere da conto il contesto e le sfumature del linguaggio. Allo stesso modo, è piuttosto innaturale, per un madrelingua italiano, dire che un evento “lascia ricordi duraturi”: si percepisce che si tratta di una traduzione letterale piuttosto sciatta. Al di là del fatto che questo tipo di iperbole non è molto comune, noi tendiamo piuttosto a dire che qualcosa è “indimenticabile” o che si è trattato di “una serata da ricordare” o ancora a scegliere perifrasi che non hanno nulla a che fare con la memoria. 

Questi sono solo due dei tanti esempi di traduzioni letterali imprecise e inappropriate che si stanno affermando nella lingua italiana. Il problema è che, a furia di leggerle, anche gli esseri umani di madrelingua italiana hanno iniziato a incorporarle nel linguaggio e scritto e, in alcune istanze particolarmente imbarazzanti, in quello parlato. Ma la lingua, mi si potrebbe controbattere, si evolve, è normale ed è sempre successo. Certo, concordo sul fatto che la linguistica debba essere necessariamente descrittiva e non prescrittiva, ma fino a questo momento la lingua si è evoluta per adattarsi a realtà mutevoli che i parlanti imparavano a descrivere. Questi, invece, sono elementi “sintetici” che vengono incorporati nel tessuto organico del nostro linguaggio senza che siano stati i “veri” parlanti umani della lingua italiana a crearli. Sono l’equivalente delle microplastiche che ormai si trovano nei tessuti e nei fluidi umani: sono ovunque, sono nei nostri organi, ma restano “corpi estranei”.

Perfino gli anglismi e le traduzioni sbagliate potevano avere una funzione sociale. Il tipo di persona che non domina l’inglese e non è in grado di comporre una frase intera senza errori, ma che ostenta addirittura di dimenticare i termini italiani per descrivere certi concetti o attività, è comunque una persona con una sua esperienza della lingua che sta parlando. Mi riferisco a chi dice cose come “mi occupo di food&beverage” o “sono una wedding”, a chi definisce un lavoro “sfidante” perché ha tradotto “challenging” alla lettera e ignora che lo “sfidante” in italiano è colui che si confronta col campione, a chi dice che il pubblico va “ingaggiato” perché ha tradotto alla lettera “engaged” e non sa che “ingaggiare” in italiano vuol dire offrire a qualcuno del denaro in cambio di una prestazione; a chi dice, magari con un accento regionale strettissimo, “ti brieffo dopo, sono veramente full” (cit. Il Terzo Segreto di Satira). Perfino quel tipo di persona, a suo modo, è autentica. Sta facendo finta di essere ciò che non è, sta mettendo in mostra l’ignoranza spacciandola per modernità, ma è autentica almeno nel suo fingere, nel suo essere insicura, perfino nel suo esprimere un dominio solo parziale della propria stessa lingua. Ma il chatbot che ci propina un paragrafo su un nuovo prodotto che il pubblico troverà “relatabile” o un discorso politico che “risuonerà con le giovani generazioni” non è autentico, perché non è un utilizzatore del linguaggio e quindi non se ne può appropriare. È solo uno strumento difettoso che stiamo iniziando a utilizzare come misura e paradigma dei nostri comportamenti linguistici futuri.

La prima campagna di brand di OpenAI,che snobba l’intelligenza artificiale

Facciamo una breve deviazione per parlare anche dell’IA generativa che produce video, piuttosto che testo. Sapete chi è perfettamente consapevole dei limiti dell’IA e non è disposto ad accontentarsi dei risultati mediocri che produce? Il principale brand legato all’intelligenza artificiale. Né la prima grande campagna di brand di OpenAI per ChatGPT, lanciata nell’autunno del 2025, né il loro primo spot pubblicitario da 14 milioni di dollari durante il Superbowl, andato in onda a febbraio, sono stati fatti utilizzando i prodotti di OpenAI. Mentre l’azienda afferma che l’IA è stata usata “dietro le quinte”, gli spot veri e propri sono sceneggiati, diretti e girati (o animati, nel caso specifico del video proiettato durante il Superbowl) da esseri umani. Gli annunci della campagna di brand sono stati persino girati su pellicola da 35mm. La motivazione ufficiale di questa scelta sembrerebbe riguardare il desiderio di prendere le distanze dal quel senso di “disumanità” che è spesso associata all’IA e di rassicurare il pubblico sul fatto che l’intelligenza artificiale sia una risorsa positiva per il mondo, che renderà le nostre vite più facili e piacevoli, permettendoci di concentrarci sulle cose che contano davvero e che assolutamente non sta cercando di rubarci il lavoro e vampirizzare la nostra creatività e la nostra capacità di pensare.

Non che si voglia dubitare della buona fede degli autori, ma, a giudicare dalla mediocrità desolante dei primi annunci pubblicitari interamente prodotti con IA da Coca-Cola e McDonalds, viene il sospetto chi ha predisposto il budget per la campagna di OpenAI abbia anche preteso uno standard minimo di qualità che l’intelligenza artificiale non può garantire. 

Questi due esempi specifici, infatti, stanno smontando l’idea dell’IA generativa come indispensabile supporto creativo che serve a risparmiare tempo e/o denaro a fronte di risultati di pari livello rispetto a quelli del lavoro umano. Lo spot natalizio di  Coca-Cola, per esempio, contiene animazioni che sarebbero appena perdonabili se a realizzarle fosse stato uno studente di design digitale diplomato di recente. Per crearlo c’è voluto circa un mese ed è stato necessario scrivere decine di migliaia di prompt, facendo produrre all’IA circa 70.000 video. Anche se Coca-Cola non ha divulgato il costo effettivo della produzione, è improbabile che lo spot sia costato meno di qualsiasi altro annuncio da 60 secondi nello stesso stile. Per contro, è praticamente certo che la sua produzione abbia prodotto consumi di acqua ed elettricità ed emissioni di CO2 superiori a quelle di qualsiasi produzione tradizionale della stessa durata.

Mark Ritson, scrivendo per The Drum, ha riassunto questo paradosso: “L’industria che prometteva di rivoluzionare tutto è stata costretta ad abbracciare l’approccio di marketing più tradizionale immaginabile. Si scopre che non bastano gli algoritmi per fare la differenza. La connessione emotiva non si ottiene con un test A/B.”

Quantità infinita, qualità inesistente

Torniamo a parlare di scrittura. Se non avete ancora letto la lista di Wikipidia che ho menzionato all’inizio, fermatevi e andate a leggerla ora, perché i dati che contiene vi serviranno per questa prossima sezione. È infatti arrivato il momento di dare uno sguardo più da vicino ai tratti distintivi che si ritrovano nei testi scritti dall’intelligenza artificiale dal punto di vista del contenuto, come la superficialità dell’analisi e l’enfasi eccessiva posta nei punti sbagliati del discorso.

Un gruppo di ricercatori della Cornell University hanno evidenziato pattern simili nell’uso dell’IA  per la scrittura di pubblicazioni scientifiche. Lo studio che hanno condotto, intitolato “Scientific Production in the Era of Large Language Models” (“La produzione scientifica nell’era dei modelli linguistici di grandi dimensioni”), è stato pubblicato su Science, inoltre, sul sito web dell’università, nella sezione notizie, si trova un breve riassunto dei punti principali. I ricercatori Keigo Kusumegi, Xinyu Yang, Paul Ginsparg, Mathijs de Vaan, Toby Stuart, e Yian Yin hanno scoperto che, se è vero che gli LLM sono utili a molti scienziati, in particolare quelli che non sono di madrelingua inglese, poiché permettono loro di produrre più articoli da inviare alle testate di settore, è altrettanto vero che l’aumento complessivo delle pubblicazioni si è tradotto principalmente in un carico di lavoro extra coloro che si occupano di valutare e correggere tali pubblicazioni. In ambito scientifico, infatti, sono sempre esperti umani nei rispettivi ambiti a decidere se e quando un testo merita di essere pubblicato e se i suoi contenuti sono effettivamente corretti, sensati e fondati, se si configurano nuove scoperte o almeno presentano ricerche innovative. Ebbene, coloro che hanno questo importantissimo compito riferiscono, da quando l’IA è entrata in campo, di trovarsi a gestire a fatica una quantità enorme di articoli confezionati con l’IA, formalmente ben scritti ma vuoti nella sostanza, privi di valore scientifico. Fra questi, dicono, è sempre più complicato andare a pescare i pochi scritti effettivamente validi, che solitamente sono quelli che non sono stati scritti con l’intelligenza artificiale. Volendo riassumere l’effetto dell’IA nella scrittura scientifica, così come viene descritto nell’intero studio, si potrebbe definirlo semplicemente rumore. E lo stesso vale per la scrittura non scientifica, a dire il vero: la scrittura con l’IA non è altro che rumore.

Anche quando non c’è di mezzo la ricerca scientifica, infatti, l’effetto di appiattimento operato dagli LLM mette in pericolo la ricchezza e la diversità dell’espressione umana. La lingua si evolve in base al suo uso, in modo diverso a seconda delle regioni, delle comunità, delle professioni e anche delle esperienze individuali. Uno scienziato scrive in modo diverso da un poeta, uno scozzese in modo diverso da un siciliano, una persona monolingue in modo diverso da una bilingue, un adolescente in modo diverso da un pensionato. Negli interstizi di queste variazioni si può trovare l’essenza della comunicazione umana, che è veicolo di cultura, identità e significato, ben oltre il mero trasferimento di informazioni.

Gli LLM appiattiscono questa varietà e anche noi, interagendo con i chatbot, finiamo per dimenticarla, metterla da parte e abituarci a farne a meno, perché chiediamo all’IA come comunicare con i nostri simili. Addestrati, come abbiamo detto, prevalentemente su contenuti online in lingua inglese, i chatbot spingono il linguaggio verso una sorta di standard globalizzato e in qualche modo “aziendale”, che cancella i regionalismi e i colloquialismi, mette a tacere le cadenze particolari che denotano la provenienze, l’istruzione, la cultura di riferimento o la personalità degli individui, dissolvendole in una sorta di minimo comun denominatore e, di fatto, sostituendosi a noi.

Abbiamo passato decenni a temere il giorno in cui le macchine avrebbero preso il posto lavoratori nelle fabbriche e negli uffici, ma non ci sarebbe mai venuto in mente di immaginare che si potessero invece sostituire i privati cittadini, i consumatori, nelle loro interazioni individuali. In qualsiasi scambio di testo o email, gli esseri umani biologici si auto-riducono sempre più spesso a semplici ambasciatori, attraverso i quali due istanze degli stessi LLM si scambiano messaggi, si parlano e si rispondono.

Permettetemi, a questo punto, di mettere in chiaro una cosa: non sono una luddista, non credo che l’intelligenza artificiale sia del tutto inutile. Credo però che nessuno degli usi che sono attualmente incoraggiati da piattaforme come OpenAI, Anthropic o Perplexity (che, per quanto sia pensato soprattutto per le ricerche online, è comunque un LLM) sia positivo, redditizio, utile, rilevante e neppure lontanamente interessante.

E non sono neppure solo io a dirlo: stanno già comparendo i primi studi che quantificano esattamente come e in che misura i testi scritti dall’intelligenza artificiale siano più poveri, piatti, omogenei e, nel complesso, più noiosi rispetto ai contenuti prodotti dagli esseri umani. Lo studio più interessante che ho trovato finora è stato condotto da Liwei Jiang, Yuanjun Chai, Margaret Li, Mickel Liu, Raymond Fok, Nouha Dziri, Yulia Tsvetkov, Maarten Sap e Yejin Choi. 

Questi ricercatori hanno cercato di trovare un metodo generale per valutare la varietà dei risultati prodotti dagli LLM, alla luce delle diffuse preoccupazioni sui rischi che i contenuti generati dall’intelligenza artificiale comportano in termini di “omogeneizzazione a lungo termine del pensiero umano“. Hanno utilizzato Infinity-Chat, un gigantesco set di dati composto da 26.000 domande aperte, diverse e reali, proposte da veri utenti online. Si trattava di domande che permettevano un’ampia gamma di risposte plausibili. I ricercatori hanno dichiarato di aver introdotto “la prima tassonomia completa per caratterizzare l’intero spettro di prompt aperti posti agli LM”. In altre parole, hanno posto un gran numero di domande aperte a diversi modelli di IA, domande che ammettevano migliaia di risposte possibili, ma quelle che hanno ottenuto si sono rivelate estremamente omogenee e per lo più raggruppabili in un paio di sottocategorie.

Si parla di un “pronunciato effetto Artificial Hivemind (Mente collettiva o Mente alveare ndr)[…] caratterizzato da (1) ripetizione intra-modello, dove un singolo modello genera costantemente risposte simili, e ancor più (2) omogeneità inter-modello, dove modelli diversi producono risultati sorprendentemente simili”. L’esempio più eclatante si trova nella risposta alla domanda “Scrivi una metafora sul tempo”. Nonostante la diversità delle piattaforme e delle dimensioni dei modelli inclusi nello studio, le risposte formano solo due cluster principali: un gruppo dominante incentrato sulla metafora “il tempo è un fiume” e uno più piccolo che ruota attorno alle variazioni del concetto di “il tempo è un tessitore”. In altre parole, di fronte a una domanda che avrebbe potuto suscitare migliaia di risposte potenzialmente creative, gli LLM hanno reagito esprimendo una serie limitatissima di concetti, per lo più variazioni delle stesse due metafore. Sebbene sia sicuramente perfettibile (sarebbe interessante leggere una discussione più approfondita sui risultati e vederla replicata su un set di dati non esclusivamente in inglese), questo studio rappresenta comunque un primo passo illuminante nella decostruzione del “mito” dell’intelligenza artificiale che domina tutto lo scibile umano in pochi secondi. Dopotutto, anche il super computer Pensiero Profondo nel romanzo di Douglas AdamsRistorante al termine dell’Universo” impiegava milioni di anni per trovare la risposta definitiva alla domanda fondamentale sulla vita, l’universo e tutto quanto.

La “merdificazione” dell’IA

Lo scrittore e attivista Cory Doctorow ha coniato nel 2022 un termine che aiuta a spiegare cosa stia succedendo ai contenuti generati dall’IA e alle piattaforme che li distribuiscono: “enshittification“, che in italiano si potrebbe tradurre come “merdificazione“.

Il concetto di “merdificazione” descrive il modo in cui le piattaforme e i servizi decadono in cicli prevedibili: prima, attirano gli utenti con offerte che sono o almeno appaiono eccellenti, poi, una volta che gli utenti sono stati “catturati” e sono più o meno obbligati a usare il servizio, fanno crollare gli standard generali di qualità privilegiando i clienti aziendali e in generale quelli che pagano di più. Infine, spremono questi clienti il più possible per estrarre il massimo valore economico a beneficio degli azionisti. Il processo termina con piattaforme che diventano, testualmente secondo Doctorow “gigantesche montagne di merda”. Se non avete letto il libro e non avete tempo di farlo ora, andate a guardare il video del comico e opinionista Alex Falcone sul perché Google improvvisamente fa schifo: ne fa una sintesi perfetta e anche molto divertente.

Stiamo assistendo proprio a questo processo, per quanto riguarda le piattaforme di intelligenza artificiale. Chi usa e studia gli LLM da diversi anni ha già iniziato a considerare i segnali di allarme e a chiedersi se non fossero già comparsi nei primi anni ’20, senza che la maggior parte di noi se ne accorgesse. Le prime dimostrazioni del funzionamento degli LLM promettevano picchi di produttività senza precedenti e un supporto essenziale al lavoro creativo. Poi è arrivata l’adozione di massa di questi nuovi strumenti, che gli utenti hanno integrato nei flussi di lavoro e nei processi creativi. Siamo attualmente alla fase di decadimento del servizio, con un crollo della qualità che sta diventando evidente anche agli utenti non esperti. 

D’altra parte, c’è ancora una fascia di servizi che gli utenti meno esperti di tecnologia si stanno affrettando ad adottare perché profumano di novità e promettono di soddisfare bisogni molto profondi, ma che nascondono anche enormi pericoli di cui la maggior parte degli utenti non è consapevole. Questo è il caso dei bot che vengono usati come terapeuti improvvisati o partner sentimentali: proprio questi prodotti hanno maggiori possibilità di normalizzare la merdificazione, semplicemente perché, per funzionare, utilizzano forme di manipolazione emotiva  e quindi possono, in teoria, abbassare le aspettative degli utenti sulle loro stesse prestazioni, prima di far calare ulteriormente i loro standard già miserrimi.

Doctorow sostiene che la merdificazione derivi dal potere dei monopoli e dalla mancanza di supervisione. Quando le aziende non devono temere né la concorrenza né l’intervento regolatore dell’autorità, ottimizzano spietatamente il proprio modello di funzionamento per massimizzare il profitto piuttosto che per creare valore. Applicato all’IA, questo significa che le aziende danno priorità alle metriche di coinvolgimento e ai ricavi derivanti dagli abbonamenti rispetto all’utilità effettiva del servizio o alla qualità creativa. Ma, udite udite, questa strategia non sta funzionando.

L’IA è una bolla?

Come ha detto giustamente l’autore Michael Mezzatesta, se tutte le testate finanziarie parlano contemporaneamente di una bolla dell’IA, vale la pena di starle a sentire. E in effetti di bolla si parla, principalmente perché, finora, l’intelligenza artificiale ha attirato investimenti colossali, ma non sta generando alcun profitto. Anzi, sta perdendo miliardi ogni anno. Questo di per sé non è insolito: sono solo le piccole attività commerciali e produttive a rischiare di chiudere se non chiudono in attivo fin dal primo anno. Le startup tecnologiche e le grandi aziende multinazionali spesso esistono solo perché hanno potuto trascorrere i primi anni della loro esistenza in passivo, prima di iniziare a guadagnare qualcosa. Amazon è probabilmente l’esempio più famoso di questo fenomeno: l’azienda ha operato in perdita fino a quando è stata in grado di spazzare via abbastanza concorrenti iniziare da arrivare a dominare il mercato. Solo dopo ha iniziato a generare profitti multimiliardari. Anche Uber ha fatto più o meno la stessa cosa.

Secondo MarketWatch, OpenAI potrebbe essere avviata sullo stesso percorso, ma con perdite mai viste prima (nel 2024, ha perso circa 5 miliardi di dollari su soli 3,7 miliardi di dollari di ricavi e la situazione è peggiorata nel 2025). Il che significa che non c’è garanzia che questo tipo di piattaforma riesca a generare profitti in futuro e, a giudicare dalle sempre più ampie ed evidenti proteste contro il ruolo dell’IA e il suo impatto sulle nostre società, non si può escludere che il momento dei bilanci in attivo non arrivi mai. Il che, ovviamente, non sarà un problema per gli azionisti, poiché, per restare sull’analisi di Mezzatesta, in questo caso i profitti saranno privatizzati, ma le perdite saranno socializzate (come tutte le precedenti “bolle”, dal dotcom ai subprime avrebbero dovuto insegnarci ormai da diversi anni).

Deutsche Bank prevede che OpenAI accumulerà circa 143 miliardi di dollari in flusso di cassa negativo tra il 2024 e il 2029, prima di raggiungere l’attivo. Dove vanno a finire tutti questi soldi? Principalmente nelle monumentali spese di gestione dei centri di dati e delle unità di elaborazione grafica necessarie per addestrare e operare grandi modelli linguistici e piattaforme come Midjourney. Quegli stessi data center che, come abbiamo recentemente scoperto, nel 2025 hanno generato la stessa quantità di CO2 dell’intera città di New York. Il resto viene speso per gestire il sistema, cioè produrre contenuti, per il settore vendite e marketing, per i costi di ricerca, per immobili e affitti, e, in misura significativamente inferiore, per gli stipendi.

Le proiezioni dell’azienda stessa, ipotizzando che tutto vada come previsto, parlano di perdite operative che arrivano a 74 miliardi di dollari solo nel 2028 prima di arrivare a un ipotetico attivo entro il 2030. Queste proiezioni si basano sull’ipotesi di una crescita dei ricavi che arrivi a 200 miliardi di dollari all’anno, riducendo l’attuale rapporto spesa-guadagno. Se invece le cose, per OpenAI, non andassero secondo i piani, l’azienda si troverebbe a rischiare la bancarotta nonostante abbia raccolto miliardi, un round di finanziamento dopo l’altro. I concorrenti di Open AI non se la cavano meglio.

Prepararsi per il mondo post-intelligenza artificiale

Sebbene sia oggettivamente troppo presto per prevedere se l’IA si rivelerà o meno una bolla, non è affatto presto per immaginare uno scenario alternativo. Da un lato, dobbiamo considerare i dati concreti: ChatGPT probabilmente non si limiterà a fallire come gli ormai dimenticati social network di Google, ma cambierà. Potrebbe diventare come Youtube, con un numero limitato di utenti premium e altri che utilizzano la versione gratuita, ma con limitazioni crescenti, ancora meno protezione dei dati, o una presenza più massiccia di risultati sponsorizzati. Insomma, potrebbe fare la stessa fine di Google Search. Alcuni modelli di IA, alimentati da OpenAI o da uno qualsiasi dei suoi concorrenti, si specializzeranno e probabilmente sopravviveranno, poiché l’IA può essere usata efficacemente per automatizzare compiti specifici, dopo essere stata addestrata su dati concreti, ma questo difficilmente si qualificherà come innovazione: è ciò per cui l’IA è stata usata fino ai primi anni ’20. Alcuni usi dell’IA saranno più problematici: la sorveglianza di massa sarà raggiunta attraverso l’incrocio di dati provenienti dai software di riconoscimento facciale, dai post sui social network, dai sistemi sanitari e dalle transazioni finanziarie, ma questo non farà mai parte di nessun servizio pubblico – piuttosto, fa parte dei servizi che Palantir sta già vendendo a numerosi governi. C’è poi l’uso principale che gli esseri umani cercano di fare di nuova tecnologia: quello sessuale. Molti esseri umani, in futuro, considereranno i bot come partner sia sessuali che sentimentali, alimentando un mercato già ben avviato di servizi per adulti.

Poi c’è tutta la questione degli agenti IA e dei browser alimentati dall’IA, come il neonato Atlas, che verranno impiegati per estrarre i nostri dati in cambio del completamento di compiti banali come prenotare biglietti per eventi, metterli nei nostri calendari, e poi scrivere ai nostri amici e familiari per confermare, o cercare ricette o ristoranti e compilare liste della spesa. Tutti questi elementi sono incredibilmente pericolosi sia per il mantenimento delle nostre capacità intellettive che per la nostra privacy e costituiscono invece altrettante agevolazioni per chiunque sia interessato a sfruttare le più piccole falle nei sistemi di sicurezza al fine di trarne guadagni in termini economici o di controllo sociale. L’IA, ovviamente, sarà anche usata per scopi non legali, come creare spyware e ransomware rapidamente, facilmente ed efficientemente. Ancora una volta, non mi addentrerò nei particolari, perché il focus di questo documento è un altro.

Che ne sarà dell’IA generativa? Continuerà a essere usata per creare campagne di marketing, articoli di giornale, post su reddit, newsletter, email, comunicati stampa e copioni per contenuti video? L’intelligenza artificiale generativa potrebbe scomparire completamente da questi ambiti oppure, ipotesi che considero probabile, posizionarsi come l’equivalente B2B del fast fashion o del fast food. La maggior parte dei nostri capi di abbigliamento, oggi, sono prodotti in serie e tutti sappiamo che sono di qualità inferiore e dovrebbero quindi costare meno rispetto a capi equivalenti ma di sartoria, confezionati su misura, specialmente se con elementi particolarmente sofisticati, che richiedano abilità artigianali, come il pizzo o alcuni tipi di lavorazione del cuoio. Allo stesso modo, comprendiamo che, se un pasto è stato preparato per noi da cuochi professionisti e con ingredienti biologici, sarà di qualità migliore e quindi più costoso di uno acquistato in una catena di fast-food, fatto con ingredienti congelati che sono della qualità più bassa legalmente destinabile al consumo umano, preparati in macchine di dimensioni industriali e contenenti conservanti che servono a mantenere il sapore invariato nel tempo, anche se potrebbero essere dannosi per la nostra salute sul lungo periodo.

Personalmente, mi aspetto che qualcosa del genere accada (o, piuttosto, continui ad accadere, visto che le cose stanno già così) al tipo di contenuto che attualmente viene prodotto in quantità industriali dell’Intelligenza artificiale generativa. Ancora una volta, la divisione sarà finanziaria: le aziende più piccole e gli individui si rassegneranno a usare l’IA per produrre i loro contenuti, poiché non potranno permettersi di lavorare con “veri” creativi in carne e ossa, e il risultato sarà proporzionale all’investimento, in termini di reputazione complessiva del marchio, efficacia, fidelizzazione, relazioni con i clienti. La comunicazione realizzata in modo efficace, con parole pensate e scritte o tradotte da esseri umani effettivi sta già diventando un valore aggiunto, proprio come l’uso di vere fibre naturali lo è nella moda e gli ingredienti biologici lo sono nell’industria alimentare.

Non dobbiamo dimenticare che ogni istanza di utilizzo di ChatGPT o Claude è, di fatto, un’interazione con la stessa piattaforma. Se gli LLM fossero agenzie creative, ciò significherebbe, per milioni di marchi, organizzazioni, politici e associazioni in tutto il mondo, affidare la loro comunicazione alla stessa agenzia, con lo stesso direttore creativo, la stessa squadra, che ha le stesse capacità, la stessa esperienza, lo stesso stile ed è solo parzialmente capace di distaccarsene. Sto descrivendo la morte della comunicazione: apparire, esprimersi come tutti gli altri, essere tutti identici, sotto tutti i punti di vista. All’interno di questo scenario, trovo piuttosto probabile che le voci che sapranno distinguersi, i creativi con competenze specifiche, inclinazioni diverse, talenti davvero singolari, saranno richiesti tanto quanto lo sono i beni di lusso in qualsiasi settore.

E questo non è solo perché ho non pochi scrupoli di natura morale ed etica sul modo in cui l’IA viene sviluppata e usata, ma anche perché c’è un principio che i mercati devono rispettare, se vogliono estrarre risorse senza arrivare a ridurre letteralmente in schiavitù i propri consumatori: la scarsità. Il talento umano è scarso. L’IA non lo è. L’IA è ovunque, è economica (a meno che non abitiate accanto a un data center, nel qual caso i costi si manifesteranno sotto forma di bollette elettriche e idriche parecchio più salate), è a soglia bassissima, non produce alcun valore, è standardizzata, e mendica l’attenzione di tutti, costantemente. L’unica opzione che gli sviluppatori di IA hanno per calibrare i prezzi e cercare di portare in attivo le piattaforme attualmente esistenti è rendere l’uso dell’IA inevitabile o persino obbligatorio, perché i loro prodotti, allo stato attuale delle cose, non sono affatto competitivi. E, sebbene si stiano compiendo tentativi in quella direzione attraverso attività di lobbying politico estremamente aggressivo, non si può neppure ignorare la massiccia ondata di movimenti anti-IA, che vanno dalle alleanze di attori e creativi alle chiamate al boicottaggio che si articolano su più fronti e spingono verso un ritorno non solo alle tecnologie pre-intelligenza artificiale, ma addirittura all’analogico. Se il mercato deve mantenere il suo primato attuale, tuttavia, sarà imprescindibile il valore di quelle risorse che sono sia naturalmente scarse che oggettivamente utili. E gli esseri umani competenti e creativi sono tanto scarsi quanto indispensabili.

Fonti e riferimenti:

La guida di Wikipedia per riconoscere i testi scritti con IA

Il Wall Street Journal sullo spot IA della Coca-Cola

L’articolo Mark Ritson su The Drum

Lo studio della Cornell University, pubblicato su Science

Il riassunto sul sito della Cornell University

Lo studio sulla “Artificial Hivemind”

MarketWatch sulle perdite di OpenAI

CNBC e il Wall Street Journal sullo stesso tema

Il Guardian sul consumo energetico dei centri dati delle piattaforme di IA

2 comments

Leave a comment

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *