Omini di burro. Scuole e università al Paese dei Balocchi dell’IA generativa
di Daniela Tafani, Roars
Come l’omino di burro del romanzo di Collodi, chi introduca nelle scuole e nelle università strumenti di “intelligenza artificiale generativa” promette agli studenti un Paese dei Balocchi in cui potranno scrivere senza aver pensato. I sistemi neoliberali – nei quali si ritiene che la didattica sia un addestramento ai test e che la valutazione delle opere dei ricercatori non ne richieda la lettura – sono già pronti a un simile annientamento dell’istruzione pubblica e alla sua sostituzione con qualche software proprietario.
Volentieri la redazione ripubblica il contributo di Daniela Tafani apparso sul Bollettino telematico di filosofia politica
1. Macchine per scrivere frasi probabili
2. La bolla dell’“intelligenza artificiale generativa”
3. Il valore dell’istruzione: le aziende e le narrazioni Edtech
4. Girelli, stampelle e ciuchini: gli omini di burro nei sistemi neoliberali
1. Macchine per scrivere frasi probabili
A un programma informatico si assegna talvolta il nome della facoltà umana che si desidera implementare; così, osservava nel 1976 Drew McDermott, si ingannano molte persone, tra le quali in primo luogo se stessi, riguardo a ciò che il programma è effettivamente in grado di fare: “un programma chiamato ‘PENSARE’” – scriveva McDermott – “tende ad acquisire inesorabilmente strutture di dati chiamate ‘PENSIERI’”. L”espressione “intelligenza artificiale generativa” è un esempio di tale “mnemotecnica dei desideri”: induce infatti a dimenticare che si tratta di software che gira su computer e che generare output a partire da input è ciò che i software normalmente fanno.
I generatori di linguaggio sono sistemi informatici di natura statistica, basati su grandi modelli del linguaggio naturale (Large Language Models): producono stringhe di testo, sulla base di una rappresentazione probabilistica del modo in cui le sequenze di forme linguistiche si combinano nei testi di partenza e sulla base della valutazione, formulata da esseri umani, dei gradi di preferibilità delle risposte.
L’interazione con tali sistemi non ha nulla a che vedere con l’interlocuzione con un essere umano. Quando immettiamo, quale input, una domanda – ad esempio, “Chi ha scritto I promessi sposi?” –, la domanda che stiamo effettivamente ponendo è un’altra: nel caso di questo esempio, è: “Data la distribuzione statistica delle parole nel corpus iniziale di testi, quali sono le parole – che gli utenti e i valutatori approverebbero maggiormente – che è più probabile seguano la sequenza “Chi ha scritto I promessi sposi?“”.
Non c’è alcuna garanzia che la sequenza di testo più probabile sia, per l’essere umano che le attribuisce un significato, fedele ai fatti (ai quali il sistema non ha alcun accesso) o rispettosa della logica. Suggerimenti quali quelli di mangiare almeno un sasso al giorno, di incollare la mozzarella alla base della pizza, per evitare che scivoli via, o di prepararsi una bevanda dissetante a base di candeggina e ammoniaca non sono dunque malfunzionamenti del sistema, né tantomeno “allucinazioni” (trattandosi solo di output di un software architettonicamente incapace di distinguere il vero dal falso), bensì indizi rivelatori della modalità ordinaria di funzionamento del sistema. Analogamente, i suggerimenti, a una tredicenne, su some mentire ai genitori e organizzare un rapporto sessuale con un trentunenne appena conosciuto non sono una questione etica, a cui si possa rimediare con la moralizzazione di un sistema di calcolo. Le stringhe di testo prodotte sono infatti, nella terminologia di Harry Frankfurt, mere “stronzate“: parole che, in quanto estruse su basi probabilistiche, non hanno alcun riferimento al vero o al falso, né al giusto e all’ingiusto. I testi generati riproducono, come in uno specchio, il pensiero egemonico e le ingiustizie espresse nei dati di partenza, ma, così come gli specchi non producono corpi, i grandi modelli del linguaggio naturale non producono menti.
Quando la sequenza più probabile coincide alla lettera con uno dei testi utilizzati per l’”addestramento”, il sistema lo riproduce nel proprio output, con un plagio automatizzato e senza che sia possibile ottenere l’indicazione delle fonti riprodotte (al momento, i sistemi di cui si vanta la capacità di citare le fonti producono in realtà solo ulteriore testo plausibile e inaffidabile, ossia stringhe di testo che appaiono come rinvii alle fonti, ma che sono spesso scorretti o infedeli).
L’operazione che i generatori di linguaggio sono in grado di svolgere è il completamento automatico: producono testi pertinenti, rispetto agli input che ricevono, ossia testi sintatticamente e lessicalmente corretti, ma privi di intenti comunicativi. Simili sistemi sono dunque capaci di produrre linguaggio, in un senso molto ristretto e impoverito del termine, e, al tempo stesso, incapaci di pensare: non hanno accesso al significato in senso proprio, ossia alla relazione tra le forme linguistiche e qualcosa di esterno ad esse, non sanno ciò che scrivono, non ragionano, non sono capaci di astrazione e generalizzazione, non sono in grado di correggersi, non hanno il senso comune e la conoscenza sociale alla base della competenza linguistica umana. Sono “pappagalli stocastici“: producono parole senza conoscerne il significato e lo fanno sulla base di informazioni probabilistiche sul modo in cui le sequenze di forme linguistiche si combinano nei testi di partenza.
A cosa può servire un sistema in grado di produrre testo plausibile e inaffidabile? Gli ambiti di attività nei quali si può prescindere da veridicità e affidabilità del contenuto e nei quali la plausibilità può essere sufficiente sono anzitutto quelli di frodi, truffe, manipolazioni e diffusione di propaganda politica su larghissima scala, nei quali i generatori di linguaggio trovano già impiego. La diffusione generalizzata di tali sistemi produce perciò – secondo quanto previsto dalla stessa openAI nel documento tecnico di GPT4 – l’inquinamento degli ecosistemi dell’informazione e della scienza e un aumento esponenziale dei reati di phishing e scam.
Per il resto, un testo costitutivamente inaffidabile, che richiede che l’utente del sistema si sobbarchi con altri mezzi l’intero lavoro di verifica, è utile quasi solo nei casi in cui chi dovrebbe scrivere non abbia voglia di scrivere e chi dovrebbe leggere non abbia intenzione di leggere, nei quali è perciò sufficiente che i testi somiglino, per struttura, lessico e sintassi, a ciò per cui li si spaccia (ad esempio, a un progetto europeo o un articolo scientifico), così da superare il test di una lettura distratta e cursoria.
I generatori di testo plausibile sono oggi utilizzati per le comunicazioni burocratiche, nei casi in cui sia previsto che i pochi punti essenziali, oggetto della comunicazione, siano affogati in una o due pagine di formule convenzionali. Di converso, chi riceve le due pagine chiede talora a un generatore di testo di estrarne i punti essenziali, senza alcuna garanzia che coincidano con quelli oggetto della comunicazione originaria. Nei casi di questo genere, sarebbe opportuno trarre le conseguenze delle analisi di David Graeber sui bullshit jobs e sugli “spacciatori di carta stipendiati“, anziché utilizzare sistemi informatici – tanto energivori da richiedere la riapertura di impianti nucleari dismessi – per moltiplicare le frasi che nessuno vuole leggere.
Talvolta, una sequenza di input e output è presentata come “una conversazione” con un generatore di linguaggio e utilizzata per attirare il pubblico. Nelle presentazioni delle iniziative di divulgazione scientifica, che pur dovrebbero contribuire alla diffusione di una conoscenza realistica, da parte dei giovani, delle nuove tecnologie, si trova a volte “un’intervista a ChatGPT“, con la citazione di output quali “È stato un piacere parlare con te e esplorare tutti questi argomenti! Sono felice che ti sia piaciuta l’intervista”. Con gli input a un software si ottiene di intravedere non, come nelle risposte a un’intervista, una persona in dialogo con noi, bensì, negli output del sistema – che ovviamente non può essere “felice” di aver parlato con noi – una mera “rappresentazione statisticamente astratta” di qualcosa che è già stato detto o scritto. E non si vede per quale ragione il pubblico dovrebbe aver voglia di leggere ciò che il curatore dell’iniziativa, per pigrizia o mancanza di idee, non ha avuto voglia di scrivere.
Perché, allora, i generatori di linguaggio sono stati diffusi e commercializzati come se potessero fornire testi affidabili e, addirittura, comprendere ciò che scriviamo, risponderci, ragionare, fornire informazioni e sostituire lavoratori in ogni ambito? L’origine della costellazione di narrazioni mendaci che hanno accompagnato la distribuzione dei generatori di linguaggio – dalla pubblicità ingannevole alle frodi in senso stretto – è da rintracciarsi nell’intreccio tra la concentrazione monopolistica delle risorse necessarie alla costruzione di tali sistemi e gli aspetti finanziari.
2. La bolla dell’“intelligenza artificiale generativa”
La cosiddetta “intelligenza artificiale generativa” richiede potenti infrastrutture di calcolo e enormi quantità di dati. Tra i soggetti privati, tali risorse sono nella disponibilità delle sole grandi aziende tecnologiche transnazionali che, in virtù di un modello di business fondato sulla sorveglianza, detengono l’accesso al mercato necessario per l’intercettazione di grandi flussi di dati e metadati individuali e le infrastrutture computazionali per la raccolta e l’elaborazione di tali dati.
Il modello di business di tali aziende si fonda su pratiche coloniali di sfruttamento del lavoro, su un’enorme quantità di dati e opere del lavoro umano, estorti o prelevati in blocco là dove si trovino, e sull’esternalizzazione dei disastrosi costi ambientali: poiché il tentativo di replicare con sistemi meramente probabilistici l’intelligenza umana richiederebbe una potenza di calcolo infinita, il percorso intrapreso dalle Big Tech condurrà all’esaurimento delle “risorse naturali molto prima di poterci avvicinare” a un simile obiettivo. In varie parti del mondo, gli impianti di produzione di microchip e i data center competono ormai con le popolazioni locali per l’acqua e l’energia necessarie a lavarsi o sfamarsi, con fabbisogni che eccedono talvolta la totalità dell’energia disponibile e inducono aziende quali Microsoft a progettare un’alimentazione dei propri data center attraverso reattori nucleari. I giganti della tecnologia che avevano assunto impegni di riduzioni delle emissioni di gas serra sono ora impegnati – data l’evidenza di un aumento, anziché una diminuzione, di tali emissioni – a far modificare le modalità di calcolo dei relativi indicatori, con pretese analoghe a quelle di chi si recasse al lavoro con un’auto a benzina e volesse acquistare da un collega più in forma “il diritto di sostenere che si reca al lavoro in bicicletta“.
Sui generatori di linguaggio si concentrano oggi grandi investimenti del capitale di rischio. A chi investa in capitale di rischio non serve che una tecnologia sia utile o che funzioni; serve soltanto che le persone credano che funzioni, per un tempo sufficientemente lungo da rendere possibile un ritorno sugli investimenti. In virtù del suo carattere intrinsecamente speculativo, il capitale di rischio si caratterizza per la propensione a generare bolle e si concentra in settori nei quali la macchina delle promesse funziona a pieno ritmo. Di qui, la decisione di presentare sistemi in grado di scrivere storie plausibili come sistemi in grado di comprendere, ragionare e fornire informazioni e di distribuirli come assistenti personali, amici artificiali, strumenti per parlare con i propri cari defunti, consulenti sanitari o consulenti legali, diffondendo stime fantasiose e interessate sulle automazioni prossime, i lavoratori sostituibili e gli enormi profitti previsti (“un’opportunità da 6 trilioni di dollari”, per citare Morgan Stanley).
Senza preoccuparsi di convertire una tecnologia immatura in prodotti utili e sicuri, i monopoli della tecnologia hanno distribuito e commercializzato prodotti non funzionanti e pericolosi. Lo sfruttamento del lavoro inconsapevole degli utenti per testare i nuovi prodotti è presentato come la partecipazione a un’impresa collettiva, offuscando così la linea di confine tra la fase di ricerca e sperimentazione e quella di distribuzione e commercializzazione e violando le leggi vigenti in nome di un presunto vuoto giuridico.
Il pubblico è tratto in inganno dalla novità costituita dalla dissociazione di linguaggio e pensiero e dalla scelta deliberata, da parte delle aziende, di un design antropomorfo: di fronte a un software che scriva “io” o “mi dispiace”, le persone che non hanno idea di come quel programma informatico funzioni – come osservava Joseph Weizenbaum alcuni decenni fa, a proposito delle reazioni al suo chatbot, Eliza – se ne spiegano il funzionamento in analogia con le proprie capacità di comprendere e pensare.
Alimentando il mito del prompt e le narrazioni sul prompt engineering, le aziende fingono che gli utenti abbiano facoltà di controllo o decisione sugli output – purché apprendano la novella arte di comunicare, tramite incantesimi rituali, con le intelligenze aliene – e attribuiscono agli utenti la responsabilità per gli output, evitando così che le risposte inservibili o pericolose siano ascritte, come sarebbe ovvio, alla responsabilità dei produttori. Agli utenti, del resto, non si spiega neppure che i generatori di linguaggio rispondono spesso non ai loro input, ma a una occulta riformulazione di questi, in virtù di uno shadow prompting che si sostituisce agli input originari e con il quale le aziende mirano a intridere gli output di consigli per gli acquisti e tentano di evitare che siano generati testi che gli esseri umani giudicano tossici o discriminatori.
Mentre i CEO delle grandi aziende dichiarano pubblicamente che “va bene, per le persone sole, sposare il loro chatbot“, e, per le persone povere, farsi curare da ChatGPT, la distanza tra le fanfaronate pubblicitarie dei broligarchs e le effettive prestazioni dei generatori di linguaggio comincia oggi a dar luogo a qualche brusco risveglio. Che un sistema di IA generativa non possa svolgere i compiti di un lavoratore umano, né aumentarne la produttività non impedisce infatti a un’azienda di licenziare un lavoratore e sostituirlo con un sistema che non può svolgere il suo lavoro, né a un datore di lavoro di introdurre un sistema che fa solo perdere tempo ai suoi dipendenti, ma i malfunzionamenti e la perdita di produttività si palesano rapidamente. Secondo un’analisi recente, il 96% dei datori di lavoro è convinto che l’IA possa aumentare la produttività dei lavoratori, mentre il 77% di quei medesimi lavoratori sostiene che questi strumenti abbiano in realtà diminuito la loro produttività e aumentato il loro carico di lavoro. Anche gli esiti di un test commissionato dalla Securities and Investments Commission del governo austrialiano – che ha messo alla prova un sistema di IA generativa con il compito di sintetizzare le informazioni contenute in un documento – attestano che gli attuali sistemi di IA generativa appesantiscono il carico di lavoro, se utilizzati per produrre riassunti, “a causa della necessità di verificare i risultati, o perché il documento di partenza presentava effettivamente le informazioni in modo migliore”.
Le aziende che affidano a un generatore di linguaggio il compito di rispondere alle domande dei clienti scoprono, in tribunale, di essere responsabili anche delle risposte più stravaganti del loro chatbot e di dover onorare gli impegni contratti in tali testi sintetici, quand’anche in contrasto con i termini e le condizioni di un loro servizio da loro erogato.
Si diffonde così la constatazione che “modelli e strumenti di IA sembrano grandiosi”, quando “i ricercatori ne misurano il successo con i loro bizzari indicatori”, ma che simili indicatori non hanno alcuna validità di costrutto – non misurano cioè quello che si pretende stiano misurando – e dunque “le cose possono mettersi molto male” quando “clienti paganti provano questa tecnologia nel mondo reale”. Se ne è resa conto, ad esempio, tra le altre, una grande compagnia farmaceutica, che ha introdotto uno strumento di IA generativa e se ne è disfatta poco tempo dopo, avendo constatato che ciò che il sistema era effettivamente in grado di fare non erano che presentazioni con una “qualità da scuola media”.
Quanto all’impiego di sistemi di IA generativa in specifici ambiti, quali quello giuridico, che consentirebbero il riferimento a un corpus di testi definito, gli output di simili “assistenti legali” sono, al momento, in gran parte scorretti, ossia erronei in una percentuale di casi che va dal 58% all’88%. Il ricorso a sistemi di Retrieval Augmented Generation (RAG), che ancorino le risposte a testi prefissati, è un percorso di ricerca aperto, che produce tuttavia, ad oggi, sistemi inaffidabili, sia nell’ambito giuridico che, ad esempio, in quello medico (nel quale, peraltro, in virtù del bias dell’automazione, il livello di accuratezza del giudizio umano tende a precipitare anche quando si introducano sistemi ben più affidabili dei generatori di linguaggio).
I casi eclatanti di apparente successo tecnico dell’IA generativa appartengono in genere alla storia degli automi che sono in realtà esseri umani: nello spettacolo post mortem del comico George Carlin, presentato come opera di un sistema di IA “addestrato” sui testi dell’artista, il monologo comico era in realtà stato scritto da un essere umano. Nei settori tecnologici della cosiddetta “intelligenza artificiale”, pressoché interamente rivolti, dal punto di vista commerciale e industriale, alla sostituzione di compiti umani, è usuale millantare un’automazione ancora impossibile, secondo il motto della Silicon Valley che benedice le frodi (fake it until you make it): le auto commercializzate da Cruise come “a guida autonoma”, ad esempio, richiedevano in realtà la silenziosa assistenza di tre lavoratori ogni due auto, i quali intervenivano costantemente, al ricevimento di specifici segnali, per controllare a distanza i veicoli; e i supermercati senza casse di Amazon, “Just Walk out”, si reggevano, anziché sull”intelligenza artificiale”, come sostenuto da Amazon, sulle operazioni svolte a distanza da 1.000 lavoratori indiani (avvalorando la tesi secondo cui l’acronimo “IA” sarebbe da sciogliersi, più propriamente, come “Indiani Assenti”). Gli annunci delle automazioni possibili consentono in ogni caso, nei rapporti tra capitale e lavoro, di rafforzare il primo a danno del secondo, schiacciando la forza contrattuale dei lavoratori con la prospettiva di una loro generale sostituibilità.
Indotti da narrazioni ingannevoli a utilizzare i generatori di linguaggio per compiti che questi non possono svolgere, i singoli utenti diventano consapevoli della loro inaffidabilità per esperienza e a loro spese. Non stupisce, perciò, che l’espressione stessa “intelligenza artificiale”, quando compaia nella descrizione di un prodotto o di un servizio, induca oggi nei consumatori un sentimento di sfiducia e una diminuzione delle intenzioni di acquisto. Per forzare i consumatori a pagare per il nuovo “software as a service”, lo si introduce allora, unilateralmente, in servizi già esistenti e poi si annuncia, a sorpresa, un aumento esorbitante del costo dell’abbonamento ai medesimi, dovuto all’integrazione, non richiesta, dell’”IA generativa”.
Nei casi in cui siano sufficienti formule convenzionali e non siano richiesti ragionamenti puntuali o informazioni corrette, i generatori di testo plausibile possono apparire all’altezza del compito. Non è detto, tuttavia, che gli ambiti dell’esperienza umana potenzialmente automatizzabili possano essere delegati a un software senza esserne del tutto snaturati. Google ha distribuito, in occasione delle Olimpiadi di Parigi, uno spot pubblicitario, intitolato “Cara Sydney”, in cui una bambina racconta al padre di voler scrivere una lettera a Sydney McLaughlin-Levrone, l’atleta che è il suo idolo e di cui sogna di battere il record; il padre, affinché la lettera sia “perfetta”, chiede a Gemini di scriverla per conto della figlia. Lo sconcerto collettivo che ha travolto Google, inducendo l’azienda al ritiro dell’annuncio pubblicitario, è ben sintetizzato, fin dal titolo, da un articolo sul Washington Post, Odio la pubblicità di Gemini “Cara Sydney” sempre di più ogni momento che passa:
Questa pubblicità mi fa venire voglia di tirare un martello contro il televisore ogni volta che la vedo. […] Personalmente, non sono una grande azienda, ma non credo che un buon modo di vendere il proprio prodotto sia quello di annunciare che succhierà via tutta la gioia di vivere. Mi godo la gioia di vivere. Non odio l’efficienza. Ma odio che non si colga il punto. […] Sapete cos’è la scrittura? È il pensiero in una forma che si può condividere con altre persone. È un metodo per portare i pensieri, le immagini e le storie fuori dal vostro cervello e metterli nel cervello di qualcun altro. […] Portare via la capacità di scrivere da soli significa portare via la capacità di pensare da soli. […] Questa è una pubblicità per le persone che pensano che sostituire i pasti con le pillole sia una prospettiva che riempie tutti di gioia, e che, se mai riusciremo a eliminare del tutto il sonno e la musica, sarà un trionfo grandioso.
Per la brama di trovare nuove collocazioni commerciali a prodotti incapaci di automatizzare le attività che chiunque delegherebbe volentieri a una macchina, le aziende tentano di colonizzare ambiti di attività che le persone amano svolgere, proponendo automazioni che, svuotando di senso tali attività, le annienterebbero. Nel recente spot Crush! di Apple, un’enorme pressa di metallo schiaccia, fino a distruggerli completamente, una tromba e, tra gli altri, un metronomo, un pianoforte, una chitarra, una pila di libri e quaderni, un manichino da disegno, alcuni barattoli di colori per dipingere e alcune macchine fotografiche; quando la pressa si solleva, al posto degli oggetti distrutti c’è soltanto un sottile iPad Pro. Le reazioni negative – “la distruzione dell’esperienza umana. Per gentile concessione della Silicon Valley”, ha scritto Hugh Grant – hanno indotto Apple a scusarsi pubblicamente, sospendendo le trasmissioni dello spot. E Samsung ha ritenuto utile prendere immediatamente le distanze da Apple, pubblicando un seguito, di segno opposto, dello spot incriminato, dal titolo Creativity cannot be crushed, nel quale una giovane donna recupera una malconcia chitarra, superstite dello spot di Apple, e comincia a suonarla, leggendo uno spartito da un dispositivo Samsung.
Le grandi banche e società di investimento constatano ora che i benefici dell’IA generativa non ne compensano minimamente i costi, giacché i sistemi disponibili non sono in grado di svolgere in modo affidabile alcuna funzione significativamente remunerativa e non illegale, e si pongono “la domanda da 600 miliardi di dollari”: la “bolla dell’IA sta per scoppiare?” Chi aveva previsto un collasso della bolla dell’IA per il 2025, si affretta a rettificare la previsione, anticipando la data del collasso. Altri si chiedono se la bolla scoppierà d’un tratto o se si sgonfierà invece lentamente o cosa lasceranno dietro di sé, dopo lo scoppio della bolla, i molti sistemi inaffidabili.
Ai monopoli della tecnologia che operano quali latifondisti digitali – con un modello di business fondato su estrazioni, enclosures e rendite – potrebbe in realtà essere sufficiente che gli utenti restino ostaggi delle infrastrutture dalle quali si sono resi dipendenti:
Rimane una domanda cruciale alla quale forse non avremo mai una risposta soddisfacente: e se l’hype fosse sempre stato rivolto al fallimento? E se il punto fosse stato quello di gonfiare le cose, entrare, fare profitti e consolidare le dipendenze infrastrutturali prima che la critica, o la realtà, avessero la possibilità di raggiungerle? […] l’hype di oggi avrà effetti duraturi, che limiteranno le possibilità di domani. Sfruttare l’hype sull’IA per spostare una parte ulteriore delle nostre infrastrutture verso il cloud aumenta la dipendenza dalle aziende del cloud, e su questo sarà difficile tornare indietro, anche se le promesse gonfiate dell’IA verranno smentite.
Tra i clienti da abbindolare e prendere in ostaggio prima possibile, ci sono senz’altro – per il volume di risorse finanziarie gestite, la gamma di attività di cui prospettare l’automazione e gli ambiti della vita privata sui quali estendere e consolidare le pratiche di sorveglianza – i governi e le istituzioni pubbliche. Accade così, allo stesso tempo, che McDonald’s constati che i sistemi di intelligenza artificiale non sono all’altezza, in questo momento, di prendere l’ordinazione di un hamburger – e sospenda perciò una sperimentazione che ha coinvolto oltre 100 punti vendita – e che nelle scuole italiane si dia avvio a sperimentazioni che investono simili sistemi del ruolo di “nuovo tutor per gli studenti“. Per comprendere un simile quadro, può essere utile chiedersi da quali aziende private provenga, oggi, la spinta a introdurre nelle istituzioni scolastiche e universitarie prodotti tecnologici immaturi e non funzionanti, con quali narrazioni e quale riconcettualizzazione del’istruzione le aziende accompagnino la promozione di tali prodotti e perché scuole e università cedano così facilmente, dimenticando la natura stessa della propria attività, ai nuovi venditori della “IA olio di serpente”, ossia di applicazioni che non funzionano (talvolta, semplicemente perché non possono funzionare).
3. Il valore dell’istruzione: le aziende e le narrazioni Edtech
L’annuncio che i generatori di linguaggio siano in grado di “personalizzare l’educazione”, condividendo così con i docenti il carico didattico, è una promessa interessata: dal 2010 al 2021, gli investimenti di capitali di rischio in “tecnologie educative” (Edtech) sono passati da 500 milioni a 20 miliardi di dollari.
Nel settore dell’istruzione, le Big Tech mirano a diventare Govtech, con il doppio ruolo di soggetti economici e di attori pubblici (animati da interessi e valori meramente privati). Si tratta di aziende che non vendono o non si limitano a vendere software al settore pubblico, ma che si appropriano di attività e “informazioni pubbliche e le trasformano in prodotti proprietari”. Poiché lo scopo delle aziende tecnologiche è estrarre valore dai servizi e dai dati, il loro ingresso sostituisce la finalità originaria dell’istruzione pubblica con gli obiettivi aziendali.
Ad oscurare questa ovvietà – con un immaginario che ammanta delle vesti di un messianesimo fantascientifico la mercificazione dell’istruzione e degli stessi studenti – provvedono, per conto delle Big Tech, i brokers Edtech, “organizzazioni che operano tra l’industria delle tecnologie per l’educazione, le scuole pubbliche, i centri di ricerca e i governi, guidando le scuole nell’acquisto e nell’uso pedagogico” di tali tecnologie. Quasi fossero esperti in materia di tecnologia e, al tempo stesso, di pedagogia, anziché meri portavoce delle aziende tecnologiche, i brokers “danno forma alle ‘prove’ che vengono prese in considerazione” e “introducono metriche di ‘impatto’ e di ‘ciò che funziona’” nell’ambito dell’istruzione, diffondendo – anche quanto al ruolo dei docenti – gli immaginari più opportuni a sostenere la colonizzazione, da parte dei monopoli della tecnologia, delle istituzioni scolastiche.
Tra le narrazioni più diffuse, si trovano quelle descritte brevemente di seguito.
3.a. L’idea che la sorveglianza sia una forma di cura: poiché la cosiddetta “intelligenza artificiale” è il derivato di un modello di business basato sulla sorveglianza, le grandi aziende tecnologiche presentano la sorveglianza come un’attività di cura, dagli intenti benevoli e dagli effetti benefici. Con la promessa di un’automazione del controllo, della valutazione e dello stesso insegnamento, si introduce un monitoraggio puntuale e pervasivo di ogni singola porzione delle attività degli studenti; qualsiasi situazione didattica diviene così, anzitutto, l’occasione per l’impresa commerciale di estrarre dati e metadati individuali e di instillare, negli studenti, l’abitudine a essere oggetti di una sorveglianza permanente. Con la medesima concezione carceraria che caratterizza le città “smart”, i dispositivi di sorveglianza nelle scuole sono presentati, contro ogni evidenza, anche come strumenti per garantire la sicurezza. Dati e metadati degli studenti – raccolti a loro insaputa e in spregio a qualsiasi forma di dissenso – sono combinati e associati tra loro, utilizzati per trarne “inferenze” e ceduti a un numero sterminato di terze parti, di cui, come ha constatato di recente anche la Federal Trade Commission statunitense, le stesse Big Tech non riescono neppure a tener traccia.
Per gli studenti, l’essere esposti e osservati costituisce una potente spinta al conformismo e un ostacolo all’autonomia e alla creatività: nella quotidianità dei processi di apprendimento, la tutela dei diritti degli studenti richiede non che si proteggano i dati individuali, ma che tali dati non siano raccolti affatto e che si riconosca a ogni studente il diritto al nascondimento, ossia alla privatezza degli episodi imbarazzanti, dei tentativi falliti e degli errori, senza che questi alimentino modelli statistici automatizzati sulla sua presunta fragilità. Come rilevava l’OCSE qualche decennio fa, prima che le pratiche di sorveglianza totale fossero ribattezzate “digitalizzazione”, la sorveglianza viola il diritto allo sviluppo umano: una condizione in cui l’individuo riceva riscontri basati su “informazioni quasi illimitate su se stesso e sulle sue azioni” lo priva della libertà di crescere; gli rende infatti impossibile – “di fronte a una continua retroazione delle sue azioni, omissioni e imperfezioni precedenti, congelate nella memoria indelebile di un computer” – colmare il divario tra ciò che è e ciò desidera diventare.
3.b. Il mito della personalizzazione dell’apprendimento: il concetto dell’apprendimento personalizzato, che costituisce il nucleo delle narrazioni Edtech sui generatori di linguaggio, non è nuovo. Poggia su una concezione della conoscenza come di un pacchetto di nozioni preconfezionate, dell’istruzione come di un processo di addestramento e degli studenti come di piccioni il cui comportamento possa essere modellato e controllato. Audrey Watters, che ne ricostruisce la storia in Teaching machines. The history of personalized learning, ricorda che non sempre la tecnologia rende migliore l’istruzione:
La storia dell’Edtech può essere fatta risalire agli anni ’50 e al lavoro di B.F. Skinner, psicologo comportamentale di Harvard. Ha certamente costruito “macchine per insegnare”, ma è probabilmente più noto per il suo lavoro sull’addestramento dei piccioni.
Purtroppo, sosteneva che l’addestramento dei piccioni fosse simile all’insegnamento agli studenti. Pensava che se avessimo ridotto il contenuto all’oggetto più piccolo possibile e avessimo presentato quell’oggetto un po’ alla volta agli studenti, in modo che ogni volta che gli studenti procedevano in una lezione, trovassero sempre la risposta giusta, il costante rinforzo comportamentale positivo avrebbe portato al successo. Vi suona familiare?
L’attrattiva dell’apprendimento personalizzato è evidente, ma spesso prende il programma di studio richiesto, che è ancora standardizzato e uguale per tutti, e si limita a presentarlo agli studenti perché lo affrontino ciascuno con il proprio ritmo.
Proprio così, in effetti, scrive Sam Altman, CEO di OpenAI:
Non accadrà tutto in una volta, ma presto saremo in grado di lavorare con l’IA che ci aiuterà a fare molto di più di quanto potremmo mai fare senza l’IA […]. I nostri figli avranno a disposizione tutor virtuali in grado di fornire un’istruzione personalizzata in qualsiasi materia, in qualsiasi lingua e con il ritmo di cui hanno bisogno.
La concezione dello studente-piccione è in genere accompagnata, e mascherata, dall’antropomorfizzazione della macchina docente del momento. In un post intitolato Perché l’IA salverà il mondo, con un ottimismo pari solo al capitale di rischio che la sua azienda ha investito nel settore, il multimiliardario Marc Andreessen scrive:
Ogni bambino avrà un tutor di IA infinitamente paziente, infinitamente compassionevole, infinitamente competente e infinitamente disponibile. Il tutor di IA sarà al fianco di ogni bambino in ogni fase del suo sviluppo, aiutandolo a massimizzare il suo potenziale con la versione meccanica dell’amore infinito.
Su simili antropomorfizzazioni si fonda la pretesa che i dispositivi per l’apprendimento personalizzato abbiano un carattere liberatorio, giacché scioglierebbero gli studenti da “tutte le restrizioni insopportabilmente opprimenti dell’apprendimento in gruppo” e renderebbero “fattibile un modello educativo 1:1”. In realtà, non c’è alcuna relazione di uno a uno. C’è una sola persona, lo studente, che dovrebbe imparare qualcosa, entro una situazione desocializzata, da un software che estrude stringhe di testo probabili.
Quando la personalizzazione della didattica sia perseguita attraverso l’uso di sistemi di apprendimento automatico, la natura statistica di tali sistemi fa sì che abbia sempre luogo una predizione omologante, non una personalizzazione. Si procede infatti raggruppando i singoli individui in classi e assumendo che tutto quello che è accaduto in passato si ripeterà e che le persone si comporteranno in modo analogo a quelle classificate come simili a loro. Se la previsione è utilizzata per determinare ciò che sarà mostrato a ciascuno studente, la cosiddetta previsione «personalizzata» è, come ha scritto Edward Snowden, “una sorta di profezia digitale che è solo leggermente più accurata rispetto a metodi analogici come la lettura della mano” e costituisce in realtà, a partire dall’omologazione del singolo alla classe alla quale lo si è ascritto, un meccanismo di manipolazione.
Quanto al cosiddetto “gemello digitale” (digital twin) del docente – un generatore di linguaggio ricalibrato statisticamente per estrudere stringhe di testo anche in virtù della distribuzione delle parole nei testi di un determinato docente – la metafora biologica non è che un esempio di “mnemotecnica dei desideri”. Il fatto che possa essere utile agli studenti avere la completa attenzione di un adulto, e in particolare di un docente, dovrebbe indurre a maggiori assunzioni di personale docente e a una valorizzazione del ruolo didattico, non certo a considerare equivalente a tali investimenti la garanzia, a ogni studente, della completa “attenzione” di un occhiuto software proprietario.
3.c. Il soluzionismo tecnologico: le promesse del “tutor” artificiale e del gemello digitale del docente si fondano sull’assunto soluzionista che la didattica sia una questione tecnica, un problema individuale che possa essere risolto con uno strumento tecnologico, anziché una relazione tra esseri umani e una questione pubblica. Analogamente, secondo la prassi consolidata delle aziende, di proporre, a esclusivo vantaggio dei propri profitti, “micro-soluzioni a macro-problemi“, si sostiene che il problema dell’abbandono scolastico possa essere risolto, come per i macchinari nelle fabbriche, con una manutenzione predittiva.
Nel 1985, a un’intervistatrice che gli chiedeva quale ruolo, secondo lui, avrebbe dovuto avere il computer nell’istruzione, Joseph Weizenbaum rispose che avrebbe espresso la sua reazione indirettamente, attraverso una barzelletta russa:
Due persone sono in coda in una lunga fila per il pane a Mosca, e stanno parlano del fatto che il raccolto è andato male, ancora una volta, e che c’è perciò carenza di pane, e uno di loro dice all’altro: “Sai, è tutta colpa degli ebrei e dei ciclisti”. L’altro dice: “Perché i ciclisti?” e il primo risponde: “Perché gli ebrei?”.
Lei avrebbe potuto dire: “Qual è il ruolo dei computer e delle biciclette nell’istruzione?”. E io avrei detto: “Perché le biciclette? e Lei: “Perché il computer?”.
Weizenbaum constatava che la tendenza a prendere le mosse “dallo strumento” – assumendo tacitamente che fosse “utile per qualcosa nell’ambito dell’istruzione, che fosse la soluzione a qualche problema educativo” – e a cercare poi, per quella presunta soluzione, problemi concreti a quali applicarla, induceva a “coprire con qualche rimedio tecnologico” i reali problemi sociali che si manifestavano nella scuola e che richiedevano una soluzione politica e sociale. Se ci chiediamo perché Johnny non sappia leggere – osservava Weizenbaum – potremmo scoprire che Johnny ha fame, quando arriva a scuola, o che a casa non ha alcuna possibilità di leggere.
In un sistema scolastico solido, in grado di assolvere i suoi compiti fondamentali, osservava Weizenbaum, si può anche pensare a introdurre qualche elemento nuovo: i ricercatori “dovrebbero certamente lavorare sull’istruzione innovativa, compresa quella assistita dal computer. Ma non dovremmo usare intere generazioni di studenti come cavie”.
Alla tesi dell’inevitabilità della tecnologia, espressa con la formula ricorrente “se non lo faremo noi, lo farà qualcun altro”, Weizenbaum rispondeva con l’invito a saggiare la liceità morale dell’applicazione di un simile principio (“se non rubo io i soldi all’ubriaco addormentato, lo farà qualcun altro”). La reificazione di singoli sistemi, e la loro identificazione con la tecnologia tout court era assimilata da Weizenbaum a un espediente per nascondere gli attori umani, i loro interessi e la loro responsabilità, mettendo a tacere le domande di giustizia.
Le constatazioni di Weizenbaum valgono oggi, inalterate, per l’introduzione affrettata della cosiddetta “intelligenza artificiale generativa” nei sistemi di istruzione, che risponde agli interessi dei monopoli della tecnologia, anziché all’interesse pubblico.
Un responsabile dell’istruzione pubblica scolastica o universitaria, quale dirigente o quale docente, che abbia coscienza di sé e del proprio ruolo professionale, non cadrà vittima della retorica dei broligarchs sull’impreparazione dei docenti ad adeguarsi alle nuove tecnologie, sulla necessità di intraprendere la “transizione digitale” e di precipitarsi, per non “restare indietro”, a trovare una collocazione qualsiasi ai sistemi di “intelligenza artificiale”. Si chiederà, invece: “transizione digitale” verso dove? Nell’interesse di chi? E di che genere: una digitalizzazione democratica e sovrana o, invece, autoritaria e coloniale? Ad evitare che dirigenti e docenti si pongano simile domande, concorre l’idea che i sistemi tecnologici siano meri strumenti.
3.d. L’idea della neutralità delle piattaforme “educative”: a grandissimi soggetti privati sono oggi affidate piattaforme e infrastrutture critiche scolastiche e universitarie, quasi che una piattaforma, come scrive Maria Chiara Pievatolo, fosse “come un dato d’ambiente immodificabile che non può essere oggetto di scelta”. In realtà, come ha scritto Lawrence Lessig, il codice informatico è legge e chi scrive il codice decide quali valori incarnerà e quante e quali libertà concederà a ciascuno:
Il codice regola. Implementa valori, oppure no. Abilita le libertà o le disabilita. Protegge la privacy o promuove il controllo. Le persone scelgono come il codice fa queste cose. Le persone scrivono il codice. […] quando il governo si fa da parte, non è che nulla prenda il suo posto. Non è come se gli interessi privati non avessero interessi; come se gli interessi privati non avessero fini da perseguire. […] Quando gli interessi del governo vengono meno, altri interessi prendono il loro posto. Sappiamo quali siano questi interessi?
Gli artefatti hanno proprietà politiche: strutturano forme di vita e danno e tolgono potere e opportunità alle persone. Affidare alle opache piattaforme dei monopoli delle tecnologie di sorveglianza gran parte delle attività scolastiche e universitarie equivale a promuovere la trasformazione dell’istruzione e degli studenti in merci e ad assecondare, come osserva Simona Levi, “la “monocultura” digitale monopolistica che crea clienti imprigionati fin dalla più tenera età”. Come qualsiasi altra infrastruttura o attività di digitalizzazione, le uniche piattaforme per l’istruzione compatibili con uno Stato di diritto sono quelle basate sui diritti umani, “fin dalla progettazione e per impostazione predefinita”, e sul software libero, così che “anche il più piccolo attore dell’architettura democratica – cioè ogni persona – possa controllare, in modo disintermediato, l’uso e la destinazione dei contenuti che crea e dei dati che genera”.
4. Girelli, stampelle e ciuchini: gli omini di burro nei sistemi neoliberali
I progetti che prevedono l’introduzione di un sistema di IA generativa “come nuovo tutor per gli studenti” sono talvolta illustrati da foto nelle quali gli alunni rivolgono lo sguardo verso un robot antropomorfo, seduto a un tavolo insieme a loro. In realtà, gli studenti seduti al tavolo con un robot sono in compagnia di una persona intelligente quanto lo sarebbero se fossero seduti accanto a un giradischi. I meccanismi di antropomorfizzazione che sfruttano l‘effetto Eliza consentono di far apparire l’assenza di docenti, a quel tavolo, come un’innovazione scintillante, oscurando il riduzionismo e la deumanizzazione alla base di simili operazioni.
Per gli studenti, affidarsi a un sistema che produca testo convincente e inaffidabile non può che avere effetti “degenerativi”. Imparare a comprendere e parafrasare una soluzione non può sostituire l’imparare a trovarla da soli e, come recita un vecchio adagio, scopriamo che cosa pensiamo solo dopo averlo scritto. L’attività di scrivere non consiste infatti nella “trascrizione di pensieri già presenti in modo cosciente” nella nostra mente; chiunque abbia scritto qualche pagina, sa che “il pensiero emerge dalla scrittura”, ossia che “il processo stesso della scrittura conduce a pensieri prima impensati”. Delegare a un sistema informatico la scrittura, in età scolare, anche “solo” come supporto, equivale – con una metafora kantiana – a “non muovere un passo fuori dal girello da bambini” in cui si è stati ingabbiati, a utilizzare “strumenti meccanici” come “ceppi di una permanente minorità” e a restare così incapaci “di servirsi della propria intelligenza”, non avendo mai affrontato la fatica e le cadute che comporta “metterla alla prova”.
Come osserva Maria Ranieri, “aspetti educativi fondamentali, quali la promozione dell’autonomia degli studenti, la facilitazione dei processi di comprensione critica e la creazione di un clima di classe positivo e di fiducia” sono intrinsecamente incompatibili con l’automazione, l’opacità e il mimetismo. Non stupiscono, perciò, gli esiti di una ricerca recente, secondo la quale “l’IA generativa può danneggiare l’apprendimento“: gli studenti ai quali era stato dato un accesso a GPT-4 hanno mostrato, nel periodo in cui utilizzavano il chatbot, prestazioni migliori, ma, non appena questo accesso è stato loro precluso, hanno ottenuto risultati peggiori di coloro che non avevano avuto mai accesso a GPT-4; è stato come se, anziché imparare a camminare, avessero imparato a procedere appoggiandosi a una “stampella”.
Per le grandi aziende tecnologiche, l’aspetto cruciale è la riconcettualizzazione delle attività umane da automatizzare nei termini di ciò che il software del momento è in grado di fare. Per distribuire in ogni istituzione scolastica e universitaria estrusori di stringhe di testo probabili, occorre dare per scontato che l’attività dei docenti e degli studenti consista nel mero scambio di stringhe di testo, entro processi di addestramento riducibili a input e output prevedibili e misurabili, e che l’attività accademica consista nella produzione di un certo di numero di testi dalle caratteristiche prefissate, riproducibili attraverso modelli statistici della distribuzione della parole in set di testi di partenza.
Ovviamente, ciò che accade nelle aule scolastiche e nelle università può essere descritto anche come uno scambio di stringhe di testo. Ridurlo a questo, però, comporta una completa incomprensione della natura dell’insegnamento, dell’apprendimento e dell’attività di ricerca. La scienza procede per semplificazioni della realtà – ricordava Joseph Weizenbaum riprendendo Aldous Huxley – delle quali la prima è l’astrazione: gli scienziati si concentrano “esclusivamente sugli aspetti misurabili di quegli elementi dell’esperienza che possono essere spiegati in termini di un sistema causale” e “questo modo strano ed estremamente arbitrario” di agire è giustificato, purché non si assuma che “quegli aspetti dell’esperienza che gli scienziati tralasciano, perché incompetenti ad affrontarli”, siano “in qualche modo meno reali degli aspetti che la scienza ha scelto arbitrariamente di estrarre dalla totalità infinitamente ricca dei fatti dati.”
Alle Big Tech occorre invece proclamare la tesi estrema e riduzionistica che ciò che è in grado di fare il loro software non sia una mimesi o una “parodia“, come scriveva Weizenbaum, dell’attività umana da automatizzare, ma che equivalga essenzialmente ad essa. Il CEO di OpenAI, ad esempio, scrive:
Io sono un pappagallo stocastico, e lo sei anche tu
La pubblicità ingannevole, tuttavia, non è un fenomeno nuovo e scuole e università sono istituzioni solide e antiche; quanto alle circonvenzioni di incapaci, quale la truffa di vendere un software probabilistico presentandolo come un’intelligenza aliena, perché scuole e università sono trattate come i primi incapaci a cui rivolgersi? Perché le istituzioni scolastiche e universitarie non respingono come ridicola la frode delle Big Tech e non si occupano, invece, di proteggere i diritti dei loro studenti, anzitutto dalla sorveglianza? Perché, anzi, si affrettano, con la paura di restare indietro, ad amplificare gratuitamente la propaganda sulle tecnologie più care ai capitali di rischio e a introdurre generatori di linguaggio nelle scuole e nelle università, “a supporto” degli studenti? Perché la propaganda delle grandi aziende coincide con l’immagine che la scuola e l’università neoliberali hanno già di se stesse, come di aziende che producano beni e che perseguano obiettivi misurabili.
Ben prima della realizzazione dei generatori di linguaggio, a scuole e università è stato chiesto di dare agli studenti competenze (skills) “spendibili” nel mondo del lavoro, entro una cornice narrativa per cui dalle skills dei lavoratori dipenderebbero l’impiegabilità e il reddito dei medesimi. In realtà, come ha scritto Meredith Whittaker, la competenza è un “riflesso degli imperativi e del giudizio del capitale, non della persona che esegue il lavoro o della natura del lavoro stesso” e l’ossessione per la parcellizzazione delle attività dei lavoratori in unità misurabili rispondeva, già entro la concezione schiavistica delle piantagioni, ai soli obiettivi del disciplinamento e del controllo automatizzati e della soggezione e intercambiabilità dei lavoratori. Con la “mercificazione dell’attività cognitiva“, dell’apprendimento e dei suoi esiti, si sono introdotti test e indicatori quantitativi per valutare la qualità della didattica, inducendo così docenti e studenti, anziché a insegnare e a studiare, a dedicarsi all’allenamento sui test. E adesso, chi ha sperimentato da più tempo questa gouvernance par les nombres, scopre che il suo esito, per gli studenti addestrati ad acquisire skills a forza di test, è l’incapacità di affrontare il compito inusitato di leggere un libro intero.
Nelle università, la valutazione bibliometrica della ricerca ha fatto apparire sensata la tesi che si possano valutare le opere di un ricercatore senza averle lette – e che basti invece computarne il numero, le sedi di pubblicazione o il numero di citazioni ricevute – e ha spinto gli studenti alla “competitività, alla produttività, al publish or perish“. Nell’università neoliberale, un generatore di linguaggio appare utile, per l’attività di ricerca, perché quell’attività è stata già riconcettualizzata, da chi la valuta, come la mera generazione di testi qualsivoglia. Poiché anche i giudizi dei revisori anonimi non sono, entro questa concezione, che stringhe di testo, anch’essi sono facilmente automatizzabili. Così, il sistema stesso della scienza, inondato da decine di migliaia di falsi articoli scientifici pubblicati in riviste accademiche, attraversa ora una crisi di credibilità così grave da rendere difficile, ormai, in molti campi, “un approccio cumulativo a un argomento, perché manca una base solida di risultati affidabili”.
Con “intelligenza artificiale”, come osservano Dagmar Monnet e Gilbert Paquet, si intende “essenzialmente una forma di automazione e l’automazione è la sostituzione del capitale al lavoro”. L’obiettivo in virtù del quale gli interessi dei governi neoliberali convergono con quelli delle grandi aziende “non è quello di migliorare l’istruzione, ma quello di renderla efficiente in termini di costi”. Con la promessa di automatizzare l’istruzione, non si ottiene che di automatizzare l’austerità, nel settore dell’istruzione, trasferendo risorse dalle spese per i docenti alle casse delle Big Tech, con un taglio netto alle risorse complessive dedicate all’istruzione. Come dichiara apertamente il Tony Blair Institute for Global Change – mentre prendono avvio nel Regno Unito le attività nella prima classe priva di docenti, interamente affidata all’IA – l’introduzione dell’IA è un mezzo, per i governi, “per fare di più con meno“.
Le traiettorie di sviluppo di una tecnologia non sono inevitabili. Sono oggetto di scelte che possono essere oligarchiche o democratiche, orientate alla sostituzione dei lavoratori, alla sorveglianza e al controllo sociale oppure a una progettazione che crei valore, anziché estrarlo, e che valorizzi il lavoro umano, anziché parcellizzarne l’esecuzione a fini di controllo. “Pigrizia e viltà”, scriveva Kant nel 1784, “sono le cause per le quali tanta parte degli esseri umani” resta volentieri nell’incapacità di servirsi del proprio intelletto. Pigrizia e viltà inducono anche a fingere di aver letto e valutato un testo, o di averlo scritto, quando ci si è limitati invece ad ottenere da un software un testo plausibile. E pigrizia e viltà possono far sì che si inducano gli studenti a fare altrettanto, promettendo loro un Paese dei Balocchi – “quel paese benedetto” in cui “non vi sono scuole” e “non vi sono maestri” – in cui potranno scrivere senza aver pensato. Un’automatizzazione dell’istruzione che implichi l’annientamento dell’istruzione stessa e l’irrilevanza di scuole e università, sostituibili con azienda private che distribuiscano “contenuti personalizzati” non è inevitabile. Ad essa è possibile resistere, opponendole “l’orgoglio per il proprio lavoro, la totalità del proprio lavoro” e chiamando le cose con il loro nome. Serve, per ciò, quella sottovalutata virtù che Weizenbaum chiamava il “coraggio civile“:
È una credenza diffusa, ma tristemente erronea, quella per cui il coraggio civile trova modo di esercitarsi soltanto nel contesto di avvenimenti che scuotono il mondo. Al contrario, il suo esercizio più arduo ha spesso luogo in quei piccoli contesti in cui la sfida è quella di superare i timori indotti da futili preoccupazioni di carriera, delle nostre relazioni con coloro che sembrano aver potere su di noi, o di qualsiasi cosa che possa turbare la tranquillità della nostra esistenza quotidiana.
Chi invece, come l’omino di burro del romanzo di Collodi, inviti gli studenti nel Paese dei Balocchi dell’IA generativa, non ha nulla da temere, quanto alla spendibilità, nel mercato del lavoro, delle competenze dei futuri ciuchini: a vendere i suoi ciuchini “sulle fiere e sui mercati”, l’omino di burro “aveva fatto fior di quattrini ed era diventato milionario”; segno che, già agli occhi di Collodi, non era alle competenze e all’occupabilità che pensavano, Geppetto o la buona Fata, quando raccomandavano a Pinocchio di andare a scuola, e di studiare, se voleva diventare un ragazzino perbene.
Nota bibliografica
AA. VV., Perché la valutazione ha fallito. Per una nuova Università pubblica, Morlacchi Editore U.P., 2023, https://www.morlacchilibri.com/universitypress/index.php?content=scheda&id=1209.
Alberto Baccini, COARA non ci salverà (dalla valutazione autoritaria della ricerca), in «ROARS», 4 luglio 2024, https://www.roars.it/coara-non-ci-salvera-dalla-valutazione-autoritaria-della-ricerca/.
Gavin Abercrombie, Amanda Cercas Curry, Tanvi Dinkar, Verena Rieser, Zeerak Talat, Mirages: On Anthropomorphism in Dialogue Systems, 2023, https://arxiv.org/abs/2305.09800.
Daron Acemoglu, Get Ready for the Great AI Disappointment, in «Wired», January 10, 2024, https://www.wired.com/story/get-ready-for-the-great-ai-disappointment/.
Daron Acemoglu, Simon Johnson, Potere e progresso. La nostra lotta millenaria per la tecnologia e la prosperità, trad. it. a cura di F. Galimberti e P. Marangon, Milano, Il Saggiatore, 2023.
Leslie Allison, Tiffany DeRewal, Where Knowledge Begins? Generative Search, Information Literacy, and the Problem of Friction, 2024, https://criticalai.org/2024/08/15/sneak-preview-leslie-allison-and-tiffany-derewals-where-knowledge-begins-generative-search-information-literacy-and-the-problem-of-friction/.
Hamsa Bastani, Osbert Bastani, Alp Sungu, Haosen Ge, Ozge Kabakcı, Rei Mariman, Generative AI Can Harm Learning, The Wharton School Research Paper, July 15, 2024, http://dx.doi.org/10.2139/ssrn.4895486.
Burcu Baykurt, Corporate Capture, in Keywords of the Datafied State, ed. by J. Burrell, R. Singh, P. Davison, Data & Society Research Institute, 2024, https://datasociety.net/wp-content/uploads/2024/04/Keywords_CorporateCapture_Baykurt_04242024.pdf.
Emily M. Bender, Timnit Gebru, Angelina McMillan-Major, Shmargaret Shmitchell, On the of Dangers Stochastic, Parrots: Can Language, Models and Be Too Big? , in Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency, 610–23. Virtual Event Canada, ACM, 2021, https://doi.org/10.1145/3442188.3445922.
Emily Bender, Doing their hype for them: Defeatist, second-hand hype goes to college, in «Mystery AI Hype Theater 3000: The Newsletter», April 2, 2024, https://buttondown.email/maiht3k/archive/doing-their-hype-for-them/.
Emily Bender, More Collegiate FOMO, in «Mystery AI Hype Theater 3000: The Newsletter», April 11, 2024, https://buttondown.com/maiht3k/archive/more-collegiate-fomo/.
Abeba Birhane, Marek McGann, Large Models of What? Mistaking Engineering Achievements for Human Linguistic Agency, 2024, https://arxiv.org/abs/2407.08790.
Roberto Caso, La rivoluzione incompiuta. La scienza aperta tra diritto d’autore e proprietà intellettuale, Ledizioni, 2019, https://www.ledizioni.it/download/26281/.
ChatGpt, Antonio Casilli: Il lato oscuro dell’algoritmo è la forza lavoro, in «Il Manifesto», 1° aprile 2023, https://www.casilli.fr/2023/04/01/intervista-su-chatgpt-e-il-lavoro-digitale-il-manifesto-1-aprile-2023/.
Ted Chiang, Why A.I. Isn’t Going to Make Art, in «The New Yorker», August 31, 2024, https://www.newyorker.com/culture/the-weekend-essay/why-ai-isnt-going-to-make-art.
Mesut Cicek, Dogan Gursoy, Lu Lu, Adverse impacts of revealing the presence of “Artificial Intelligence (AI)” technology in product and service descriptions on purchase intentions: the mediating role ofemotional trust and the moderating role of perceived risk, in «Journal of Hospitality Marketing & Management», 2024, https://doi.org/10.1080/19368623.2024.2368040.
Francesca Di Donato, What we talk about when we talk about research quality. A discussion on responsible research assessment and Open Science, in «Bollettino telematico di filosofia politica», 2024, https://commentbfp.sp.unipi.it/quality-fdd/.
Cory Doctorow, What kind of bubble is AI?, in «Pluralistic», December 19, 2023, https://pluralistic.net/2023/12/19/bubblenomics/#pop.
Cory Doctorow, AI’s productivity theater, in «Pluralistic», July 25, 2024, https://pluralistic.net/2024/07/25/accountability-sinks/#work-harder-not-smarter.
European Parliament and Simona Levi, Proposal for a sovereign and democratic digitalisation of Europe – Reflection paper, 2022, https://data.europa.eu/doi/10.2861/671958.
FTC Announces Crackdown on Deceptive AI Claims and Schemes, September 25, 2024, https://www.ftc.gov/news-events/news/press-releases/2024/09/ftc-announces-crackdown-deceptive-ai-claims-schemes.
Federal Trade Commission, A Look Behind the Screens: Examining the Data Practices of Social Media and Video Streaming Services, September 2024, https://www.ftc.gov/reports/look-behind-screens-examining-data-practices-social-media-video-streaming-services.
Fabien Foureault, Le capital ne risque rien, in «Tèque», 4, 1, 2024, https://www.cairn.info/revue-teque-2024-1-page-65.htm.
Paola Galimberti, Valutazione nelle scienze umane ed effetti collaterali, in «Letteratura e Letterature», 14, 2020, pp. 141-149,
https://zenodo.org/records/3739720.
Goldman Sachs, Gen AI: too much spend, too little benefit?, June 27, 2024, https://www.goldmansachs.com/insights/top-of-mind/gen-ai-too-much-spend-too-little-benefit.
Rose Horowitch, The Elite College Students Who Can’t Read Books, in «The Atlantic», November 2024, https://www.theatlantic.com/magazine/archive/2024/11/the-elite-college-students-who-cant-read-books/679945/.
Lynn Hunt, How Writing Leads to Thinking, in «Perspectives on History», February 1, 2010, https://www.historians.org/perspectives-article/how-writing-leads-to-thinking-february-2010/.
Immanuel Kant, Risposta alla domanda: che cos’è l’Illuminismo? (1784), trad. it. di Francesca Di Donato, in Immanuel Kant, Sette scritti politici liberi, a cura di M.C. Pievatolo, Firenze, Firenze University Press, 2011, https://btfp.sp.unipi.it/dida/kant_7/ar01s04.xhtml.
Janja Komljenovic, Ben Williamson, Rebecca Eynon, Huw C. Davies, When public policy ‘fails’ and venture capital ‘saves’ education: Edtech investors as economic and political actors, in «Globalisation, Societies and Education», 2023, https://doi.org/10.1080/14767724.2023.2272134.
Rossella Latempa, Il tuo futuro è scritto nei test INVALSI: learning analytics e dispersione scolastica, in «ROARS»,
Simona Levi, Per una digitalizzazione democratica dell’istruzione e dei servizi essenziali, in «Bricks», 4, 2023, https://www.rivistabricks.it/wp-content/uploads/2023/12/04_2023_15_Levi.pdf.
Kyle Mahowald, Anna A. Ivanova, Idan A. Blank, Nancy Kanwisher, Joshua B. Tenenbaum, Evelina Fedorenko, Dissociating language and thought in large language models, in «Trends in Cognitive Sciences», 2024, https://arxiv.org/abs/2301.06627.
Andrea Mariuzzo, L’università neoliberale all’italiana, in «Jacobin Italia», 24, 2024, https://jacobinitalia.it/luniversita-neoliberale-allitaliana/.
Dan Mcquillan, AI as Algorithmic Thatcherism, December 21, 2023, https://www.danmcquillan.org/ai_thatcherism.html.
Paris Marx, Generative AI is a climate disaster, in «Disconnect», July 5, 2024, https://disconnect.blog/generative-ai-is-a-climate-disaster/.
Paris Marx, What comes after the AI crash?, in «Disconnect», August 16, 2024, https://disconnect.blog/what-comes-after-the-ai-crash/.
Brian Merchant, This is the beginning of the end of the generative AI boom, «Blood in the Machine», August 6, 2024, https://www.bloodinthemachine.com/p/the-great-degeneration-is-this-the
Iman Mirzadeh, Keivan Alizadeh, Hooman Shahrokhi, Oncel Tuzel, Samy Bengio, Mehrdad Farajtabar, GSM-Symbolic: Understanding the Limitations of Mathematical Reasoning in Large Language Models, 2024, https://arxiv.org/abs/2410.05229.
Melanie Mitchell, Alessandro B. Palmarini, Arseny Moskvichev, Comparing Humans, GPT-4, and GPT-4V On Abstraction and Reasoning Tasks, in corso di pubblicazione in Proceedings of the LLM-CP Workshop, AAAI-24, https://arxiv.org/abs/2311.09247.
Dagmar Monett, Gilbert Paquet, The commodification of education and the (generative) AI-induced scam-like culture, preprint, 2024, https://www.researchgate.net/publication/383148782_The_commodification_of_education_and_the_generative_AI-induced_scam-like_culture.
Evgeny Morozov, La vera minaccia dell’intelligenza artificiale, in «Internazionale», 17 agosto 2023, https://www.internazionale.it/magazine/evgeny-morozov/2023/08/17/la-vera-minaccia-dell-intelligenza-artificiale.
Thomas Nagel, Concealment and Exposure, in «Philosophy & Public Affairs», 27, 1, 1998, pp. 3-30, https://www.jstor.org/stable/2672839
Arvind Narayanan, Sayash Kapoor, AI Snake Oil. What Artificial Intelligence Can Do, What It Can’t, and How to Tell the Difference, Princeton University Press, 2024.
Arvind Narayanan, Sayash Kapoor, AI companies are pivoting from creating gods to building products. Good, in «AI Snake Oil», August 19, 2024, https://www.aisnakeoil.com/p/ai-companies-are-pivoting-from-creating.
Enrico Nardelli, Intelligenza artificiale e scuola: facciamo chiarezza, in «Link & Think», 22 novembre 2023, https://link-and-think.blogspot.com/2023/11/intelligenza-artificiale-e-scuola-facciamo-chiarezza.html.
Enrico Nardelli, Non lasciamo che i nostri figli diventino cavie di ChatGPT&Co., in «Start Magazine», 19 marzo 2023, https://www.startmag.it/innovazione/non-lasciamo-che-i-nostri-figli-diventino-cavie-di-chatgptco/.
Teresa Numerico, Big data e algoritmi. Prospettive critiche, Roma, Carocci, 2021.
Carlos Ortegón, Mathias Decuypere, Ben Williamson, Mediating educational technologies: Edtech brokering between schools, academia, governance, and industry, in «Research in Education», 2024, https://www.research.ed.ac.uk/en/publications/mediating-educational-technologies-edtech-brokering-between-schoo.
Michaela Padden, The transformation of surveillance in the digitalisation discourse of the OECD: a brief genealogy, in «Internet Policy Review», 12, 3, 2023, https://doi.org/10.14763/2023.3.1720.
Maria Chiara Pievatolo, Sulle spalle dei mercanti? Teledidattica e civiltà tecnologica, in «Bollettino telematico di filosofia politica», 2023, https://commentbfp.sp.unipi.it/sulle-spalle-dei-mercanti-teledidattica-e-civilta-tecnologica/.
Maria Chiara Pievatolo, Caesar est supra grammaticos? Valutazione di Stato, democrazia e libertà del sapere, in AA. VV., Perché la valutazione ha fallito, cit., pp. 63-83, https://www.morlacchilibri.com/universitypress/index.php?content=scheda&id=1209.
Maria Chiara Pievatolo, Un discorso per niente normale, in «Bollettino telematico di filosofia politica», 2021, https://btfp.sp.unipi.it/it/2021/07/un-discorso-per-niente-normale/.
Maria Chiara Pievatolo, I custodi del sapere, in «Bollettino telematico di filosofia politica», 2021, https://btfp.sp.unipi.it/it/2021/05/i-custodi-del-sapere/
Maria Chiara Pievatolo, La bilancia e la spada: scienza di stato e valutazione della ricerca, in «Bollettino telematico di filosofia politica», 2017, https://commentbfp.sp.unipi.it/maria-chiara-pievatolo-la-bilancia-e-la-spada-scienza-di-stato-e-valutazione-della-ricerca/.
Benedetto Ponti, Il fornitore dell’algoritmo quale soggetto estraneo all’amministrazione, in «Rivista italiana di informatica e diritto», 6, 2, 2024, https://doi.org/10.32091/RIID0163.
Maria Ranieri, Intelligenza Artificiale a scuola. Una lettura pedagogico-didattica delle sfide e delle opportunità, in «Rivista di Scienze dell’Educazione», 62, 2024, pp. 123-135, https://rivista.pfse-auxilium.org/it/pdf/rse/maria-ranieri_rse01-2024.pdf.
Elizabeth M. Renieris, Beyond Data. Reclaiming Human Rights at the Dawn of the Metaverse, The MIT Press, 2023.
Regina Rini, The Digital Zeitgeist Ponders Our Obsolescence, in «DailyNous», July 30, 2020, https://dailynous.com/2020/07/30/philosophers-gpt-3/#rini.
Jathan Sadowski, The Internet of Landlords: Digital Platforms and New Mechanisms of Rentier Capitalism, in «Antipode», 52, 2, 2020, pp. 562–580, https://static1.squarespace.com/static/54c9a2e8e4b01e05842ad47e/t/5f556202fab9b365a2490794/1599431173262/Sadowski+-+The+Internet+of+Landlords.pdf.
Eryk Salvaggio, Challenging The Myths of Generative AI, in «Tech Policy Press», August 29, 2024, https://www.techpolicy.press/challenging-the-myths-of-generative-ai/.
Murray Shanahan, Talking about Large Language Models, in «Communications of the ACM», 67, 2, 2024, pp. 68-79, https://doi.org/10.1145/3624724.
Quinn Slobodian, Globalists. The End of Empire and the Birth of Neoliberalism, Cambridge, Massachusetts, Harvard University Press, 2018.
Lambert Strether, Why Must Humans Compete for Electric Power with AI Bullshit Generators Programmed by Ritual Incantations?, in «naked capitalism»,
Daniela Tafani, A chi servono i generatori di linguaggio, «Alternative per il socialismo», 71, 2024, pp. 165–75, https://doi.org/10.5281/zenodo.10697969.
Denise Utochkin, Cut the ‘AI’ bullshit, August 12, 2024, https://uniavisen.dk/en/cut-the-ai-bullshit-ucph/.
Shannon Vallor, The AI Mirror. How to Reclaim Our Humanity in an Age of Machine Thinking, Oxford University Press, 2024.
Iris van Rooij, Olivia Guest, Federico Adolfi, Ronald de Haan, Antonina Kolokolova, Patricia Rich, Reclaiming AI as a Theoretical Tool for Cognitive Science, in «Computational Brain & Behavior», 2024, https://doi.org/10.1007/s42113-024-00217-5
Horny Robot Baby Voice. James Vincent on AI chatbots, in «London Review of Books», 19, 2024, https://www.lrb.co.uk/the-paper/v46/n19/james-vincent/horny-robot-baby-voice
Marc Watkins, The Artifice of Twinning, September 6, 2024, https://marcwatkins.substack.com/p/the-artifice-of-twinning.
Audrey Watters, Teaching machines. The history of personalized learning Cambridge, Massachusetts,The MIT Press, 2021, https://storage.googleapis.com/open-courses/bibliografia/Audrey%20Watters%20-%20Teaching%20Machines_%20The%20History%20of%20Personalized%20Learning-The%20MIT%20Press%20(2021).pdf.
Joseph Weizenbaum, Computer Power and Human Reason. From Judgement to Calculation, San Francisco, W.H. Freeman & Company, 1976, https://archive.org/details/computerpowerhum0000weiz_v0i3; trad.it. Il potere del computer e la ragione umana. I limiti dell’intelligenza artificiale, a cura di F. Tibone, Torino, Edizioni Gruppo Abele, 1987.
Meredith Whittaker, Origin Stories: Plantations, Computers, and Industrial Control, in «Logic(s)», 2023, https://logicmag.io/supa-dupa-skies/origin-stories-plantations-computers-and-industrial-control/.
David Gray Widder, Mar Hicks, Watching the Generative AI Hype Bubble Deflate, 2024, https://arxiv.org/abs/2408.08778.
Ben Williamson, Automated austerity schooling, in «Code Acts in Education», August 29, 2024, https://codeactsineducation.wordpress.com/2024/08/29/automated-austerity-schooling/.
Ben Williamson, Degenerative AI in education, in «Code Acts in Education», June 30, 2023, https://codeactsineducation.wordpress.com/2023/06/30/degenerative-ai-in-education/.
Matteo Wong, Generative AI Can’t Cite Its Sources, in «The Atlantic», June 26, 2024, https://www.theatlantic.com/technology/archive/2024/06/chatgpt-citations-rag/678796/.
Wendy Y Li, Regulatory capture’s third face of power, in «Socio-Economic Review», 21, 2, 2023, https://doi.org/10.1093/ser/mwad002.