Perché le IA vengono proposte alle scuole?
di Rodolfo Marchisio, Pavone Risorse
Premessa
“In teoria dalla dispersione scolastica alle prove Invalsi sono sempre di più e sempre più efficaci, gli strumenti di AI al servizio di docenti e studenti. Ma c’è bisogno di più cultura sul tema ed impegno pubblico.” Sostiene Chiara Panciroli.
R: Sulla mancanza di cultura siamo d’accordo.
La IA non può essere integrata nell’istruzione senza un grande impegno pubblico e le necessarie garanzie e normative da parte dei governi.Azoulay. Unesco. R: Vero.
Per fare cosa?
Il modo più chiacchierato è l’uso di Chat GPT e simili (da parte degli allievi) per “barare” nelle esercitazioni o nei compiti in classe. Poi?
Le varie forme di IA possono aiutare la didattica come si vorrebbe? A quale prezzo?
L’intelligenza artificiale generativa può automatizzare l’elaborazione delle informazioni e la presentazione dei risultati finali attraverso tutte le principali rappresentazioni simboliche del pensiero umano. Consente di consegnare i risultati finali fornendo prodotti di conoscenza semi-lavorati. Liberando gli esseri umani da attività appartenenti a livelli di pensiero di ordine inferiore. Panciroli
R: quali sono le attività “inferiori” a scuola? Compilare registri e atti? Nelle attuali condizioni di bassa motivazione e ristrettezza dei tempi, non sarebbe utile anche concentrarsi e confrontarsi per valutare un alunno in base non solo a dati, ma a osservazioni, relazioni, episodi, informazioni? Liberare tempo per parlarsi in queste condizioni strutturali e di risorse? Ma per fare questo occorre passare dalle IA?
… questa nuova generazione di strumenti d’intelligenza artificiale potrebbe avere profonde implicazioni nella nostra comprensione d’intelligenza umana e apprendimento.
R: O meglio potrebbe intanto essere un’occasione per riflettere su come funzionano intelligenza umana e apprendimento, e se esiste l’IA e come funzionano le sue varie applicazioni prima di comprarle o di farcele imporre.
Conoscere per capire“Uno dei temi più importanti è quello della cosiddetta explainability, ossia la comprensione e laspiegazione di cos’è e come funziona un’intelligenza artificiale”. Prima addirittura di ipotizzare per cosa usarli, bisogna anzitutto conoscere questi strumenti. Capire come funzionano, quali sono le loro potenzialità e (soprattutto) quali sono i loro limiti.
…è indispensabile comprendere come funzionano i prompt da dare al sistema: con input pessimi si hanno output pessimi, e gli strumenti perdono di utilità”. Panciroli.
Si ipotizzano utilità di sistema (scuola) e utilità didattiche.
Tra le prime abbandono scolastico (“predittivo”?) e la valutazione.
Come? Le presenze a lezione, i tempi di consegna dei compiti e altri parametri, prevedono quando è più probabile che uno studente possa abbandonare gli studi: l’idea è che in questo modo si possa intervenire per tempo, per esempio con un riorientamento rapido o offrendo un piano didattico personalizzato ed evitare l’abbandono.
R: Questa modalità ha fondamenti pedagogici parziali (di parte) e poco fondati. Ma intanto
a- la logica predittiva può sbagliare e violare diritti (è già stata vietata a livello di polizia dall’IA Act UE)
b- Con che risorse e modalità si approntano soluzioni (i docenti lamentano di non avere spazi di confronto, progettazione e valutazione, fagocitati e silenziati dalla compilazione di un foglio elettronico con arrotondamenti deformanti)?
c- È vero che la individualizzazione del tutoraggio è difficile e costosa, ma il rischio è di non adattare lo strumento al bambino, ma il bambino al modello di chat bot disponibile centrato sulla “logica” – o meglio su una impostazione “statistico-induttiva“[1] (Guastavigna) basata sui dati antecedenti, validi o no e quindi sulla raccolta ed il trattamento statistico di dati; nella incapacità di gestire tutti gli altri aspetti emotivi e relazionali dell’apprendimento.
È una scelta pedagogica che sta a monte di quello che le applicazioni denominate di IA possono fare, bypassando quelle che chiamano concezioni psicologiche dell’apprendimento individuale e puntando sulla ottimizzazione delle performance cognitive e di abilità. Che sono una parte del problema, ma non il contesto di soluzione.
– d) Allora meglio più risorse per la individualizzazione e l’inclusione, il confronto sul metodo o meglio più chat bot (uno per allievo)?
Un secondo campo è quello legato al sistema di valutazione delle scuole, l’Invalsi: l’intelligenza artificiale può fare da supporto a questo sistema, per esempio leggendo e comparando in modo integrato tutti i dati raccolti e individuando criticità, punti di forza, lacune. ibidem
R: Sappiamo che la lettura, validità e utilizzo (ora anche individuale non più solo di sistema) dei dati INVALSI è un campo minato. E dopo avere ottimizzato i dati cosa facciamo (quali modelli) e con che risorse? Per quali obiettivi, prima di sistema ora anche individuali, anche se anonimi; con personale formato, rimotivato, pagato? Che è il vero problema.
Utilità didattiche. Valutazione
Questi strumenti consentono di superare la cosiddetta valutazione sommativa (quella tradizionale, ricavata da test, interrogazioni e simili) e passare a una valutazione formativa. Che dia ai docentifeedback ricorsivi con cui comprendere meglio le lacune degli studenti e mettere in campo tempestivamente delle attività di supporto
R: La IA ha trovato il modo di superare la valutazione sommativa? In realtà offre solo dati apparentemente più organizzati ai docenti. Il problema sono le risorse (ore docenti e soldi) per intervenire, le scelte politiche e poi metodologiche e l’atteggiamento dei docenti.
Come? Con quali parametri?
“Esaminando la struttura delle frasi scritte dagli studenti, gli errori ricorrenti, il tempo di consegna dei compiti e fornire così al docente un punteggio continuo, semplificando tra l’altro la correzione”
R: L’uovo di Colombo; la valutazione su cui discutiamo da decenni è tutta qui?
Le mappe
Ci sono infine i mediatori visivi che semplificano con mappe (?) le lezioni per i più in difficoltà.
Esistono ancora delle resistenze da parte del sistema educativo rispetto all’adozione di questi strumenti, in parte dovute al fatto che “per definizione la scuola è un luogo conservatore e contrapposto all’innovazione”, e in parte dovute alle paure relative alla privacy. Un tema certamente delicato e importante, ma che secondo l’esperta non va ingigantito: “Quello della privacy” conclude “è (almeno in parte) un falso problema” (?) sostiene Chiara Panciroli .
R: L’impressione è che si cerchi di vendere le applicazioni di IA (in questo caso “povera” e fondata su un modello di apprendimento parziale e discutibile) per risolvere problemi storici della scuola, “razionalizzando” con un metodo induttivo la raccolta dei dati e proponendo tutoraggi automatici individualizzati perché è quello che le IA sanno fare a mala pena ora.
a- È un lavoro integrativo, ma non la soluzione
b- ma a pagamento e tutto da testare ancora, anche perché ogni ragazzo, contesto, paese è diverso dagli altri e non basta ridurre disagio ed abbandono decontestualizzato ad una unica categoria algoritmica.
c- Bypassando la complessità, la diversità, l’intreccio apprendimento/socializzazione/ relazione emotività e clima di classe e scuola.
Non sapendo affrontare la complessità, si standardizzano gli allievi.
Infatti.
“In generale i chat bot, che qualcuno ha definito “motori di plagio” attingono a vaste riserve di informazioni che molto probabilmente sono inquinate dalla disinformazione passata o da materiale parziale e discriminatorio, e forse potrebbero diventare ancora più numerose, così come i contenuti automatizzati inondano il web.” Singer nel rapporto del NYT.
I sostenitori pensano che i chat bot in classe potrebbero “democratizzare” l’idea del tutoraggio personalizzando automaticamente le risposte agli studenti, consentendo loro di lavorare sulle lezioni al proprio ritmo. I critici avvertono che i robot, addestrati su vasti database di testi, possono fabbricare una disinformazione apparentemente plausibile, rendendoli una scommessa rischiosa per le scuole Ben Williamson [2]
Approfondiamo.
Negli USA si sta cominciando a sperimentare in una scuola quello che in Italia stanno già propagandando ampiamente (al buio). Perché gli attuali esempi di intelligenza artificiale sono intrisi di un tipo di politica che applica soluzioni tecniche e di mercato a tutti i problemi sociali.
- Nella esperienza dei test Khan migo (dietro cui c’è Bill Gates) “gli educatori sembrano prendere parte a un “esperimento sociale”in cui i sistemi codificati di istruzione – pedagogia, curriculum e valutazione – vengono tutti riconfigurati dall’intelligenza artificiale, richiedendo sforzi laboriosi da parte degli educatori per adattare le loro pratiche professionali”. Carlo Perrotta.
R: Siamo disponibili a questi sforzi, a testare ed arricchire gratuitamente la IA a vantaggio degli oligopoli che ce la propongono? Ne abbiamo il tempo e ne vale la pena?
Anche perché l’IA’ può esercitare anche effetti degenerativi sull’apprendimento stesso.
“Più prosaicamente, è probabile che l’intelligenza artificiale riproduca gli aspetti peggiori dell’istruzione scolastica: il saggio standardizzato è già fortemente vincolato dalle esigenze dei regimi di valutazione, e i modelli linguistici tendono a riprodurlo nel formato e nel contenuto.”
La seconda questione è ciò che Perrotta ha descritto in termini di “divisione dell’apprendimento” – citando Shoshana Zuboff – che denota una distinzione tra organizzazioni di intelligenza artificiale con “infrastruttura materiale e capacità intellettuali esperte” per apprendere dai dati e mettere a punto modelli e processi, e gli sforzi non retribuiti degli utenti quotidiani le cui interazioni con i sistemi rifluiscono nel loro sviluppo continuo. Burrell e Fourcade hanno distinto tra “l’élite del coding”, una nuova classe professionale di competenze tecniche, e unaforza lavoro recentemente emarginata o non retribuita, il “cybertariat”, da cui estrarre manodopera.” Nel caso Khan migo, gli ingegneri e i dirigenti della Khan Academy sono una nuova élite di sviluppo dell’intelligenza artificiale nel campo dell’istruzione, che sfrutta il lavoro degli insegnanti e degli studenti in classe per “ottimizzare” il loro prodotto.
R: In altre parole I big della IA stanno sfruttando il lavoro di manovalanza dei docenti per mettere a punto un prodotto che dall’anno prossimo sarà a pagamento per le scuole (60 $ a studente)
R: A parte lo sfruttamento del lavoro gratuito dei docenti, con che soldi le scuole, caso mai interessate, potranno pagare questi prodotti? Chi controlla e valida l’esperimento?
Il problema, per i big di IA, è che il tutoraggio individuale è “troppo costoso da sostenere su larga scala per la maggior parte delle società”. “Ma ostacoli finanziari suggeriscono che è improbabile che i chatbot in classe potenziati dall’intelligenza artificiale democratizzino il tutoraggio in tempi brevi.”
R: Allora si fanno lavorare i docenti per ottimizzare il prodotto e poi rivenderglielo fidelizzando le scuole (come successo con Zoom ed altri prodotti proprietari cui ci siamo assuefatti in tempi di Covid ed in mancanza di iniziative ministeriali) e senza nemmeno puntare ad un tutoraggio individuale democratico.
- Il dirigente della scuola che sta sperimentando in USA e che ci mette classi e manodopera docente ha affermato: “Il costo a lungo termine dell’intelligenza artificiale è per noi motivo di preoccupazione”.
- Se le IA richiedono lavoro aggiuntivo non retribuito da parte degli insegnanti e ne estraggono valore, l’intelligenza artificiale e altre tecnologie predittive possono anche, come sostiene Sun-ha Hong, sottrarre potere discrezionale ai professionisti, rimodellando o addirittura diminuendo il loro processo decisionale e la portata del giudizio professionale. Nel caso sperimentale di Khan migo, anche il potere discrezionale dell’insegnante è almeno parzialmente sfruttato, ridotto o quanto meno complicato dalla presenza di un tutorbot.[3]
- R: Infine, l’intelligenza artificiale nell’istruzione potrebbe influenzare la capacità delle scuole di sostenere altre spese strutturali e di risorse per problemi prioritari.
- “Potenziali effetti degenerativi.Oltre agli effetti degenerativi che può esercitare sulle condizioni professionali degli insegnanti, sui contenuti didattici e sulla sostenibilità finanziaria delle scuole, l’IA ha anche effetti ambientali degenerativi (Inquinamento NdA) e impatti sulle condizioni di lavoro dei lavoratori “nascosti” che aiutano a formare modelli generativi.”
“La rassegnazione all’intelligenza artificiale come caratteristica inevitabile del futuro dell’istruzione è pericolosa, poiché rischia di bloccare gli istituti di istruzione, il personale e gli studenti in sistemi tecnici che potrebbero esacerbare anziché migliorare i problemi sociali esistenti, come il superlavoro degli insegnanti e il degrado delle opportunità di apprendimento e il sottofinanziamento della scuola”. Dan McQuillan.
[1] https://www.treccani.it/vocabolario/induttivo/
[2] Le citazioni se non attribuite si riferiscono al saggio di Ben Williamson tradotto per Roars.
vedi anche blog autore https://codeactsineducation.wordpress.com/ .
[3] https://journals.sagepub.com/doi/10.1177/20539517231171053