Controversie riguardo all’IA generativa e le loro implicazioni per l’istruzione

Dopo aver discusso in precedenza cosa sia il GenAI e come funziona, questa sezione esamina le controversie e i rischi etici sollevati da tutti i sistemi GenAI e considera alcune delle implicazioni per l’istruzione.

 

2.1 Aggravamento della povertà digitale

Come già notato, il GenAI si basa su enormi quantità di dati e su un enorme potere di calcolo, oltre alle sue innovative iterazioni nelle architetture dell’IA e nei metodi di formazione, che sono principalmente disponibili solo alle più grandi aziende tecnologiche internazionali e a poche economie (principalmente gli Stati Uniti, la Repubblica Popolare Cinese e, in misura minore, l’Europa). Ciò significa che la possibilità di creare e controllare il GenAI è fuori dalla portata della maggior parte delle aziende e dei paesi, specialmente quelli del Sud del Mondo.

 

Poiché l’accesso ai dati diventa sempre più essenziale per lo sviluppo economico dei paesi e per le opportunità digitali degli individui, quei paesi e quelle persone che non hanno accesso o non possono permettersi dati sufficienti si trovano in una situazione di “povertà di dati” (Marwala, 2023). La situazione è simile per l’accesso al potere di calcolo. La rapida diffusione del GenAI nei paesi e nelle regioni tecnologicamente avanzate ha accelerato in modo esponenziale la generazione e l’elaborazione dei dati e, contemporaneamente, ha intensificato la concentrazione della ricchezza dell’IA nel Nord Globale. Di conseguenza, le regioni povere di dati sono state ulteriormente escluse e messe a rischio a lungo termine di essere colonizzate dagli standard incorporati nei modelli GPT. Gli attuali modelli di ChatGPT sono addestrati su dati di utenti online che riflettono i valori e le norme del Nord Globale, rendendoli inappropriati per algoritmi AI localmente rilevanti nelle comunità povere di dati in molte parti del Sud Globale o nelle comunità più svantaggiate del Nord Globale.

 

Implicazioni per l’istruzione e la ricerca

I ricercatori, gli insegnanti e gli studenti dovrebbero adottare un punto di vista critico sulle orientazioni valutative, gli standard culturali e le consuetudini sociali incorporati nei modelli di addestramento GenAI. I responsabili delle politiche dovrebbero essere consapevoli e intervenire per affrontare il peggioramento delle disuguaglianze causato dall’ampio divario nell’addestramento e nel controllo dei modelli GenAI.

 

2.2 Superamento dell’adattamento alla regolamentazione nazionale

I fornitori dominanti di GenAI sono stati anche criticati per non consentire che i loro sistemi siano sottoposti a rigorose revisioni accademiche indipendenti (Dwivedi et al., 2023). Le tecnologie fondamentali di un’azienda GenAI tendono a essere protette come proprietà intellettuale aziendale. Nel frattempo, molte delle aziende che stanno iniziando a utilizzare il GenAI stanno incontrando sempre più sfide nel mantenere la sicurezza dei loro sistemi (Lin, 2023). Inoltre, nonostante le richieste di regolamentazione provenienti dall’industria dell’IA stessa, la stesura di legislazione sulla creazione e sull’uso di tutta l’IA, compreso il GenAI, spesso rimane indietro rispetto al rapido sviluppo. Questo spiega in parte le sfide incontrate dalle agenzie nazionali o locali nel comprendere e governare le questioni legali ed etiche.

 

Sebbene il GenAI possa aumentare le capacità umane nel completare determinati compiti, c’è un limitato controllo democratico sulle aziende che promuovono il GenAI. Ciò solleva la questione delle regolamentazioni, in particolare per quanto riguarda l’accesso e l’uso dei dati domestici, compresi i dati su istituzioni e individui locali, oltre ai dati generati sul territorio dei paesi. È necessaria una legislazione adeguata affinché le agenzie governative locali possano acquisire un certo controllo sulle onde crescenti del GenAI per garantire il suo governo come un bene pubblico.

 

Implicazioni per l’istruzione e la ricerca

I ricercatori, gli insegnanti e gli studenti dovrebbero essere consapevoli della mancanza di regolamentazioni adeguate per proteggere la proprietà delle istituzioni e degli individui domestici e i diritti degli utenti domestici del GenAI e per rispondere alle questioni legislative scaturite dal GenAI.

 

2.3 Uso di contenuti senza consenso

Come già notato in precedenza, i modelli GenAI sono costruiti su grandi quantità di dati (ad esempio, testi, suoni, codice e immagini) spesso raccolti da Internet e di solito senza il permesso dei proprietari. Di conseguenza, molti sistemi GenAI di immagini e alcuni sistemi GenAI di codice sono stati accusati di violare i diritti di proprietà intellettuale. Al momento della stesura, ci sono diversi procedimenti legali internazionali in corso che riguardano questa questione.

 

Inoltre, alcuni hanno fatto notare che i GPT potrebbero contravvenire a leggi come il Regolamento generale sulla protezione dei dati (GDPR) dell’Unione Europea (2016), in particolare al diritto delle persone all’oblio, poiché attualmente è impossibile rimuovere i dati di qualcuno (o i risultati di quei dati) da un modello GPT una volta che è stato addestrato.

 

Implicazioni per l’istruzione e la ricerca

– I ricercatori, gli insegnanti e gli studenti devono conoscere i diritti dei proprietari dei dati e verificare se gli strumenti GenAI che stanno utilizzando violano eventuali regolamenti esistenti.

– I ricercatori, gli insegnanti e gli studenti dovrebbero anche essere consapevoli del fatto che le immagini o il codice creati con il GenAI potrebbero violare i diritti di proprietà intellettuale di qualcun altro e che le immagini, i suoni o il codice che creano e condividono su Internet potrebbero essere sfruttati da altri GenAI.

 

2.4 Modelli inesplicabili utilizzati per generare output

Da tempo è riconosciuto che le reti neurali artificiali (ANN) sono generalmente “scatole nere”, cioè che il loro funzionamento interno non è aperto all’ispezione. Di conseguenza, le ANNs non sono “trasparenti” o “esplicabili”, e non è possibile stabilire come siano stati determinati i loro output.

 

Sebbene l’approccio generale, compresi gli algoritmi utilizzati, sia generalmente esplicabile, i modelli specifici e i loro parametri, compresi i pesi del modello, non sono ispezionabili, motivo per cui un output specifico generato non può essere spiegato. Ci sono miliardi di parametri/pesi in un modello come il GPT-4 (vedi Tabella 2), ed è il collettivo di questi pesi che detiene i modelli appresi che il modello utilizza per generare i suoi output. Poiché i parametri/pesi non sono trasparenti nelle ANNs (Tabella 1), non è possibile spiegare il modo preciso in cui un output specifico viene creato da questi modelli.

 

La mancanza di trasparenza ed esplicabilità del GenAI è sempre più problematica, poiché il GenAI diventa sempre più complesso (vedi Tabella 2), spesso producendo risultati inaspettati o indesiderati. Inoltre, i modelli GenAI ereditano e perpetuano i bias presenti nei dati di addestramento, che, data la natura non trasparente dei modelli, sono difficili da rilevare e affrontare. Infine, questa opacità è anche una causa chiave di problemi di fiducia nei confronti del GenAI (Nazaretsky et al., 2022a). Se gli utenti non capiscono come un sistema GenAI è giunto a un determinato output, sono meno inclini ad adottarlo o usarlo (Nazaretsky et al., 2022b).

 

Implicazioni per l’istruzione e la ricerca

– I ricercatori, gli insegnanti e gli studenti dovrebbero essere consapevoli del fatto che i sistemi GenAI operano come scatole nere e che è quindi difficile, se non impossibile, sapere perché è stato creato un contenuto particolare. La mancanza di spiegazione su come vengono generati gli output tende a imprigionare gli utenti nella logica definita dai parametri progettati nei sistemi GenAI. Questi parametri possono riflettere valori culturali o commerciali specifici e norme che implicitamente influenzano il contenuto prodotto.

 

2.5 Contenuti generati dall’IA che inquinano Internet

Poiché i dati di addestramento del GPT sono tipicamente tratti da Internet, che troppo spesso include linguaggio discriminatorio e altre forme inaccettabili di espressione, gli sviluppatori hanno dovuto implementare ciò che chiamano “guardrail” per impedire che gli output del GPT siano offensivi e/o non etici. Tuttavia, a causa dell’assenza di regolamenti rigorosi e di meccanismi di monitoraggio efficaci, materiali distorti generati dal GenAI si stanno diffondendo sempre più su Internet, inquinando una delle principali fonti di contenuto o conoscenza per la maggior parte degli studenti in tutto il mondo. Ciò è particolarmente importante perché il materiale generato dal GenAI può sembrare abbastanza accurato e convincente, quando spesso contiene errori e idee di parte. Ciò rappresenta un alto rischio per i giovani studenti che non hanno una solida conoscenza preventiva dell’argomento in questione. Rappresenta anche un rischio ricorsivo per i futuri modelli GPT che saranno addestrati su testi raccolti da Internet che i modelli GPT precedenti hanno generato e che includono anche i loro bias e errori.

 

Implicazioni per l’istruzione e la ricerca

– I ricercatori, gli insegnanti e gli studenti devono essere consapevoli del fatto che i sistemi GenAI sono in grado di generare materiali offensivi e non etici.

– Devono anche essere informati sui problemi a lungo termine che potrebbero sorgere per la affidabilità della conoscenza quando i futuri modelli GPT si basano su testi che i modelli GPT precedenti hanno generato.

 

 

2.6 Mancanza di comprensione del mondo reale

I GPT di testo vengono talvolta chiamati in modo dispregiativo “Pappagalli Stocastici” perché, come è stato notato in precedenza, sebbene possano produrre testi che sembrano convincenti, questi testi spesso contengono errori e possono includere dichiarazioni dannose (Bender et al., 2021). Tutto ciò accade perché i GPT ripetono solo i modelli linguistici trovati nei loro dati di addestramento (di solito testi tratti da Internet), partendo da modelli casuali (o “stocastici”) e senza comprenderne il significato, proprio come un pappagallo può imitare suoni senza capire effettivamente ciò che sta dicendo.

Il divario tra il fatto che i modelli GenAI “sembrano” comprendere il testo che utilizzano e generano, e la “realtà” che non comprendono il linguaggio e il mondo reale, può portare insegnanti e studenti a porre una fiducia nell’output che non è giustificata. Questo comporta seri rischi per l’istruzione futura. Infatti, il GenAI non è informato dalle osservazioni del mondo reale o da altri aspetti chiave del metodo scientifico, né è allineato con i valori umani o sociali. Per questi motivi, non può generare contenuti genuinamente nuovi sul mondo reale, sugli oggetti e sulle loro relazioni, sulle persone e sulle relazioni sociali, sulle relazioni tra umani e tecnologia. Se il contenuto apparentemente nuovo generato dai modelli GenAI può essere riconosciuto come conoscenza scientifica è oggetto di contestazione.

Come già notato, i GPT possono spesso produrre testi inaccurati o non affidabili. In effetti, è ben noto che i GPT inventano cose che non esistono nella vita reale. Alcuni chiamano questo “allucinazione”, sebbene altri critichino l’uso di un termine così antropomorfo e quindi fuorviante. Questo è riconosciuto dalle aziende che producono il GenAI. In fondo all’interfaccia pubblica del ChatGPT, ad esempio, si afferma: “ChatGPT può produrre informazioni inaccurate su persone, luoghi o fatti”.

Alcuni sostenitori hanno anche suggerito che il GenAI rappresenta un passo significativo nel cammino verso l’Intelligenza Artificiale Generale (AGI), un termine che suggerisce una classe di IA più intelligenti degli esseri umani. Tuttavia, questa idea è stata a lungo criticata, con l’argomento che l’IA non progredirà mai verso l’AGI almeno finché non riunirà in qualche modo, in simbiosi, l’IA basata sulla conoscenza (nota anche come IA simbolica o basata su regole) e l’IA basata sui dati (nota anche come apprendimento automatico) (Marcus, 2022). Le affermazioni sull’AGI o sulla sentienza distraggono anche dalla considerazione più attenta dei danni attuali perpetrati con l’IA, come la discriminazione nascosta contro gruppi già discriminati (Metz, 2021).

 

Implicazioni per l’istruzione e la ricerca

– L’output di un GenAI di testo può sembrare impressionantemente simile all’essere umano, come se comprendesse il testo che genera. Tuttavia, il GenAI non comprende nulla. Invece, questi strumenti concatenano parole in modi comuni su Internet. Il testo generato può anche essere errato.

– I ricercatori, gli insegnanti e gli studenti devono essere consapevoli del fatto che un GPT non comprende il testo che genera, che può e spesso lo fa, generare affermazioni errate e che quindi devono adottare un approccio critico a tutto ciò che genera.

 

2.7 Riduzione della diversità di opinioni e ulteriore marginalizzazione delle voci già marginalizzate

ChatGPT e strumenti simili tendono a produrre solo risposte standard che assumono i valori dei proprietari/creatori dei dati utilizzati per addestrare i modelli. Infatti, se una sequenza di parole appare frequentemente nei dati di addestramento, come nel caso di argomenti comuni e non controversi e credenze mainstream o dominanti, è probabile che il GPT la ripeta nei suoi output.

Questo rischia di limitare e minare lo sviluppo di opinioni plurali e di espressioni plurali di idee. Le popolazioni con pochi dati, comprese le comunità marginalizzate nel Global North, hanno una presenza digitale minima o limitata online. Di conseguenza, le loro voci non vengono ascoltate e le loro preoccupazioni non vengono rappresentate nei dati utilizzati per addestrare i GPT e quindi raramente appaiono negli output. Per questi motivi, data la metodologia di pre-addestramento basata sui dati delle pagine web di Internet e delle conversazioni sui social media, i modelli GPT possono ulteriormente marginalizzare le persone già svantaggiate.

 

Implicazioni per l’istruzione e la ricerca

– Gli strumenti ChatGPT e simili tendono a produrre solo risposte standard che riflettono i valori dei creatori dei dati di addestramento. Gli insegnanti e gli studenti dovrebbero essere consapevoli di questo fatto e cercare attivamente diverse prospettive e opinioni.

– Gli insegnanti e i ricercatori dovrebbero lavorare per rappresentare voci marginalizzate e incoraggiare una gamma diversificata di opinioni e punti di vista nelle discussioni e nelle risorse didattiche.

 

2.8 Generazione di deepfake più avanzati

Oltre alle controversie comuni a tutti i GenAI, i GenAI GAN possono essere utilizzati per alterare o manipolare immagini o video esistenti per generare falsi che sono difficili da distinguere da quelli reali. Il GenAI sta rendendo sempre più facile creare questi “deepfake” e le cosiddette “fake news”. In altre parole, il GenAI sta facilitando a determinati attori commettere atti non etici, immorali e criminali, come diffondere disinformazione, promuovere discorsi di odio e incorporare i volti delle persone, senza il loro consenso o conoscenza, in film completamente falsi e talvolta compromettenti.

 

Implicazioni per l’istruzione e la ricerca

Sebbene sia obbligo dei fornitori di GenAI proteggere i diritti d’autore e i diritti di ritratto degli utenti, i ricercatori, gli insegnanti e gli studenti devono anche essere consapevoli del fatto che le immagini che condividono su Internet possono essere incorporate nei dati di addestramento del GenAI e potrebbero essere manipulate e utilizzate in modi non etici.


 

traduzione libera in italiano tramite
Google BARD, Chat GPT, Perpelixity.ai


Guidance for generative AI in education and research (english version)



TRADUZIONE INTEGRALE (PDF)


capitolo 1 Cos’è l’intelligenza artificiale generativa e come funziona
UNESCO Guida all’intelligenza artificiale generativa per l’istruzione e la ricerca

capitolo 2 Controversie riguardo all’IA generativa e le loro implicazioni per l’istruzione
UNESCO Guida all’intelligenza artificiale generativa per l’istruzione e la ricerca

capitolo 3 Regolamentare l’uso dell’IA generativa nell’istruzione
UNESCO Guida all’intelligenza artificiale generativa per l’istruzione e la ricerca

capitolo 4 Verso un quadro politico per l’uso dell’IA generativa nell’istruzione e nella ricerca
UNESCO Guida all’intelligenza artificiale generativa per l’istruzione e la ricerca

capitolo 5 Agevolare l’uso creativo di GenAI nell’istruzione e nella ricerca
UNESCO Guida all’intelligenza artificiale generativa per l’istruzione e la ricerca

capitolo 6 GenAI e il futuro dell’istruzione e della ricerca
UNESCO Guida all’intelligenza artificiale generativa per l’istruzione e la ricerca

Conclusioni
UNESCO Guida all’intelligenza artificiale generativa per l’istruzione e la ricerca



TRADUZIONE INTEGRALE (PDF)