avvenimenti · In primo piano

Preservare il passato, abbracciare il futuro: Filologia e Intelligenza Artificiale

L’immagine di copertina è stata generata con Stable Diffusion digitando il prompt:
“A medieval monk writes a text on the computer, portrait, hyper realistic, key art, oil painting, highly detail”

Il desiderio di creare macchine pensanti, capaci di svolgere compiti al posto nostro, è antico quanto l’uomo. Ancora prima della scienza, i miti ci hanno tramandato la storia di giganteschi guardiani di bronzo, come Talo, e di androidi dotati di una bellezza fatale, come Pandora (Graves, 1994 [2014], p.224, p.485). In un episodio dell’Iliade, Omero descrive la fucina di Efesto quasi come un santuario della robotica, dove:

χωλεύων͘  ὑπὸ δ’ἀμφίπολοι ῥώοντο ἄνακτι
χρύσειαι, ζωῇσι νεήνισιν εἰοικυῖαι.
τῇς ἐν μὲν νόος ἐστί, μετὰ φρεσίν, ἐν δὲ καί αὐδὴ
καί σθένος, ἀθανάτων δὲ θεῶν ἄπο ἔργα ἴσαςιν.

[…] zoppicando; due ancelle si affaticavano a sostenere il signore,
auree, simili a fanciulle vive;
avevano mente nel petto e avevano voce
e forza, sapevano l’opere per dono dei numi immortali

(Iliad. XVIII, 417-422, trad. Rosa Calzecchi Onesti [2019])

Macchine intelligenti, compartecipi della vita umana, popolano le leggende di tutte le società e di ogni epoca – dall’impero indiano guidato da Asoka nel iii sec. a.C, alla dinastia Tang che governò la Cina nel vii secolo d.C (Mayor, 2018, p.121, p.208), fino alle comunità ebraiche praghesi del xvi secolo (Contrada, 1995) – testimoni dell’umana ambizione di superare i limiti imposti dalla natura nell’infondere vita e intelligenza alla materia.
Oggi, sebbene le macchine sembrino meno evolute di quelle forgiate nel laboratorio di Efesto, il loro ruolo nella contemporaneità risveglia in noi una sensazione di perturbante simile all’effetto dell’uncanny valley: posti di fronte a macchine in grado di imitare il nostro comportamento sperimentiamo un’ampia gamma di reazioni, dal fascino al disgusto e persino alla repulsione (Mori et al., 2012). Non solo le percepiamo come poco affidabili (Hassabis et al., 2017), ma valutiamo negativamente le opere che esse producono se le confrontiamo con quelle create dall’ingegno umano (Chiarella et al., 2022). Il nostro disagio aumenta ulteriormente se pensiamo al fatto che le tecnologie più avanzate potrebbero presto svilupparsi come entità simili agli esseri umani e superarne le capacità cognitive (McClure, 2018).
Scenari del genere hanno di recente diviso l’opinione pubblica italiana, sollevando una serie di quesiti forse scomodi, ma necessari per avviare una riflessione critica sui progressi dell’intelligenza artificiale. Prenderà il nostro posto nella società? Quali ripercussioni avrà sulle professioni del futuro? Come risponderemo ai cambiamenti apportati dalle nuove tecnologie? (Scalcon, 2023) Interrogativi che risuonano ancora oggi nell’alveo accademico, dove i recenti sviluppi hanno stimolato un confronto tra esperti di diversi settori scientifici su funzionalità e rischi annessi all’uso dell’IA (Boselli, 2023; Morriello, 2023).
Sempre più pressante è emersa la domanda relativa al destino delle discipline umanistiche e in particolare al futuro delle scienze del testo. In un’epoca in cui le intelligenze artificiali sembrano abbattere i confini tra i saperi, quale postazione occupa la filologia? In altre parole: quale ruolo potrebbe sostenere questa disciplina millenaria nello scenario prospettato dall’intelligenza artificiale? Sebbene ChatGPT si sia dimostrata in grado di superare l’esame di abilitazione alla professione medica negli Stati Uniti (Rossi Castelli, 2023) e il test finale del Master in Business Administration (Pisa, 2023), sarebbe capace di affrontare con successo un esame di filologia romanza? Riuscirà nei prossimi anni a sostituire la professione del filologo? Il modello di linguaggio GPT può essere ritenuto un valido supporto nell’analisi filologica del testo? In che modo potrebbe contribuire a migliorare la qualità della ricerca?
Le giornate di studio Fra Antico e Futuro: La filologia nell’era dell’intelligenza artificiale, tenutesi presso la facoltà di Lettere e Filosofia della Sapienza dal 26 al 28 giugno (2023), hanno riunito esperti provenienti da diversi settori scientifici per cercare di rispondere a queste domande. Organizzato dagli allievi della scuola di dottorato in “Scienze del testo” del Dipartimento di Studi Europei, Americani Interculturali, sotto la guida di Lucilla Spetia (“Università dell’Aquila”), Paolo Canettieri (“Sapienza”), e Anatole Pierre Fuksas (“Università di Cassino”), l’evento ha coinvolto linguisti, critici letterari e umanisti digitali, nonché esperti di neuroscienze, studiosi di modellazione NLP, professori e ricercatori di filologia romanza. Il percorso tematico affrontato durante le giornate è stato duplice: da un lato, i filologi hanno sollevato questioni fondamentali per il futuro della loro disciplina, mettendo alla prova ChatGPT nell’analisi, nella traduzione e nell’interpretazione dei testi, nonché esplorando le sue potenzialità nell’ambito dell’edizione e della critica testuale. Dall’altro, i ricercatori nell’ambito dell’intelligenza artificiale hanno affrontato gli aspetti tecnici di strumenti analoghi, arricchendo il dibattito con la loro preziosa prospettiva. Un’attenzione particolare è stata riservata alle opportunità e ai rischi legati a queste tecnologie nell’insegnamento e nell’apprendimento delle materie filologiche, offrendo anche uno spazio per raccogliere la prospettiva degli studenti in merito ai nuovi strumenti.
Gli argomenti esplorati nel corso delle tre giornate hanno abbracciato una vasta gamma di temi che hanno spaziato dalla storia delle agenzie coinvolte nello sviluppo delle IA all’utilizzo di ChatGPT nella ricerca filologica. Il dibattito si è aperto offrendo una panoramica dell’evoluzione e degli sviluppi dell’IA conseguiti nel corso degli ultimi decenni da realtà imprenditoriali come LAION, OpenAI, DeepMind e Cerebras Systems finanziate soprattutto da enti privati. Il rapido avanzamento delle IA ha fatto sorgere legittime preoccupazioni riguardo all’impatto di queste tecnologie sulle facoltà cognitive umane, quanto sulla fiducia riposta nei prodotti digitali da esse generati. In un orizzonte come quello odierno, sempre più occupato dallo scontro tra le Big Tech e le piccole – seppur promettenti – minority di innovazione tecnologica, la riflessione critica sulle funzioni delle IA appare sempre di più come un momento ineludibile (Jaime D’Alessandro, “La Repubblica”).
Per coglierlo gli esperti hanno sgombrato il campo da preconcetti affastellatisi nell’ultimo mezzo secolo, distinguendo tra diversi orientamenti teorici: da una parte il paradigma classico, che concepisce la mente come una macchina di calcolo formale, dall’altra il paradigma neurale, che mira a riprodurre l’intelligenza simulando i costituenti biologici del cervello umano. I neuroscienziati li chiamano “circuiti neuronali”, ossia gruppi di neuroni che svolgono una determinata funzione fisiologica, presi di riferimento dagli sviluppatori delle IA per creare delle reti neurali artificiali (RNA), in grado di apprendere attraverso dati etichettati. Tra i modelli di RNA, oggi i riflettori sono puntati sul modello GPT e i suoi “fratelli”, ossia su grandi modelli di linguaggio (LLM) basati su reti neurali a Transformer dotati di attenzione che consentono non solo di apprendere ma anche di generare un testo. Nonostante i loro limiti, aggirabili con un adeguato utilizzo delle tecniche di prompt engineering, questi modelli dimostrano il loro potenziale a supporto dei workflow della ricerca filologica e umanistica (Fabio Ciotti, “Tor Vergata”).
Proprio l’utilizzo di reti neurali e delle tecniche di apprendimento automatico a Transformers sono alla base successo dei sistemi di dialogo come ChatGPT, sebbene altrettanto importanti ai fini del loro funzionamento risultano le tecniche di controllo e di allineamento dei modelli generativi, come il Reinforcement Learning with Human Feedback (RLHF). Queste tecniche, tuttavia, mostrano limiti epistemologici importanti: alcuni studi empirici hanno infatti dimostrato i rischi associati all’utilizzo di tali sistemi in diversi domini applicativi, dalla medicina alla giurisprudenza, dalle analisi di mercato alla selezione del personale aziendale (Marco Valentino, “Idiap Research Institute”).
ChatGPT e altri sistemi similari sono inclini a commettere gli stessi errori che possono verificarsi nel ragionamento umano: bias e fallacie influenzano significativamente il loro funzionamento. Qual è, quindi, la differenza tra la mente umana e quella artificiale? L’attenzione degli studiosi si è soffermata su analogie e divergenze tra intelligenza naturale e virtuale. A differenza delle macchine “intelligenti”, il cervello umano è frutto di un processo evolutivo che ha consentito lo sviluppo di capacità cognitive complesse solo nella fase più recente della nostra storia. Prima della formazione delle aree neurali deputate al ragionamento, il sistema cerebrale ha dato priorità all’intuito e all’emotività trasformandoli in strumenti primari nella sua ricerca di sopravvivenza e adattamento ambientale. Rispetto alle IA che si basano sull’apprendimento di vastissime quantità di dati e su calcoli veloci per generare risposte, l’essere umano gode proprio di queste risorse per attribuire significato agli eventi. Sebbene possa apparire più lenta e meno precisa rispetto alle sue controparti artificiali, l’intelligenza umana è in grado, grazie a queste due qualità, non solo di gestire costantemente enormi quantità di informazioni, ma anche di stabilire connessioni significative tra di esse (Fabio Babiloni, “Sapienza”).
D’altronde sono emerse argomentazioni affascinanti che mettono in luce una profonda somiglianza tra l’intelligenza artificiale e quella umana, basata su conoscenze constative come storia, filosofia e scienza. Secondo alcuni l’avvento delle nuove tecnologie potrebbe aprire le porte a un’apocalisse cognitiva, una rivelazione nella comprensione e nell’utilizzo dell’intelligenza sia umana che artificiale. Questa prospettiva ci invita ad approfondire le sfide che sorgono dall’interazione tra queste due forme di intelligenza: i rischi collegati all’integrazione vanno ben oltre la portata delle nostre previsioni. In tale contesto, è emersa chiaramente la possibilità di definire una tipologia di intelligenza propriamente umana, intrinsecamente resistente a qualsiasi tentativo di replicazione automatizzata. Questa intelligenza “creativa” infatti sfuggirebbe alla cieca efficienza macchina, destinata a ricalcare solo gli aspetti superficiali di copying e blending (Luca Nobile, “Université de Bourgogne”).
A tal proposito, sono stati condotti una serie di esperimenti al fine di valutare il progresso delle capacità generative di ChatGPT. Le prove hanno richiesto al modello OpenAI di ipotizzare l’esistenza di romanzi mai scritti, di indicizzare manuali di filologia romanza di area euromediterranea ancora non pubblicati e di comporre poesie su argomenti religiosi. Nel primo caso, è stato domandato a ChatGPT di formulare alcune ipotesi riguardanti la trama del “Roman de Girflet” – romanzo in antico francese mai esistito – e le relazioni che questo avrebbe potuto intessere con altre opere letterarie medievali. Successivamente è stato richiesto al chatbot di immaginare la conformazione materiale del manoscritto latore del “Roman de Girflet”. Gli esiti della sperimentazione, affatto deludenti, hanno portato gli esperti a sottolineare l’importanza della fantasia come facoltà a supporto dell’analisi filologica, non subordinata al rispetto dei principi e dell’integrità intellettuale del filologo (Anatole Pierre Fuksas, “Università di Cassino”).
Integrità, quella dello scienziato del testo, che richiede all’esperto non solo di saper usare  i “vecchi ferri” del mestiere, ma anche di valutare i nuovi strumenti che la tecnica mette a disposizione. Cogliendo fattivamente la possibilità di servirsi di ChatGPT come ‘utensile’ nella realizzazione di un saggio di filologia delle culture medievali in area mediterranea – argomento su cui si dispone di un’abbondante letteratura scientifica ma non ancora di un manuale complessivo – si è notato che il modello OpenAI è in grado di generarne l’indice e di articolare gli argomenti seguendo una prosa generalista perfettamente accettabile, ma senza impegnarsi nel fornire dati concreti. In altre parole, ChatGPT non sarebbe ancora in grado di sviluppare una forma di scrittura documentata. Per questo motivo gli studiosi hanno ritenuto la nuova IA poco utile in operazioni di scrittura scientifica e hanno avvicinato i tentativi compiuti dal chatbot alla “furberia” di quegli studenti dotati di sveltezza di mente e di lingua, che fanno retoricamente molto effetto, poiché rispondono su tutto, parlando a gran velocità e dicendo cose di buon senso, ma che, per difetto di informazione, non sanno fornire dati stringenti e concreti (Stefano Rapisarda, “Università di Catania”).
Anche nelle operazioni di scrittura poetica e di simulazione, il modello di linguaggio presenta allo stato attuale alcuni limiti. Testando ChatGPT nella scrittura di una tenzone – una forma di scambio poetico a due voci che ha avuto limitatissima fortuna nel periodo delle origini – è emerso che il chatbot incontra alcune difficoltà nel rispettare le norme metriche della tradizione versificatoria italiana e nel simulare in modo convincente il ruolo di un predicatore francescano del 1200. La capacità di ChatGPT di creare poesie convincenti nella forma della ballata minore di endecasillabi risulta limitata e non del tutto soddisfacente (Simone Palmieri, “Sapienza”).
Queste condizioni evidenziano come, nonostante i progressi, l’intelligenza artificiale abbia ancora alcune sfide da superare nel campo della scrittura scientifica e poetica nonché nella simulazione, dove la creatività, l’originalità e l’espressività sono elementi difficili da riprodurre artificialmente. Ulteriori criticità sono emerse nel reperimento di informazioni bibliografiche e storico-culturali attendibili. ChatGPT ha mostrato una sostanziale inaffidabilità nell’indicare con precisione le coordinate storico-letterarie associate a un dato autore e al suo contesto. Malgrado ciò, alcuni dati interessanti sono affiorati dagli esperimenti di traduzione e di analisi testuale condotti sulle liriche di area romanza.
Chiedendo al chatbot di fornire informazioni relative all’attribuzione, alla biografia, all’esegesi e alla metrica di testi antico-francesi, occitani e galego-portoghesi di autori di spicco della tradizione lirica medievale iberica e galloromanza – quali Jaufre Rudel, Don Denis e Thibaut de Champagne – i dati ottenuti, pressoché omogenei tra le aree linguistico-letterarie prese in esame, hanno rivelato le grandi capacità del modello linguistico di OpenAI nella rielaborazione e nell’interpretazione testuale, mostrandone altresì le potenzialità sotto il profilo della traduzione (Emanuele di Meo, “Università del Molise”).
Tali competenze sono progressivamente riaffiorate durante alcune prove eseguite sul corpus lirico di Conon de Bethune. Si è infatti notato un graduale miglioramento nella precisione delle traduzioni solamente dopo un lungo dialogo formativo con il modello di OpenAI in merito al troviero crociato. ChatGPT, è noto, apprende informazioni dal contesto della conversazione riproponendole sottoforma di risposta, sebbene tale acquisizione rimanga circoscritta alla singola interazione. È infatti più volte stato notato che, pur essendo in grado di elaborare e interpretare i testi in modo impressionante, il modello non mantiene una conoscenza continua tra più chat e non recupera informazioni esterne al contesto attuale. Questo svelerebbe il motivo dell’elevato tasso di variabilità tra le risposte, che porta di fatto a una molteplicità di traduzioni possibili e sempre diverse tra loro (Marianoemi Bova, “Università dell’Aquila”).
Dal punto di vista dello studio del lessico, è stato notato che ChatGPT possiede buone capacità di analisi e di sintesi. Interagendo col modello OpenAI in merito alle opere delle trobairitz Beatritz de Dia e Azalais de Porcairagues, attraverso degli input mirati agli aspetti filologici e lessico-semantici, il chatbot è stato in grado di individuare i lessemi afferenti a una medesima area semantica, pur dimostrando i limiti di un sistema che non ha accesso immediato e completo alle fonti documentarie e critiche (Mariangela Distilo, “Sapienza”).
Alcune studiose hanno evidenziato inoltre le notevoli capacità generative di ChatGPT, dimostrate nella rielaborazione di testi in diversi registri stilistici. È stata infine rilevata l’abilità del modello nell’organizzazione del dato testuale, che può essere impiegata per esigenze filologiche, come la produzione di collazioni automatiche (Margherita Bisceglia, Elisa Verzilli, “Sapienza”). L’utilizzo dello strumento nell’ambito della critica testuale può tuttavia rivelarsi non agevole.
Collazionare testimoni, segnalare gli errori congiuntivi e separativi, ipotizzare i rapporti genealogici tra i testimoni ed elaborare uno stemma codicum, sono compiti che il modello di linguaggio non è ancora in grado di svolgere con accuratezza (Roberto Rea, “Sapienza”).
Le sperimentazioni condotte sull’analisi delle perifrasi complesse in antico occitano, tratte dai corpora di Guglielmo IX e di Raimbaut d’Aurenga, hanno al contrario portato risultati incoraggianti, sebbene, fra i limiti più rilevanti del sistema, è stata evidenziata la poca attendibilità nei casi di grandi quantità di materiale su cui lavorare. Il tasso di errore sembra crescere esponenzialmente in relazione alla lunghezza del testo da esaminare (Mariagrazia Staffieri, “Sapienza”).
Analisi, interpretazione e rielaborazione del testo sono capacità confermate dall’esperimento condotto su Ab la dolchor di Guglielmo ix. Posta di fronte a uno degli esempi più illustri dell’arte del trobar con l’incarico di tradurla in italiano, il modello di linguaggio ha fornito delle risposte perfette, salvo piccole imprecisioni di natura sintattica rimediabili attraverso l’addestramento. La chat ha inoltre dimostrato non solo di sapere interpretare ma anche di sapere riscrivere il contenuto dei componimenti, filtrando i temi più sensibili al fine di non urtare la suscettibilità dell’user. Il risultato più soddisfacente è stato raggiunto nella riscrittura della poesia del Gatto rosso: ChatGPT si è dimostrata all’altezza di saper narrare l’opera trasformandola in una moderna novella salace. Inoltre, dopo una piccola fase di addestramento sulla metrica, ChatGpt ha dimostrato la sua abilità nel definire e comporre sestine ed endecasillabi pressoché perfetti: capacità filologiche e creative certo non scontate per un “bambino” di appena 6 mesi.
D’altronde è emerso un calo delle prestazioni nelle pratiche di ermeneutica del testo. A tal proposito gli studiosi hanno evidenziato la dipendenza dell’IA dai calcoli probabilistici per la proposta dell’output. Come è stato più volte evidenziato, il modello OpenAI dimostra capacità di apprendimento e miglioramento attraverso continue rimodulazioni delle richieste. In base al linguaggio adottato dall’utente nel formulare le domande, ChatGPT riesce a calcolare le probabilità di successo di una risposta. In questo, il suo approccio è stato avvicinato dagli studiosi alla maieutica socratica, per mezzo della quale l’interlocutore mira a fornire una soluzione ai problemi posti, esercitando la dialettica. In definitiva, ChatGPT può essere considerato una forma moderna di conoscenza socratica o platonica, sebbene priva dell’intero spettro delle capacità interpretative umane. Il modello infatti pecca di empatia e di pensiero critico, facoltà umane che svolgono un ruolo centrale nei processi di ermeneutica del testo (Paolo Maninchedda, “Università di Cagliari”).
Dalle sperimentazioni fin qui riportate, gli studiosi hanno tratto alcune conclusioni sulle capacità filologiche di ChatGPT: il modello dimostra notevoli capacità nella traduzione e nell’organizzazione del dato sebbene esso sia risultato inaffidabile nel fornire coordinate storico-letterarie precise riguardanti autori e contesti specifici. Le prove effettuate su testi antichi hanno evidenziato risultati incoraggianti: il modello si avvicina alla maieutica socratica, ma manca di empatia e delle capacità interpretative. Nel complesso, quindi, l’applicazione di ChatGpt alle mansioni filologiche ha mostrato potenzialità promettenti e limiti  specifici, di fronte ai quali i filologi si sono domandati quale ruolo dovrebbe sostenere la disciplina nell’era dell’intelligenza artificiale, e quale ruolo dovrebbero svolgere le intelligenze artificiali nel contesto formativo in generale.
Potremmo assistere all’alba di una “filologia diffusa” che, in determinati casi, potrebbe sacrificare alcune delle sue conoscenze più specialistiche e riservate a vantaggio di aspetti più generali e formativi (Giuseppe Noto, “Università di Torino”).
Il rischio che si corre, tuttavia, è considerevole: l’utilizzo smodato e acritico di questo mezzo potrebbe ingenerare danni al metodo filologico stesso. Delegare alle macchine compiti di formazione ed educazione potrebbe rubare agli studenti l’opportunità di coltivare autonomamente strumenti critici, rendendoli dipendenti da un’applicazione specifica nella pratica di analisi del testo. Sebbene i pericoli apportati dall’uso di queste tecnologie siano accertati ed evidenti, è emersa la necessità di trovare un equilibrio tra il mantenimento delle capacità umane e l’integrazione di strumenti come ChatGPT. D’altra parte, privarsi dell’aiuto delle IA in campo di ricerca pare controproducente ai fini della ricerca stessa. Si può pensare, come è stato sottolineato da alcuni, a una collaborazione tra uomo e macchina, a patto che sia quest’ultimo a dirigere e impostare tale collaborazione (Lucilla Spetia, “Università dell’Aquila”). Programmi come Centaure e altri metodi digitali di indagine possono essere utili al ricercatore e allo studente di filologia.
Operando un confronto tra ChatGPT e i software specialistici, gli studiosi sono ritornati sugli eccellenti risultati ottenuti dall’analisi di due poemi di Gaucelm Faidit tramite l’Analisi Fattoriale delle Corrispondenze (AFC). L’AFC è un metodo statistico che esplora le relazioni tra variabili qualitative nominali e ordinali. D’altra parte, ChatGPT si presenta come un potente modello di linguaggio che offre all’utente la possibilità di effettuare calcoli statistici di base e di applicare tecniche di analisi testuale. Entrambi gli strumenti si rivelano promettenti nel tracciamento delle ripetizioni metriche e lessicali all’interno dei corpora poetici di vari autori, sebbene rimanga fondamentale tenere a mente le opportune differenze. Pur condividendo alcune capacità analitiche, ChatGPT e AFC differiscono tra loro per obiettivi e approcci. Mentre la prima si concentra sull’elaborazione del linguaggio e sulla generazione di testi, i software specialistici sono specificamente progettati per l’analisi statistica e la ricerca di modelli nel contesto filologico. In definitiva, gli strumenti digitali possono offrire un contributo significativo all’analisi poetica, anche se secondo gli studiosi risulta essenziale utilizzarli con criterio e in modo consapevole. Una comprensione approfondita dei rispettivi obiettivi e approcci potrebbe aiutare i ricercatori a sfruttarne appieno le potenzialità (Antoni Rossell, “Universitat Autònoma de Barcelona”).
L’esigenza di una comprensione più approfondita del modello ChatGPT è stata sollevata dagli allievi del corso magistrale di Filologia Moderna che, durante la giornata conclusiva, si sono soffermati sulle implicazioni dell’uso delle IA nel loro percorso di studi. Gli studenti hanno esaminato le potenzialità del modello nello svolgere i compiti tradizionali della disciplina e hanno sottoposto il chatbot a un vero e proprio esame universitario in filologia romanza. Risultato ottenuto, 21/30: “non male!” a detta dei colleghi di corso. Stando alla loro visione, ChatGPT rappresenta uno strumento di supporto utile soprattutto nell’organizzazione del dato testuale e nella rielaborazione del testo, sebbene possa rivelarsi fuorviante nella ricerca di informazioni scientificamente valide e attendibili su autori e opere letterarie (Marco Nicosia, Michela Papello e Flaminia Prece, “Sapienza”).
Per evitare, quindi, un uso improprio di questi strumenti e scongiurare i pericoli derivanti dall’accettazione acritica è fondamentale compiere un’ultima riflessione in merito ai limiti intrinseci del modello di OpenAI. Proprio in quanto basata sull’addestramento di ampi dataset di origine ignota, ChatGPT può occasionalmente incorrere in inesattezze e fornire informazioni non del tutto affidabili. L’assenza di un continuo accesso alle fonti documentarie, unita alla dipendenza dai calcoli probabilistici per la generazione delle risposte, rende il modello vulnerabile all’errore, soprattutto quando si tratta di analizzare grandi quantità di materiale o di fornire informazioni specifici su autori e contesti storico-letterari. La versione gratuita, ChatGPT 4.0.2, presenta avanzamenti significativi rispetto alle versioni precedenti, ma incontra le stesse difficoltà nel risolvere i problemi legati all’ecdotica e alla critica del testo. L’analisi e l’interpretazione del testo richiedono infatti una comprensione approfondita delle sfumature linguistiche, nonché una solida base di conoscenze specifiche nel campo della storia delle culture e delle tradizioni letterarie. Riconoscere le varianti testuali, valutare le fonti e analizzare i manoscritti sono alcuni dei compiti che richiedono competenze filologiche avanzate, ancora non pienamente integrate nel modello OpenAI. Lo stesso discorso può valere per quanto concerne l’interpretazione corretta del testo, la quale necessita non solo delle capacità intellettuali, ma anche di uno sguardo d’insieme capace di cogliere tutti i piani del discorso e armonizzare la distanza spazio-temporale tra l’autore e il lettore. Per questi e altri motivi, l’opera del filologo risulta più che mai indispensabile al fine di estendere e rafforzare le competenze degli attuali modelli di linguaggio. In qualità di scienziato del testo, il filologo deve servirsi di tutti gli strumenti a sua disposizione, senza escluderne nessuno o cadere nella trappola irrazionale del feticcio. In un periodo di grandi sconvolgimenti, il filologo è chiamato a guidare le rivoluzioni culturali in atto, verificando le qualità delle innovazioni tecniche attraverso le quali si vuole indagare le fonti. Infine, è fondamentale tenere presente che gli strumenti di intelligenza artificiale, come ChatGPT, sono in continua evoluzione e miglioramento. Come già detto, la versione 4.0.2 rappresenta solo un passo verso modelli più sofisticati e performanti. Ulteriori novità sono già state annunciate; compito del filologo è valutarne la portata.
Si ringraziano tutti i relatori intervenuti nelle giornate di studi per il loro contributo alla riflessione comune e alla stesura di questo articolo con l’invio degli abstract relativi a ciascuno dei loro interventi. Gli Atti delle Giornate di studio saranno pubblicati nel prossimo numero di Cognitive Philology.

simone.palmieri@uniroma1.it

Bibliografia

Boselli, G. (2023). ChatGPT et similia: Le potenze del Novum attivabili dal Notum. Encyclopaideia, 111-114 Paginazione. https://doi.org/10.6092/ISSN.1825-8670/16652

Chiarella, S. G., Torromino, G., Gagliardi, D. M., Rossi, D., Babiloni, F., & Cartocci, G. (2022). Investigating the negative bias towards artificial intelligence: Effects of prior assignment of AI-authorship on the aesthetic appreciation of abstract paintings. Computers in Human Behavior, 137, 107406. https://doi.org/10.1016/j.chb.2022.107406

Graves, R. (1994). I miti Greci. Longanesi.

Hassabis, D., Kumaran, D., Summerfield, C., & Botvinick, M. (2017). Neuroscience-Inspired Artificial Intelligence. Neuron, 95(2), 245–258. https://doi.org/10.1016/j.neuron.2017.06.011

Mayor, A. (2018). Gods and robots: Myths, machines, and ancient dreams of technology. Princeton University Press.

McClure, P. K. (2018). “You’re Fired,” Says the Robot: The Rise of Automation in the Workplace, Technophobes, and Fears of Unemployment. Social Science Computer Review, 36(2), 139–156. https://doi.org/10.1177/0894439317698637

Mori, M., MacDorman, K., & Kageki, N. (2012). The Uncanny Valley [From the Field]. IEEE Robotics & Automation Magazine, 19(2), 98–100. https://doi.org/10.1109/MRA.2012.2192811

Morriello, R. (2023). OpenAI e ChatGPT: Funzionalità, evoluzione e questioni aperte. DigitCult, 8(1), 59–76. https://doi.org/10.36158/97888929573674

Pisa, P. L. (2023, gennaio 26). Tutti gli esami più incredibili passati da ChatGPT. https://www.repubblica.it/tecnologia/2023/01/26/news/chatgpt_supera_esami_mba_e_medicina-385072379/

Rossi Castelli, P. (2023, febbraio 23). L’intelligenza artificiale di ChatGPT supera gli esami per diventare medici negli USA. https://www.ibsafoundation.org/it/blog/chatgpt-supera-esami-di-medicina

Scalcon, A. (2023, aprile 7). L’intelligenza artificiale e la creatività umana: Amici o nemici? L’intelligenza artificiale e la creatività umana: amici o nemici? https://www.repubblica.it/tecnologia/2023/04/07/news/chatgpt_intelligenza_artificiale_italia_sondaggio-395043426/

 

 

 

 

 

L'autore

Simone Palmieri
Simone Palmieri ha conseguito la laurea magistrale in Editoria e Scrittura (LM-19) il 19/07/2017, con la tesi "Persuasione in rima - Versificazione e musicalità nel testo pubblicitario" (relatore prof. Paolo Canettieri). Ha partecipato in qualità di relatore al "3rd International Conference on Science and Literature, 2nd CfP" congresso internazionale sul tema "Scienza e Letteratura", proponendo l'intervento "A survey on the functionality of metrical-rhyming structures in italian advertising" (prossima pubblicazione con la casa Peter Lang). Attualmente è dottorando presso l'università La Sapienza di Roma ("Scienze del testo", XXXIV° ciclo), e lavora ad un progetto di ricerca sperimentale sulle funzionalità cognitive del linguaggio poetico.