di Lorenzo Dell’Oso
Lo scorso 29 aprile la pagina online del Corriere della Sera riportava trionfalmente la notizia del “ritorno” di ChatGPT nei server italiani. Facilmente immaginabile – qualcuno dirà – la gioia di adolescenti alle prese con un tema su Napoleone o Cavour, con la versione di latino da tradurre, o con i problemi di chimica organica da risolvere. In effetti, basta scorrere qualsiasi news feed di Instagram, TikTok, Facebook o YouTube per rendersi conto di quanti servizi di “svolgimento-compiti-a-casa” targati ChatGPT vengano quotidianamente sponsorizzati. Di ChatGPT parlano ormai tutti, dalla televisione (come il servizio de Le Iene dello scorso 24 gennaio) al Web – natürlich – in cui agli elogi trionfalistici del “nuovo che avanza” si accompagnano commenti apocalittici riguardo al futuro dell’insegnamento e della formazione, dalle elementari all’università.
Intendiamoci: i pericoli di questa tecnologia sono chiarissimi. Si è già visto come ChatGPT sia in grado di svolgere diverse professioni senza chiedere salario né diritti sindacali e come possa addirittura creare dipendenza psicologica. E, a livello più generale, non c’è dubbio come questa tecnologia, specie se messa nelle mani dei più piccoli, possa creare danni enormi proprio nel processo di acquisizione della conoscenza, nella risoluzione dei problemi, nello stesso modo di “pensare”. La lettera Pause Giant AI Experiments dello scorso 29 marzo, nella quale si chiede di sospendere per almeno sei mesi l’addestramento dei sistemi di IA fino a quando saremo “confident that their effects will be positive and their risks will be manageable”, ha tra i suoi firmatari personalità come Elon Musk e Yuval Noah Harari (e, molto più modestamente, chi scrive). Ma fino a quando questa tecnologia resterà disponibile a tutti, assumere un atteggiamento indifferente o aprioristicamente recriminatorio può essere altrettanto pericoloso che negarne gli (oggettivi) effetti nocivi. In altre parole: volenti o nolenti, si tratta di una realtà con cui tutti dobbiamo avere a che fare.
Per una buona volta, le Humanities non sono rimaste a guardare. Claudio Giunta, dopo aver serenamente decretato la “resa” a ChatGPT, ha proposto anzitutto di insegnare agli studenti come si scrive e poi di invogliarli a scrivere di sé stessi e del proprio vissuto, piuttosto che di Napoleone o Cavour: e in questo nessuna tecnologia potrà mai sostituirsi all’uomo. Oppure Lorenzo Marchese, in un intervento su Snaporaz, ha mostrato come, paradossalmente, l’uso continuo di ChatGPT potrebbe permetterci di trovare, parafrasando Calvino, “cosa, in mezzo alla letteratura, non è la letteratura, e farla durare, e darle spazio”. Sono, questi, interventi accorti e intelligenti nell’individuare i molti limiti di questa nuova tecnologia. E non c’è dubbio che nelle domande di contenuto ChatGPT si riveli, almeno per il momento, spesso insufficiente. Lo stesso Marchese mostra come, interrogato sulla Commedia dantesca, ChatGPT fornisca risposte limitative se non del tutto false. Infine, come mi ha fatto notare Federico Rossi, nel chiedergli informazioni bibliografiche su un argomento molto circoscritto (per la precisione, su un frate francescano vissuto a Firenze negli ultimi anni del Duecento), ChatGPT fornisce titoli di articoli totalmente inventati: ovvero, articoli “scritti” da studiosi che avrebbero potuto perfettamente scriverli, ma che – piccolo dettaglio – non lo hanno mai fatto.
Quest’ultimo modo di interrogare il software, però, può riservare sorprese. Da italianista e medievista quale sono, un pigro pomeriggio di gennaio leggevo un articolo – tanto per cambiare – su un predicatore domenicano della fine del XIII secolo, noto per aver fatto un viaggio in Oriente e averne steso un resoconto in latino. Nel leggerlo, mi chiedevo quanto sarebbe stato interessante fare uno studio su testi simili e indagarne l’eventuale influenza sulla letteratura italiana medievale. Ma di resoconti di viaggi in Oriente tra XIII e XIV secolo, sapevo poco o nulla. Ho dunque chiesto a ChatGPT – per divertimento – di stilare una lista dei principali resoconti di viaggio in Oriente composti da frati mendicanti tra Due e Trecento. Ora, se la lista di bibliografia secondaria ricavata da Rossi era del tutto inventata, quest’altra – una bibliografia di fonti primarie – includeva sì opere inesistenti (come una fantomatica “Storia delle cose di Tartaria” di tal Giovannino de’ Grassi, che non era un missionario francescano bensì un pittore, scultore e architetto della fine del Trecento), ma anche opere realmente scritte, come l’Historia mongalorum di Giovanni da Pian del Carmine, l’Itinerarium di Guglielmo di Rubruk, e il Memoriale toscano di Odorico da Pordenone. E allargando lo spettro ai “resoconti di viaggi in Oriente” scritti tra Due e Trecento, la lista includeva non solo opere notissime, come Il Milione di Marco Polo, ma anche altre note solo agli specialisti, come l’Iter Marci Pauli Veneti di Francesco Pipino (che del Milione fu una diffusissima traduzione latina), l’Historia orientalis di Jacques Vitry, la Practica della mercatura di Francesco Pegolotti e il Portolano di Grazioso Benincasa (che però è del XV secolo), oltre ad altre opere che fino a quel momento mi erano del tutto sconosciute. Insomma, in una manciata di minuti ChatGPT riesce a fornire una lista – certo discutibile e non sistematica – di opere su di un argomento specialistico di cui fino a pochi secondi prima non sapevo quasi nulla. Va da sé che la lista sia stata in seguito “ripulita” con un rapido controllo su Google. E per saperne di più, basta continuare la conversazione: sarà l’AI stessa a indirizzarci verso i lavori di noti specialisti come, in questo caso specifico, Duccio Balestracci e Michele Campopiano. E, arrivati lì, ci sarebbero i numeri per iniziare a pensare a una ricerca seria.
Chiunque si occupi di Medioevo ha a che fare quotidianamente col latino. Molto spesso, però, i medievisti non traducono il latino di Cicerone o Virgilio, ma quello complesso e intricato di Pietro Abelardo e Alberto Magno, o, ancor peggio, quello di anonimi scriventi depositato su manoscritti: da glosse a commenti, a reportationes di disputazioni e così via. E qui bisogna dire che la capacità di ChatGPT non solo di tradurre, ma di “comprendere” il senso del testo è notevole. Occupandomi della formazione intellettuale di Dante a Firenze alla fine del Duecento, e in particolar modo della sua frequentazione delle “scuole delli religiosi” (cioè i conventi degli ordini mendicanti) e delle “disputazioni” tenute al loro interno, mi trovo spesso a trascrivere testi di dispute verosimilmente frequentate da Dante. Si tratta per lo più di dispute di natura teologica, trascritte in un latino tecnico, farraginoso e non di rado scorretto. In una disputa tenuta dal francescano Pietro delle Travi, ad esempio, ci si chiede se la materia creata da Dio fosse stata creata in una qualche diversità oppure fosse solo una (cioè se la materia creata all’inizio si differenziasse, ad esempio, in terra e cielo, oppure fosse inizialmente unica e solo in un secondo momento si tramutasse in terra e cielo). La risposta non è delle più semplici; il tutto è poi complicato dal fatto che, com’è tipico nei manoscritti medievali, non vi è alcuna punteggiatura. Ecco come si presenta il testo sul manoscritto:
Dicendum quod quidam tenent materiam primam esse creatam sub formarum diversitate immo perfectam quo ad formas simplicium corporum quia si esset sub aliqua una forma et sic esset actu et postea quicquid superveniret distinguens non faceret actu ens simpliciter sed secundum quid et esset accidens quae fuit positio antiquorum ponentium materiam primam esse aliquod corpus puta ignem vel aerem vel aquam vel medium ex quo sequeretur quod fieri non esset nisi alterari et ideo dicunt quod oportet ponere materiam esse creatam distinctam sub formis distinctis.
Ed ecco la traduzione fornita da ChatGPT:
Si risponde dicendo che alcuni sostengono che la materia prima sia stata creata con diversità di forme, addirittura perfette per quanto riguarda le forme dei corpi semplici; poiché se fosse sotto una sola forma e così fosse attuale, e poi qualsiasi cosa sopraggiungesse a distinguere, non farebbe essere l’essere in senso assoluto, ma solo in senso qualificativo ed è un accidente, che era la posizione degli antichi che sostenevano che la materia prima fosse qualche corpo, come il fuoco o l’aria o l’acqua o un mezzo, dal quale seguiva che il diventare non era altro che l’alterazione, e quindi dicono che è necessario postulare che la materia sia stata creata distinta in forme distinte.
Anzitutto, ChatGPT inserisce l’interpunzione, mostrando quindi di saper individuare la sintassi del testo, e, nonostante l’imprecisione di alcuni termini, ha sostanzialmente “compreso” il senso del brano. Si noterà anche come talvolta la traduzione si allontani dal senso letterale (quella fornita da Google Translate, per intenderci) in modo che la lettura proceda più scorrevolmente: ad esempio, “alterari” tradotto con “alterazione”, “sub formarum diversitate” tradotto con “con diversità di forme”, il participio presente “distinguens” tradotto con “a distinguere” ecc. Anche dinanzi a testi più complessi, ChatGPT mostra sempre di cogliere il senso complessivo del testo, aiutando lo studioso in pochi secondi a capire più o meno che cosa ha davanti. ChatGPT ovviamente non può sostituirsi allo studioso; piuttosto, ne velocizza il lavoro, almeno a una fase iniziale. Il che non è poco quando l’obiettivo non è fornire una traduzione esatta di un determinato testo, ma solo capirne il senso complessivo.
Infine, ChatGPT si rivela uno strumento efficace nel proporre varianti e/o vere e proprie emendationes nelle trascrizioni di manoscritti. Di recente mi sono imbattuto in un manoscritto di origine bolognese scritto in una gotica corsiva alquanto incomprensibile. Armato di pazienza e del buon Dizionario di Abbreviature latine ed italiane (il mitologico Cappelli), ho provato a fornire una prima trascrizione del testo. Il testo restava incomprensibile. Ho dunque dato a ChatGPT la seguente “consegna”, che recita: “Questo testo latino del XIV secolo presenta alcuni errori di trascrizione indicati dal segno “?”. Correggili e riscrivi il testo in latino corretto sulla base delle lettere trascritte”. Segue il testo, che trascrivo qui:
[4.] Deinde queritur utrum <intellectus noster> intelligat separ(?)s .
Ad quod dicendum secundum sententiam Aristotelis quod non, quia intellectus noster non intelligit sine f(?)nt(??)e. Sed in pri(?)io cum(?) uni(?) corp(?) non sunt completa or(?)na, oportet eius or(??)a esse inducta ab alia quidam medie(?)a. Sed pha(?)a est(?) nimis humida et propter hoc uni(?)r cum corpori, dictum corpus non potest intelligere.
La trascrizione proposta da ChatGPT è la seguente:
[4.] Deinde queritur utrum intellectus noster intelligat separatas.
Ad quod dicendum secundum sententiam Aristotelis quod non, quia intellectus noster non intelligit sine phantasmate. Sed in principio cum unio corpori non sunt completa organa, oportet eius organa esse inducta ab alia quidam media. Sed phantasia est nimis humida et propter hoc uniri cum corpori, dictum corpus non potest intelligere.
ChatGPT riesce a cogliere alcune parole chiave che, se interpretate correttamente, possono indirizzare lo studioso verso la trascrizione corretta. La correzione di “f(?)nt(??)e” in “phantasmate” si rivela corretta quando la si confronta col manoscritto, e fa capire che l’intera frase deriva da un passaggio del De anima di Aristotele (III 7, 431a 17). Individuata la parola-chiave, il senso complessivo risulta più chiaro: in questa quaestio ci si chiede cioè non se l’intelletto intenda le (sostanze) separate – come vorrebbe farci credere ChatGPT –, bensì se l’intelletto intenda “separatus”, cioè se intenda separato dal corpo – nel passaggio del De anima “separatus” compare infatti due volte. “Uni” viene sciolto in “unio” da ChatGPT, ma a questo punto lo studioso, nel confrontare il manoscritto, fa poca fatica nel riconoscere il verbo “unitur” (e lo stesso dicasi per il successivo “uniri”); “media” sta per “medietate”, e “phantasia” (altra parola chiave del passo), a confronto col manoscritto, risulta la parola corretta. Ecco che in pochi minuti lo studioso professionista – e sottolineo ‘professionista’ – riesce a cogliere le parole inesatte dell’IA, confrontarle con il manoscritto, e sulla base della fonte aristotelica, proporre la trascrizione corretta.
Probabilmente i paleografi storcerebbero il naso di fronte a un approccio del genere: cercare di ricostruire le abbreviazioni a partire dal senso del testo è tendenzialmente l’inverso di quello che si dovrebbe fare. Ma in un campo vicinissimo alla paleografia come l’epigrafia greca questo problema non sembra essersi posto. Ne è la prova uno studio pionieristico, recentemente uscito su Nature (603, 2022), intitolato Restoring and attributing ancient texts using deep neural networks e firmato da due giovani ricercatori quali Thea Sommerschield e Yannis Assael. Qui sipresenta un progetto di AI (Ithaca) che permette il restauro (o integrazione testuale), la datazione e la collocazione di antiche iscrizioni greche. Per ottenere questi risultati straordinari, Ithaca si serve di un amplissimo database di iscrizioni. Mi pare che ciò che ChatGPT fa (e soprattutto potrebbe fare in futuro) non si discosti molto dall’idea alla base di Ithaca. Mi chiedo, cioè, se ChatGPT non possa essere usata anche per il restauro (inteso non solo come integrazioni di parti materialmente mancanti ma anche di decifrazione delle parole), la datazione e la collocazione dei manoscritti medievali, in latino e negli antichi volgari. E il database di testi è di fatto già a disposizione su Internet: pensiamo per i testi teologici al Corpus Tomisticum o alla Patrologia Latina, per i testi nei volgari italiani al Corpus TLIO, per non parlare della Library of Latin Texts e dell’Aristoteles Latinus di Brepols, e molti altri ancora. Il materiale è già tutto disponibile: si tratta di renderlo “dinamico” includendolo nel database da cui ChatGPT già trae le sue informazioni. Se spinta alle estreme conseguenze, mi chiedo cosa riuscirà a fare un giorno ChatGPT anche nella critica testuale, cioè nella determinazione della lezione dei testi: si arriverà a un momento in cui l’intelligenza artificiale sarà in grado di procurare edizioni critiche? Lo scopriremo solo vivendo, ma di certo una riflessione seria su questi temi, interpellando storici della letteratura, filologi, storici della lingua, paleografi e storici in genere, deve essere avviata.
Insomma, se per certi aspetti dobbiamo “arrenderci” a ChatGPT, per altri l’intelligenza artificiale può rappresentare uno strumento utile e funzionale alla ricerca specialistica. Ma spetterà ancora allo studioso saper selezionare le informazioni, saperle leggere e interpretarle correttamente: che siano titoli di trattati astrologici del XII secolo, di traduzioni di glosse latine del XIV secolo, o di trascrizioni da manoscritti in antico francese. Per questo le funzionalità dell’AI potranno essere utili soltanto a chi competente lo è già: di certo non a chi queste competenze deve ancora acquisirle. Chi interrogherà ChatGPT per ottenere informazioni come quelle illustrate, per tornare all’esempio precedente, deve essere già in grado di riconoscere un riferimento al De anima di Aristotele – cosa che ChatGPT non riesce a fare, almeno per il momento – e dunque capire quando il server “centra” la soluzione e quando invece la “sbaglia”. D’altronde se un guidatore senza esperienza guidasse una decappottabile, ci sarebbe il rischio di un disastro; ma guidata da un pilota professionista, la meta si raggiungerebbe con maggiore rapidità e soprattutto senza alcun rischio per la salute. E il lettore mi perdoni l’immagine prosaica: mi è stata suggerita proprio da ChatGPT.