di Franco Moretti

 

[Nottetempo ha inaugurato ieri “Extrema Ratio”, una nuova collana in cui appariranno alcuni tra i più importanti testi di teoria e critica letteraria usciti nel Novecento, accanto a saggi inediti scritti da grandi figure della critica contemporanea e a opere importanti di giovani studiosi e studiose. La collana – diretta da un comitato editoriale formato da Federico Bertoni, Francesco De Cristofaro, Daniele Giglioli, Guido Mazzoni, Donata Meneghelli, Simona Micali, Franco Moretti, Pierluigi Pellini – parte con un saggio di Franco Moretti intitolato Falso movimento. La svolta quantitativa nello studio della letteratura. Pubblichiamo un estratto della prefazione, ringraziando l’editore].

  

 

Falso movimento: un film di Wim Wenders, del 1975, su soggetto di Peter Handke, ispirato al Meister di Goethe. Wilhelm, aspirante scrittore, lascia la piccola città di Glückstadt per Bonn, che era all’epoca la capitale della Repubblica Federale Tedesca. Poi il caso interviene; dal treno, Wilhelm vede una donna che lo osserva; un uomo e una giovane acrobata muta entrano nel suo scompartimento, e lo seguono in albergo; più tardi, vengono raggiunti dalla donna del treno, Therese, e da un aspirante poeta, che li invita tutti a pernottare nella casa di un suo zio. Arrivano, ma è la casa sbagliata; il proprietario li accoglie lo stesso, ma il giorno dopo – mentre i cinque fanno un’interminabile, indimenticabile passeggiata – si uccide. Il gruppo fugge, e si trasferisce nell’appartamento di Therese a Francoforte; poi, a poco a poco, si disgrega, e Wilhelm finisce, da solo, in cima alla Zugspitze.

Non c’è dubbio, un movimento c’è stato: da un capo all’altro della Germania, addirittura. Ma è vero anche l’aggettivo, e la dissonanza che esso comporta. Nelle parole di Wilhelm, su cui il film finisce: “Avevo l’impressione di aver mancato qualcosa, e di continuare a mancare qualcosa, a ogni nuovo movimento”.

 

*

 

Vent’anni fa, lavorando alla Letteratura vista da lontano, feci una sorta di scommessa: sulla base di ricerche empiriche ancora agli inizi, avanzai l’ipotesi che la statistica, la geografia e la teoria dell’evoluzione – i “modelli astratti” menzionati nel sottotitolo dell’edizione inglese[1] – avrebbero potuto trasformare dalle fondamenta la storia della letteratura. Nel giro di una decina d’anni, quel breve libro fu seguito da due raccolte di ricerche individuali e di gruppo; in parallelo, altri studiosi contribuivano, ognuno a suo modo, a sviluppare il nuovo campo di ricerca. Da ipotesi che era, lo studio quantitativo della letteratura era divenuto realtà. Ma i modelli astratti erano scomparsi, e la storia della letteratura non era cambiata granché.

Falso movimento. Si è partiti, e poi, come in ogni road movie che si rispetti, la meta ha via via perso importanza rispetto a ciò che si intravedeva ai lati della strada. Ora è tempo di volgersi indietro, e tentare un bilancio del cammino percorso, per capire se – nelle ragioni che avevano condotto alla svolta quantitativa – vi fosse qualcosa di importante che abbiamo mancato. Non si tratta di avere nostalgia, e men che meno di recriminare. Si tratta di capire.

 

*

 

Nei saggi che seguono, la distinzione tra la fase iniziale e la situazione odierna prende a volte la forma di una contrapposizione tra “studio quantitativo della letteratura” e digital humanities. Inutile dire che tra le due cose esiste una larga area in comune. Ma c’è anche una differenza importante. Le digital humanities hanno portato il lato statistico del lavoro a un livello di competenza professionale che va molto al di là di quel che si sapeva fare anche solo pochi anni fa; allora, però, si conservava un legame con la teoria letteraria del Novecento che oggi è stato reciso. Non era inevitabile, questo trade-off tra i due lati del lavoro. Ma così è stato. E a farne le spese, è stato il concetto di forma.

Ora, “forma” non è un concetto tra i tanti: è ciò che caratterizza la sfera estetica in quanto lavoro, produzione, intervento sulla realtà. Si perde la forma, si perde la dimensione sociale della letteratura, e la si riduce a uno scialbo riflesso. Il che è appunto quel che è successo con l’avvento di tecniche come il text mining, il topic modeling, la content analysis, la sentiment analysis e via dicendo: tutti strumenti di lavoro che, invece di sfidare le categorie formali, le hanno semplicemente dimenticate[2]. E le forme, si sono dimenticate di noi.

 

*

 

Data-driven: poche cose sono così caratteristiche del nuovo campo di studi come questa espressione. Se la si cerca su Google Books, non c’è praticamente nulla fino al 1980; dopo, la si trova un po’ dappertutto – dall’ingegneria alla finanza, dallo storytelling al marketing, alla legge, l’urbanistica, la pubblicità, gli uffici del personale, l’istruzione elementare… “Data-driven” vuol dire due cose: che una gran quantità di dati può agire come un pungolo potente alla ricerca, il che è vero; e che la ricerca stessa può essere letteralmente guidata dai dati, il che è falso. Gli strumenti con cui si lavora sui dati dipendono sempre da una teoria[3]: se una teoria non c’è, a prenderne il posto saranno, fatalmente, dei luoghi comuni che circolano nell’aria. E con quelli, non si va lontano.

Di una teoria c’è sempre bisogno. Ma non tutte le teorie sono state create uguali. Alcune spiegano piuttosto bene la realtà, e altre no. Per quel che mi riguarda, è ormai da molto tempo che l’ispirazione principale mi viene dalle scienze naturali. All’inizio fu soprattutto la teoria dell’evoluzione, che gettava una luce nuova su come pensare ai generi letterari e alle trasformazioni morfologiche; più tardi, nel riflettere sui risultati raggiunti, sono passate in primo piano l’epistemologia e la storia della scienza. E così, i nomi di Georges Canguilhem e Alexandre Koyré, Ernst Mayr e Thomas Kuhn si incontreranno in queste pagine più spesso di quelli di molti critici letterari.

In tempi in cui la teoria letteraria è guardata con antipatia, e magari con sospetto, proporre a modello le scienze naturali può sembrare una provocazione. Lo è. “Se studiamo una macchina”, ha scritto un fisico del secolo scorso, Jean Baptiste Perrin,

non ci limitiamo a ragionare sui suoi elementi visibili, che pure, fin quando non possiamo smontarla, sono i soli ad avere per noi una realtà effettiva. Certo, li osserveremo come meglio possiamo, ma cercheremo anche di immaginare quali ingranaggi, quali organi nascosti possano spiegare i movimenti che stiamo osservando. Immaginare in tal modo l’esistenza o le proprietà di oggetti che sono ancora al di là della nostra conoscenza, spiegare quel che è complesso e bene in vista con ciò che è semplice e invisibile, ecco la forma d’intelligenza intuitiva […] che questo libro intende presentare[4].

Spiegare quel che è complesso e bene in vista con ciò che è semplice e invisibile. Ecco un buon motto, per il lavoro a venire.

 

*

 

Non che le cose semplici siano sempre così semplici. Tre saggi recenti contenuti in questo libro – “Simulazioni, forme, storia”, “La strada per Roma”, ed “Eccezioni, norme, casi limite, Carlo Ginzburg” – si concludono tutti sulla stessa nota: l’impossibilità di mettere simultaneamente a fuoco due dimensioni che pure sono entrambe essenziali alla conoscenza letteraria: morfologia e storia in “Simulazioni”, analisi quantitativa ed ermeneutica in “La strada per Roma”, studio delle norme e studio delle anomalie in “Eccezioni”.

Sia chiaro: queste conclusioni mi hanno preso ogni volta di sorpresa. Non si trattava di un esperimento ripetuto su terreni diversi al fine di verificare un’ipotesi, ma di lavori del tutto indipendenti l’uno dall’altro, la cui somiglianza è emersa solo al momento di scrivere questa prefazione. D’un tratto, è stato come trovarsi di fronte a una versione molto elementare di quello che Heisenberg chiamò “principio di indeterminazione”. Il che non significa che vi sia indeterminazione in tutto ciò che cerchiamo di analizzare: ma che, quando cerchiamo di cogliere insieme due aspetti che sono entrambi essenziali – e che sono in genere ritenuti connessi, come la storia e la morfologia – la cosa non riesce. Nel determinare l’uno, l’altro ci sfugge. E viceversa.

Se questo è vero, allora dobbiamo cercare di essere al tempo stesso cauti e audaci. Cauti, perché nel ragionare sulle questioni fondamentali è facile scivolare da ciò che è a ciò che dovrebbe essere: un errore da evitare, tenendosi stretti a ciò che abbiamo effettivamente, empiricamente assodato. Potrà sembrare ozioso ricordare un principio così elementare, specie in tema di studi quantitativi. Ma il saggio “Vedere e non vedere”, scritto insieme a Oleg Sobchuk, suggerisce che ozioso non è.

E poi, audacia. Perché se l’indeterminazione verrà ulteriormente confermata – allora, per il lavoro teorico si apre una stagione felice, in cui ogni nuova ricerca diventerà “a fine subject for betting”, una gran bella scommessa, come scrisse George Eliot – ironica e melanconica come solo lei sapeva essere – a proposito del giovane scienziato di Middlemarch. E stavolta, non sarebbe male vincerla, la scommessa.

 

 

Questi saggi sono stati presentati negli ultimi due anni in luoghi diversi: il Wissenschaftskolleg di Berlino, la Biblioteca Reale di Copenaghen, l’École normale supérieure di Parigi, la Fondazione Malatesta di Santarcangelo di Romagna, lo iulm, il convegno “Forms, History, Narration, Big Data” del Centro Studi Arti della Modernità di Torino, il convegno di Compalit a Siena. A tutti coloro che li hanno discussi, un grazie di cuore.

Benché le pagine che seguono siano state riviste, a volte anche a fondo, per l’uscita del volume, alcuni saggi sono usciti in una versione preliminare altrove: “La strada per Roma” è apparso in Critica sperimentale. Franco Moretti e la letteratura, a cura di Francesco de Cristofaro e Stefano Ercolino, Carocci, Roma 2021; “Vedere e non vedere” su Ácoma, n° 18, primavera-estate 2020; “Simulazioni, forme, storia” in aa.vv., Le costanti e le varianti, Atti del Convegno Compalit 2019, Del Vecchio, Roma 2021; “Il quantitativo come promessa e come problema” su Intersezioni, n° 3, 2021.

 

Note

 

[1] La letteratura vista da lontano, Einaudi, Torino 2005; ed. ingl.: Graphs, Maps, Trees: Abstract Models for Literary History, Verso, London-New York 2005.

[2] Un articolo recente (Ted Underwood, Richard Jean So, “Can We Map Culture?”, in Journal of Cultural Analytics, June 2021) discute ad esempio in modo ammirevole i pro e i contra della “Kullbach-Leibler divergence”, della “cosine distance” e dei “predictive models” per l’analisi della cultura; ma alla base di tutto rimane, indiscusso, il topic modeling, che è completamente estraneo a ogni nozione formale (e che ha anche svariati altri problemi tutt’altro che secondari).

[3] Un esempio pirotecnico della concatenazione concetti-strumenti-dati è l’articolo di Bruno Latour “The ‘Pédofil’ of Boa Vista: A Photo-Philosophical Montage”, in Common Knowledge, vol. 4, n° 1, 1995, pp. 144-187.

[4] Jean Baptiste Perrin, Les Atomes (1913), Flammarion, Paris 2014, pp. 24-25. [n.d.r.: Le traduzioni delle citazioni, dove non diversamente indicato, sono a cura dell’autore.]

1 thought on “Falso movimento. La svolta quantitativa nello studio della letteratura

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *