Intelligenza artificiale o intelligenza editoriale?
immagine realizzata (non a caso) con l'AI
C’è un tema in editoria che sta diventando cruciale, ed è l’utilizzo dell’intelligenza artificiale per fare quello che prima era affidato alla cosiddetta “intelligenza editoriale”, cioè alla sensibilità, tutta umana, di lavorare sul libro (dalla scrittura del contenuto a quella dei paratesti, all’editing al posizionamento ecc.).
È stato ampiamente discusso nella tavola rotonda conclusiva dell’ultima edizione della Scuola per Librai Umberto ed Elisabetta Mauri che ha visto dialogare i rappresentanti di grandi gruppi ed istituzioni mondiali dell’editoria – James Daunt di Waterstones e Barnes & Noble; Sonia Draga la presidentessa della Federazione Europea degli Editori ed editrice a sua volta; Brian Murray di HarperCollins Publishers e David Shelley di Hachette Book Group e Hachette UK e lo stesso Stefano Mauri di Messaggerie Italiane e del Gruppo editoriale Mauri Spagnol – e abbiamo a nostra volta intervistato quattro addetti ai lavori – Simone Marchi, agente letterario socio fondatore della MalaTesta Literary Agency; Beppe Cantele, avvocato specializzato in diritto d’autore, editore della casa editrice Ronzani e il suo consulente grafico esperto di editoria digitale e AI Matteo Pinna; Eugenia Dubini direttrice editoriale della casa editrice indipendente NNEditore –.
AI: delle “black box” di cui non conosciamo bene i processi
Il profilo di opinioni e posizione che emerge è eterogeneo e ancora in divenire, esattamente come la tecnologia stessa che evolve di giorno in giorno.
Appare immediatamente evidente, e lo è in generale nell’ambiente, nonostante le posizioni siano abbastanza eterogenee– che i temi fondamentali sull’AI in editoria siano due: da un lato la necessità di regolare in modo efficace (e nuovo) il diritto d’autore e dall’altra il bisogno di trovare una relazione con il mezzo, come accade ogni volta, con l’avvento di una nuova tecnologia, perché la diffidenza la fa da padrona molto spesso. Eppure il teatro non è stato soppiantato dalla radio né dalla televisione e i libri cartacei non sono stati sostituiti dagli ebook né dagli audiolibri.
La tecnologia in questione è però molto più complessa. Il grafico della casa editrice Ronzani, Matteo Pinna, esperto di editoria digitale e di intelligenza artificiale, racconta che i Large Language Model – LLM (come dovrebbero essere chiamate le AI) sono, nel dare la risposta, delle specie di “black box” tanto che l’output di una stessa richiesta può essere affatto diverso perché il linguaggio è generato statisticamente e quindi i programmatori, così come chiaramente gli utenti, non sono consapevoli di come realmente operino. L’addestramento avviene su enormi dataset e con sistemi di “premio/punizione”, ed esistono anche filiere di lavoro umano – spesso in Paesi dove costa meno – per etichettare dati e correggere esempi. Quello che viene memorizzato sono i “pesi” di queste procedure di addestramento.
L’aspetto di incertezza nella risposta non è da pensarsi come la prospettiva che la macchina diventi “cosciente” come nei libri di fantascienza, ma il rischio che, una volta agganciata a sistemi complessi, faccia cose diverse da quelle che ci si aspetta: non per volontà, ma per ottimizzazione “sbagliata” rispetto all’intento. E questo è tanto più grave laddove i sistemi coinvolti sono sensibili (per esempio centrali elettriche o cose del genere).
In editoria il problema è di copyright e c’è un vuoto normativo: la class action contro Anthropic
In editoria invece si traduce soprattutto in un problema di tipo giuridico.
Brian Murrey, presidente e amministratore delegato di HarperCollins Publishers, non ha dubbi: l’editoria è il “business dello storytelling” e il principio cardine deve essere quello di difendere il copyright a ogni costo, e al momento, invece, c’è un vuoto normativo, sia negli USA come in Europa e in Italia, già rilevabile nei confronti di Google Book che non avrebbe dovuto rendere possibile la riproducibilità dei testi oltre 200 parole.
Beppe Cantele, da avvocato esperto in diritto d’autore (oltre che da editore di Ronzani), spiega che la legge sul diritto d’autore italiana (la 633/1941 e successive modifiche) stabilisce che l’autore è titolare dei diritti morali e di sfruttamento economico, e li può cedere con contratto all’editore. Ma se un testo è generato da un sistema addestrato su libri di autori specifici, si apre un quesito: chi è titolare dei diritti dell’opera generata? Può diventare plagio? Può ledere diritti altrui? È su questo che si sta riflettendo, perché manca una norma chiara.
Le Big Tech che creano le intelligenze artificiali sono le stesse che dapprincipio le nutrono (prima che poi lo facciano a loro volta gli utenti) e agli onori della cronaca è salita la class action Bartz vs. Anthropic sull’uso di libri piratati per addestrare Claude. Tre autori (Andrea Bartz, Charles Graeber, Kirk Wallace Johnson) hanno citato Anthropic sostenendo che l’azienda avrebbe scaricato e conservato grandi quantità di libri piratati per addestrare i modelli Claude, senza licenze né consenso. Per l’editoria, il punto è doppio: la riproduzione e archiviazione di opere piratate (la “biblioteca” di file) e l’uso per training(la trasformazione di quei testi in “pesi” del modello). Nel 2025 è arrivata una decisione molto citata: il giudice ha ritenuto che l’addestramento su libri (quando l’uso è considerato “trasformativo”) possa rientrare nel fair use, ma ha anche distinto duramente la parte di acquisizione/conservazione di copie piratate come condotta potenzialmente illecita e separata. La causa è finita in un patteggiamento e non in una sentenza di tribunale: una transazione gigantesca (1,5 miliardi di dollari). E, secondo Murray, una soluzione possibile per tamponare nel futuro immediato (le cause hanno tempi lunghissimi e il problema è invece cogente) è quella di stilare degli accordi perché editori e agenti possano lavorare in sinergia con le Big-Tech.
Accordi di cessione con le Big Tech e contratti di utilizzo dell’AI ben vincolati per l'utente
HarperCollins ha già ipotizzato ai propri autori di firmare degli accordi per cedere alle aziende i diritti sui testi per addestrare i LLM: una metà di loro accetterebbe ma con forti indecisioni. Come quotare il valore della cessione, per esempio? In ogni caso, gran parte del danno è già stata fatta. Molti testi hanno già nutrito le AI. Pinna specifica poi che dimostrare com’è stato addestrato il modello è molto difficile: non si tratta di trovare i server dove i contenuti sono stivati, l’AI non “memorizza” contenuti ma “pesi”. Esiste anche un livello aggiuntivo: funzioni che cercano informazioni fuori dal modello (su internet) e poi le riportano dentro. Questo rende il quadro ancora più complesso. Ogni singolo utente, poi, addestra l’AI usandola. Quando si caricano testi o file in certi servizi, si accetta contrattualmente che quei contenuti possano essere usati con questo fine.
Cantele specifica che esistono modalità contrattuali diverse. In alcuni piani professionali ciò che inserisci può non essere usato per addestrare e i dati possono essere gestiti con regole più stringenti (per esempio le AI per gli studi legali garantiscono l’anonimato). Come operatore editoriale spiega di sentirsi al riparo usando strumenti professionali con un contratto chiaro: il servizio è pagato per essere finalizzato al lavoro, senza “regalare” materiale all’addestramento. L’economia del modello è simile a quella del web: o paghi e riduci certe cessioni, oppure “paghi” con dati e contenuti. Molti non leggono le condizioni contrattuali, ma queste esistono.
Stefano Mauri fa notare che il fatto che le Big Tech debbano dover pagare per servirsi del lavoro degli scrittori potrebbe, oltre a risolvere il problema del “furto”, garantire un addestramento “migliore” e ridurre le allucinazioni.
L’AI modifica il mercato editoriale: che fare?
Sonia Draga, presidentessa della Federazione Europea degli Editori, osserva: "Il 60% delle pubblicazioni derivano dal self-publishing" (in cui l’attività dell’AI è molto estesa, dall’aggiustamento dei contenuti, alla ricerca – soprattutto per l’editoria universitaria e professionale – all’impaginazione e ai paratesti) e fa notare come imporre delle limitazioni nel suo uso – a valle – cioè dell’utente, sia, di contro, piuttosto complesso per non dire impossibile e come inevitabilmente il suo utilizzo stia al contempo modificando il mercato sia nelle abitudini del pubblico, che trova libri realizzati in modo nuovo e a grande velocità. Già oggi ci sono autori di bestseller che possono pubblicare sei romanzi all’anno e prodotti editoriali senza problemi di copyright realizzati interamente con l’AI (libri di fiabe, per esempio) che vengono messi in vendita.
Per David Shelley di Hachette Book Group e Hachette UK una soluzione potrebbe essere avere un approccio come quello operato nei confronti del cibo biologico, cioè facendo notare l’impatto ambientale del processo. Della serie: “Vuoi un prodotto di serie A – realizzato da esseri umani? O uno di serie B creato dall’intelligenza artificiale?”. In fondo siamo esseri relazionali, come dimostra – mutatis mutandis – l’esperimento di Harris Harlow sulle scimmie che preferiscono il contatto alla fredda nutrizione. In questo senso non stupisce che le librerie fisiche vadano meglio rispetto a quelle online nonostante l’indigestione di possibilità virtuali, e James Daunt, amministratore di Waterstones, la principale catena di librerie del regno Unito, sottolinea il nostro bisogno umano di connessione, garantito dai luoghi fisici, ed evidenzia come le librerie si siano difese molto meglio dei negozi di musica e dischi che sono andati via via chiudendo. Questo è strato possibile grazie alla costruzione della loro reputazione: si sono guadagnate la fiducia dei clienti, anche proprio per la presenza umana al loro interno: a tutti noi piacciono le “storie che stanno dietro alle storie” e la libreria garantisce questa possibilità, per esempio organizzando presentazioni al suo interno.
Un’altra via per gestire l’incedere dell’AI nel processo creativo nei confronti del fruitore potrebbe essere un sistema di etichette, sia che si scelga di evidenziare l’utilizzo dell’intelligenza artificiale sia che garantiscano il convolgimento di (una certa percentuale di) quella umana.
L’AI che scrive: è un problema?
"Già si sa che il 60% degli autori in qualche modo si serve dell’AI nella produzione di lavoro intellettuale (quasi mai completamente, ma se ne servono anche solo per velocizzare la fase preparatoria), dai traduttori ai saggisti passando per i romanzieri stessi" spiega Murrey.
E probabilmente non siamo assolutamente in grado di rendercene conto.
A questo proposito, in un sondaggio pubblicato dal New Yorker, ai lettori venivano presentati brevi testi narrativi e saggistici, mescolando brani scritti da autori umani e testi generati da intelligenza artificiale chiedendo di indovinare l’origine del testo. I risultati hanno mostrato che la capacità di riconoscimento era prossima al caso: molti attribuivano testi umani all'AI e viceversa. L’esperimento ha messo in crisi l’idea che un testo dell’AI “si riconosca subito”, spostando il problema dal piano tecnologico a quello culturale.
Per Eugenia Dubini, direttrice editoriale di NNEditore evidenzia come, nonostante la grandissima abitudine a valutare e metter mano a testi autoriali, possa non essere in grado di riconoscere l’intervento dell’AI, o non del tutto. Lo ha sperimentato leggendo un articolo di Giuseppe Antonelli, in cui alcune intelligenze artificiali imitavano Le città invisibili di Calvino con risultati sorprendentemente convincenti. “Credo di trovarmi però in una posizione in cui posso essere più fiduciosa e meno preoccupata” spiega, “perché mi occupo soprattutto di narrativa letteraria, anche quando lavoro su memoir o non fiction. In un certo senso, la letterarietà mi protegge dall’idea di un’invasione creativa della scrittura”. E continua: “Diverso sarebbe se mi occupassi di narrativa più commerciale o di generi molto codificati: lì posso immaginare una tentazione maggiore. Non dico di farsi scrivere un libro intero, ma almeno di farsi aiutare e poi intervenire in editing. È un’eventualità che mi tocca, e che mi interroga”.
Lo scrittore come “designer del testo” e la nascita di nuove professioni
E infatti c’è chi dice che lo scrittore cambierà mestiere: diventerà un “designer del testo”, un progettista: la macchina può buttare giù il grezzo e poi sta all’autore direzionare, rifinire, definire stile e contenuti. E questo implica imparare a scrivere prompt sempre più precisi.
Stefano Mauri di Messaggerie e del Gruppo Mauri Spagnol ha le idee chiare: “Ritengo che, quando le persone che hanno una reale padronanza della propria arte – autori, illustratori, traduttori – utilizzano l’intelligenza artificiale come strumento, non ci sia nulla di problematico. A condizione però che l’uso resti sotto il loro controllo: almeno per ora, l’intelligenza artificiale è infatti soggetta a errori anche gravi. In particolare nella narrativa, poi, l’editore ha il compito – e l’interesse – di verificare che i testi ricevuti, o quelli prodotti dagli autori con cui lavora, siano stati realizzati senza l’uso massivo dell’intelligenza artificiale. Più che richiedere, a livello contrattuale, che l’autore si assuma questa responsabilità, però, non è possibile fare. Al momento non esistono strumenti realmente affidabili per stabilire se un testo sia stato scritto da un’intelligenza artificiale o no: in molti casi, infatti, essa è in grado di simulare in modo convincente il linguaggio e le espressioni umane. Per questo motivo, l’editore non può assumersi direttamente questa responsabilità, ma può – e deve – chiedere che l’autore sia pienamente consapevole e responsabile di ciò che scrive”.
Murray vede questo processo di cambiamento delle procedure di creazione con prospettive ancora più ampie: immagina che, in presenza dell’AI, possano venire alla luce nuove professioni e nuove fonti di reddito. La Disney, per esempio, ha fatto un investimento strategico nell’AI guardandola come laboratorio creativo: si tratta di un esperimento di esplorazione narrativa, non di produzione industriale, orientato a capire come l’AI possa essere usata per lo sviluppo di storie senza perdere il controllo dell’autorialità e soprattutto senza rilasciare IP proprietari, cioè mantenendo il copyright.
Simone Marchi, socio fondatore dell’agenzia letteraria MalaTesta Literary Agency, è positivamente rassegnato: “Sono convinto che non sia possibile fermarla. Non siamo riusciti a controllare la rete, figuriamoci una tecnologia di questo tipo. Quindi la vera sfida è conoscerla, capire come usarla virtuosamente – perché può avere applicazioni molto positive – e soprattutto regolamentarla. Detto questo: noi, come agenzia, finché non sarà chiaro il confine tra ciò che è lecito e ciò che non lo è, preferiamo non usarla”. E aggiunge: “Non penso che l’AI ucciderà l’editoria nel senso ingenuo (della serie: non ci saranno più autori, scriverà tutto la macchina). Penso però che ci sia un rischio serio: quello di togliere ulteriore spazio alla lettura, come già hanno fatto le piattaforme. Vedo un futuro in cui molte persone useranno l’AI per intrattenersi: raccontami una fiaba della buonanotte’, ‘inventami una filastrocca’, ‘disegnami un personaggio’, ‘dimmi una storia breve’”.
Una visione possibile
E quindi, in definitiva, come guardare all’AI artificiale che lavora fianco a fianco dell’AI editoriale?
Beppe Cantele dà una risposta condivisa da chi scrive: “Sono un umanista: credo nell’essere umano. La macchina non potrà mai superarci su ciò che è tipicamente nostro: coscienza, discernimento, responsabilità. Su questa speranza baso il mio lavoro futuro”.
“ Sono un umanista: credo nell’essere umano. La macchina non potrà mai superarci su ciò che è tipicamente nostro: coscienza, discernimento, responsabilità Beppe Cantele - Ronzani editore