Skip to main content
ChatGPT Articoli

Su ChatGPT, gli editori scientifici perdono di vista il punto

Authorship, plagio nella ricerca, le scelte di alcuni gruppi editoriali come Elsevier... e ChatGPT

Avi Staiman

Ceo of Academic Language Experts

By Giugno 2023Nessun commento
fotografia del reportage di Claudio Colotti durante l'alluvione in Emilia Romagna
Fotografia di Claudio Colotti

La rivoluzione solo se conviene a noi

La comunicazione scientifica è stata messa sottosopra dalla rivoluzione digitale: ma anche i rivoluzionari più entusiasti diventano conservatori se temono di perdere i propri privilegi o le posizioni dominanti: sarà mica questo il caso degli editori scientifici? Prontissimi, per convenienza, ad adottare l’innovazione, stanno reagendo in modo super prudente di fronte alla novità dell’intelligenza artificiale generativa (che peraltro non si può dire sia esattamente una novità). ChatGPT è una straordinaria occasione per riflettere sui valori essenziali della comunicazione – e quindi dell’editoria – e sul significato dell’autorialità, sul senso dell’originalità di pensiero in una rete inestricabile di connessioni, sulle opportunità che strumenti di questo tipo possono promettere – se non garantire – in termini di riduzione delle disuguaglianze nell’accesso e nella produzione di contenuti.

 

Una delle cose più importanti nel lavoro di un ricercatore è che il proprio studio sia scritto in modo chiaro e coinvolgente, così da trasformare i risultati della ricerca in una narrazione interessante e i numeri in dati scientifici di grande impatto. Se il disegno e la conduzione di uno studio rigoroso sono la spina dorsale di una ricerca di valore, anche la forma e lo stile della comunicazione giocano un ruolo fondamentale nell’accettazione, disseminazione e implementazione dei risultati degli studi nel contesto accademico e non solo. Gli autori eal (english as an additional language) devono percorrere una strada decisamente in salita nel presentare i nuovi risultati in inglese, la loro seconda (e talvolta terza o quarta) lingua. Gli strumenti di scrittura e le agenzie di supporto agli autori aiutano i ricercatori a migliorare la chiarezza nell’esporre le proprie argomentazioni, a guadagnare tempo da dedicare maggiormente alla ricerca, a velocizzare la pubblicazione e ad acquisire fiducia nel proprio lavoro. Innanzitutto, questi strumenti offrono ai ricercatori eal (che sono la stragrande maggioranza nel mondo) delle condizioni di partenza più eque in cui la ricerca viene valutata in base alla qualità del contenuto e non al livello di conoscenza della lingua inglese degli autori.

ChatGPT come autore

Dal momento in cui ChatGPT è stato lanciato a novembre del 2022, i ricercatori hanno iniziato a sperimentarne le potenzialità come supporto alla preparazione di revisioni sistematiche, per completare ricerche bibliografiche, per riassumere articoli e discutere i risultati sperimentali. Mi ha sorpreso vedere che, nell’affrontare la questione dell’uso di ChatGPT, alcuni dei grandi editori ne abbiano ignorato le implicazioni di vasta portata e le numerose possibilità, concentrandosi invece su una questione decisamente minore, vale a dire se ChatGPT possa essere considerato un autore.

Comunque la loro risposta sembra più che altro una reazione impulsiva a sporadici tentativi di elencare ChatGPT tra gli autori di un articolo, tentativo che molti editori hanno voluto arginare prima che questa tendenza prendesse piede. Almeno in alcuni dei casi, questi articoli scientifici firmati da ChatGPT sembravano essere esperimenti teorici finalizzati a riflettere sui limiti della paternità e a dire qualcosa a tal riguardo. Science, Elsevier e Nature hanno rapidamente reagito, aggiornando le rispettive politiche editoriali e di pubblicazione, affermando incondizionatamente che ChatGPT non può comparire come autore in un articolo accademico. Nature si è spinta fino a descrivere ChatGPT come un “pericolo per la scienza trasparente”. Il fatto che a ChatGPT non venga concessa la paternità sembra abbastanza banale e non ha generato molte reazioni. Non sono molti i ricercatori che chiedono a gran voce di condividere l’authorship con i colleghi, per non parlare di un chatbot.

Tuttavia, gli editori sembravano rispondere a una domanda che pochi si ponevano, tralasciando invece altri scenari (più importanti?) dell’utilizzo di questo strumento. I ricercatori possono o devono usare ChatGPT o altri strumenti di intelligenza artificiale nello sviluppo e nella stesura dei propri articoli? E per condurre una revisione degli studi? Per analizzare i risultati? O forse per scrivere il riassunto di un articolo già pubblicato? Queste sono le domande importanti che gli autori si pongono, laddove gli editori sembrano lasciare (troppo?) spazio alla libera interpretazione.

Tracciare dei confini

Le case editrici che hanno affrontato questa zona grigia non hanno una posizione univoca per quanto riguarda la questione se ChatGPT possa essere utilizzato come supporto al processo di ricerca e circa il livello di dettaglio e chiarezza delle loro politiche. Dopo aver dichiarato che i non umani non possono essere considerati autori, JAMA lascia un certo margine di manovra (anche se con qualche esitazione) per l’uso di ChatGPT come assistente per la scrittura. Le linee guida chiedono agli autori di specificare nel dettaglio la natura del coinvolgimento.

Gli autori devono segnalare l’uso di intelligenza artificiale, di modelli linguistici, machine learning o tecnologie analoghe per la produzione dei contenuti o come assistenti nella stesura o nell’editing dei manoscritti nella sezione Ringraziamenti o nella sezione Metodi se ciò fa parte del progetto o dei metodi di ricerca formali. Questo dovrebbe includere una descrizione del contenuto creato o modificato e il nome del modello linguistico o dello strumento, la versione e numeri identificativi, e il produttore.

Science adotta un approccio molto più deciso, vietando sostanzialmente l’utilizzo di testo generato da ChatGPT:

… stiamo aggiornando la nostra licenza e le nostre politiche editoriali per specificare che il testo generato da ChatGPT (o da qualsiasi altro strumento di intelligenza artificiale) non può essere usato nell’opera, né le figure, le immagini o i grafici possono essere prodotti da tali strumenti. Inoltre, un programma di intelligenza artificiale non può figurare come autore. Una violazione di queste politiche costituirà una cattiva condotta scientifica non diversa da quella di immagini alterate o di plagio di lavori esistenti.

Un’eccezione degna di nota è rappresentata dall’American chemical society (Acs), che sembra adottare un approccio proattivo alla definizione di linee guida sull’uso corretto delle tecnologie di intelligenza artificiale. In una viewpoint uscita su ACS Energy si ipotizza che ChatGPT possa impiegare un “approccio di guida assistita che promette di liberare il tempo dei ricercatori dall’onere della scrittura accademica e di farli tornare alla scienza”. Un editoriale di ACS Nano delinea in dettaglio le migliori pratiche e le politiche per l’utilizzo di strumenti di intelligenza artificiale.

L’Acs si rende conto che ChatGPT può essere un buon strumento per l’ideazione e la scrittura, ma non una fonte affidabile di informazioni. Tuttavia, almeno per ora, Acs sembra essere un’eccezione nel panorama editoriale. Vale anche la pena di notare che il Committee on publication ethics (Cope) ha rilasciato un position statement in cui chiarisce che gli autori possono utilizzare questi strumenti a condizione che il supporto sia adeguatamente dichiarato e le funzioni specificate. Fare queste distinzioni e codificarle nelle politiche editoriali sembra essere un passo fondamentale per il futuro.


Cronistoria
Il contributo di Avi Staiman fa riferimento alle posizioni di alcune tra le più conosciute riviste scientifiche internazionali. Il confronto è stato innescato a partire da un articolo uscito su una rivista di nursing in cui ChatGPT figurava tra gli autori. Abbiamo voluto ricostruire una sorta di timeline di questo dibattito che è sicuramente destinato a proseguire.

 

Una reazione precauzionale?

Leggendo tra le righe alcune di queste affermazioni si può percepire il timore di un’ondata di articoli prodotti da paper mill [1]. I controllori antiplagio tradizionali non sono ancora in grado di rilevare testi prodotti dall’intelligenza artificiale e anche gli strumenti che effettuano un’analisi più approfondita possono essere ingannati da strumenti che a loro volta riformulano testi generati dall’intelligenza artificiale. Nessuna casa editrice vuole essere la prossima Hindawi o IOP e dover affrontare ritrattazioni massicce di articoli [2].

D’altra parte, gli editori farebbero bene – per due motivi – a lasciare aperta la porta di servizio (la possibilità) all’utilizzo di strumenti di intelligenza artificiale da parte degli autori a supporto della loro ricerca. In primo luogo, perché monitorare passo passo l’impiego di questi strumenti non solo sarebbe un esercizio inutile ma in poco tempo potrebbe diventare un incubo. In secondo luogo, sembra che sia già partita la corsa allo sviluppo di software in grado di riconoscere contenuti generati dall’intelligenza artificiale. È probabile che gli editori spendano cifre spropositate per comprare strumenti del genere, per poi essere messi all’angolo da modelli sempre più sofisticati capaci di aggirare i rilevatori. Se l’obiettivo fosse questo, dovremmo riflettere bene prima di imbarcarci in un percorso del genere.

Le apparenze possono ingannare

Se andiamo più a fondo, troviamo diversi esempi di editori che stanno puntando a progetti collaborativi uomo-intelligenza artificiale che vengono visti come il futuro dell’editoria. Springer Nature ha recentemente annunciato la sua prima ricerca integrata con l’intelligenza artificiale e sembra che ne seguiranno molte altre. Cureus (una delle riviste di Springer Nature) sta per indire un concorso per invitare gli autori a presentare case report assistiti da ChatGPT e JMIR Publications ha recentemente pubblicato una call per raccogliere per un numero speciale articoli preparati col supporto di ChatGPT [3]. Per fare scelte importanti su come rispondere correttamente all’introduzione di ChatGPT, dobbiamo rivedere una serie di questioni fondamentali sul modo in cui intendiamo alcuni temi della scienza, tra cui la definizione di authorship, ciò che consideriamo plagio e la natura della scrittura scientifica. Solo se riusciremo a raggiungere un consenso sui valori che guidano l’editoria scientifica, avremo la possibilità di sviluppare una policy significativa e sofisticata.

Che cos’è l’authorship nella ricerca?

Per rispondere a questa domanda, dobbiamo andare al cuore del modo in cui concepiamo la authorship nel contesto della ricerca. Per rendersi conto quanto sia intricata la questione della paternità intellettuale è sufficiente pensare al tema ancora controverso di quali nomi includere e in quale ordine nelle pubblicazioni di lavori con più autori [4].

Authorship come responsabilità

La direttrice di Nature, Magdalena Skipper, sostiene che “l’attribuzione della paternità comporta la responsabilità del lavoro, che non può essere applicata efficacemente ai large language model”. Se i ricercatori arrivano con i loro risultati, le loro idee e il loro punto di vista e vengono aiutati ad assemblare il tutto, questo fa sì che la loro ricerca non sia più originale o che non ne siano più responsabili? L’authorship significa che gli autori elencati debbano scrivere ogni parola, formattare ogni riferimento e inserire ogni virgola o che si assumano la responsabilità del prodotto finale?

Gli autori potrebbero potenzialmente assumersi la responsabilità di rivedere e controllare le idee prodotte dai large language model? Anche se gpt genera parte dei dati o della narrativa di uno studio, i “prompt engineers” umani si assumerebbero comunque l’onere di fornire il prompt stesso e garantire la veridicità delle informazioni attraverso la propria revisione critica e le proprie revisioni.

Le raccomandazioni della World association of medical editors (Wame) sostengono che i chatbot non possono soddisfare i criteri di authorship dell’International committee of medical journal editors, in particolare il “final final approval of the version to be published” e l’“agreement to be accountable for all aspects of the work in ensuring that questions related to the accuracy or integrity of any part of the work are appropriately investigated and resolved”. Tuttavia, questa definizione richiede un’onesta riflessione e un’autovalutazione. Dopo tutto, sono molti gli autori che contribuiscono ad articoli (come gli studenti) senza avere l’ultima parola sull’approvazione finale della versione da pubblicare e non sono responsabili di “all aspects of the work”.

L’authorship come contributo sostanziale

Oltre alla responsabilità per il lavoro prodotto, le linee guida Cope richiedono un “contributo sostanziale al lavoro”. Nella tassonomia Credit del contributo dell’autore, ci sono 14 modi diversi per dare un contributo significativo che meriti la paternità di un articolo e direi che ChatGPT potrebbe dare un contributo significativo in almeno dieci di essi. Gli autori potrebbero potenzialmente contribuire in modo significativo ed essere ritenuti responsabili, pur affidandosi ampiamente a ChatGPT sia come fonte iniziale di informazioni sia come assistente personale dell’autore?

Cos’è il plagio nella ricerca?

Uno dei princìpi fondamentali della paternità scientifica è che idee, parole e concetti devono essere originali o correttamente attribuiti. La parola “plagio” affonda le sue radici nel latino plagiarius, “rapitore”. Se i testi non sono originali, costituiscono un plagio, un peccato capitale nell’editoria accademica. Pertanto, è opportuno chiedersi: la generazione e l’utilizzo di testi assistiti dall’intelligenza artificiale costituiscono un plagio?

La risposta a questa domanda dipende da come funziona esattamente ChatGPT e da come viene definito il plagio. Per quanto riguarda il primo aspetto, sembra che il rischio di copiare inconsapevolmente grandi pezzi di testo direttamente da altre fonti sia remoto, anche se piccoli frammenti di frasi possono essere trovati altrove.

Ancora più importante è la definizione di plagio. Se intendiamo per plagio l’appropriarsi di materiali che gli autori non hanno scritto di proprio pugno, allora la scrittura assistita dall’intelligenza artificiale dovrebbe essere considerata un plagio. Tuttavia, se per plagio si intende prendere idee da altri e spacciarle per proprie, allora ChatGPT potrebbe non essere considerato un plagio, in quanto questi testi sono nuovi e non “rubati” a qualcun altro. La scrittura accademica include intrinsecamente la costruzione di un’impalcatura basata sul lavoro precedente, attorno alla quale il ricercatore può aggiungere qualcosa di nuovo.

Cos’è la scrittura nella ricerca?

Se vogliamo regolamentare pesantemente l’uso delle gpt, allora forse dovremmo dare un giro di vite all’uso dei ghostwriter scientifici che svolgono gran parte del lavoro di scrittura (soprattutto nell’industria) e raramente ricevono un riconoscimento, dimenticando la paternità del loro contributo. Dovremmo anche valutare se vogliamo chiedere agli autori quali altre forme di assistenza alla scrittura basate sull’intelligenza artificiale utilizzano. Strumenti come Grammarly, Writeful e persino il controllo grammaticale di Microsoft sono molto utilizzati dagli autori. Perché l’autore dovrebbe dichiarare se ha usato per scopi linguistici ChatGPT e non altri strumenti? I ricercatori di molti settori utilizzano software e strumenti per raccogliere, organizzare e analizzare i dati senza che nessuno batta ciglio. Perché dare una risposta diversa e così viscerale a una questione che riguarda la scrittura?

In alternativa, pensiamo a cosa succede se gli autori traggono idee da ChatGPT per una nuova ricerca o fanno analizzare i loro risultati da ChatGPT, ma scrivono l’articolo con le proprie parole: questo potrebbe essere accettato perché l’autore sta tecnicamente scrivendo?

Credo che i ricercatori che si rispettino non utilizzeranno ChatGPT come fonte primaria, così come non utilizzeranno Wikipedia in quel modo. Tuttavia, possono usarlo in una miriade di altri modi, tra cui il brainstorming, la costruzione di frasi, l’elaborazione di dati e altro ancora. L’onere della responsabilità per la veridicità delle informazioni ricade ancora sul ricercatore, ma questo non significa che dobbiamo affrettarci a vietare la consultazione di Wikipedia perché alcuni potrebbero usarla come scorciatoia. L’adozione di una politica rigida, come quella adottata da Science, sembra ignorare la grande maggioranza dei ricercatori che agisce in buona fede e che vuole semplicemente utilizzare questi strumenti per portare avanti il proprio lavoro.

Il costo della nostra paura: far perdere agli autori non di madre lingua inglese l’opportunità di una concorrenza alla pari

Gli editori che vietano ChatGPT perdono un’opportunità unica di far concorrere alla pari gli autori eal. ChatGPT può essere utilizzato in molti modi per contribuire a migliorare la scrittura scientifica in modo significativo e limitarne l’uso lascia questi autori in una posizione di notevole svantaggio. D’altra parte, gli editori che colgono l’opportunità di sfruttare questi strumenti per supportare gruppi di lavoro internazionali possono avviare collaborazioni con ricercatori di comunità distanti o poco coinvolti a causa del loro svantaggio linguistico, aumentando la diversità nella rappresentazione della comunità della ricerca.

Ma non solo, un approccio rigido potrebbe anche rivelarsi un boomerang e ridurre la trasparenza da parte degli autori. Ecco solo alcune delle considerazioni che vale la pena fare:

  1. Un recente sondaggio di Nature ha rilevato che l’80 per cento degli autori ha già “giocato” con ChatGPT. Molti di questi autori non sapranno quale sia la politica di un determinato editore e potrebbero inconsapevolmente “essere protagonisti di una cattiva condotta scientifica non diversa dall’alterazione di immagini o dal plagio di opere esistenti”. Vogliamo davvero criminalizzare i ricercatori che non leggono i termini e le istruzioni per gli autori riportate in caratteri minuscoli?
  2. ChatGPT è già stato integrato in Bing Chat e presto lo sarà anche in Microsoft Word. Vietare questo strumento potrebbe voler dire, in poco tempo, vietare l’uso dei programmi di ricerca e di videoscrittura. È inoltre molto difficile definire con esattezza l’uso di ChatGPT in un determinato studio, come richiesto da alcuni editori, così come è quasi impossibile per gli autori descrivere in dettaglio l’uso di Google nell’ambito della loro ricerca. La linea guida di Wame di “declare the specific query function used with the chatbot” sembra richiedere un onere di documentazione non realistico.
  3. I ricercatori di molti settori utilizzano già una miriade di strumenti di intelligenza artificiale come Elicit, Semantic Scholar e Scite. Dobbiamo tornare indietro e ritirare quei lavori perché hanno usato strumenti di intelligenza artificiale senza una corretta attribuzione?

Conclusioni: come vogliamo che davvero si comportino i nostri ricercatori

La proliferazione di potenti strumenti di intelligenza artificiale ci spinge a porci domande fondamentali su come percepiamo il ruolo dei ricercatori in generale e il ruolo specifico che la scrittura svolge nel loro lavoro. In altre parole, fino a che punto dovrebbe interessarci che gli autori scrivano ogni parola della propria ricerca?

Sono dell’idea che, almeno nel contesto delle discipline stem (scienza, tecnologia, ingegneria e matematica), il processo di scrittura è un mezzo per raggiungere il fine di trasmettere risultati importanti in modo chiaro e coerente. Se possiamo farlo in modo più rapido ed economico, allora forse dovremmo soffermarci a considerare i potenziali benefici. Avremmo bloccato la ricerca covid, che ha salvato diverse vite umane, perché il ricercatore aveva chiesto aiuto a uno strumento di intelligenza artificiale?

In questo contesto potrebbe esserci spazio per una distinzione importante tra le discipline umanistiche e sociali e quelle scientifiche stem. Posso vedere una giustificazione per politiche più severe nei casi in cui la scrittura è una parte essenziale della ricerca o negli studi etnografici e qualitativi in cui il ruolo dell’autore influisce sulla natura dello studio. È necessario riflettere ulteriormente sul modo in cui legiferiamo sull’uso degli strumenti di intelligenza artificiale e su un livello più granulare.

Come premessa di base, suggerisco che gli editori incoraggino i ricercatori a utilizzare tutti gli strumenti a loro disposizione per rendere il loro lavoro il più accessibile e d’impatto, continuando a educarli e formarli su come trovare, valutare e verificare le informazioni. Allo stesso tempo, gli editori devono accelerare la riforma della peer review, per essere pronti a gestire i confini ancora più torbidi tra novità e cose note – e tra fatti e finzione.

 

Questo articolo è stato pubblicato su Scholarly Kitchen il 31 marzo 2023 ed è stato tradotto e pubblicato su Forward grazie a un accordo con l’autore, che ringraziamo per la sua disponibilità.

 

Note bibliografiche
[1] Per inquadrare l’argomento dei paper mill (agenzie che fabbricano a pagamento articoli da proporre a riviste scientifiche): Caminiti C, De Fiore L. Gli articoli scientifici fabbricati: servono soluzioni di sistema. Recenti Prog Med 2023;114:148-53.
[2] La casa editrice Hindawi – acquisita nel 2022 da Wiley – ha identificato circa 1200 articoli falsi pubblicati negli anni scorsi su proprie riviste e ha avviato un piano per la progressiva retraction di questi lavori. IOP è la casa editrice dell’Institute of physics e ha anch’essa deciso di ritirare 494 articoli che un comitato indipendente ha giudicato prodotti in modo fraudolento da agenzie. Per approfondire: http://retractionwatch.com/
[3] JMIR Publications è un Gruppo editoriale nato a partire dal Journal of medical internet research, rivista con impact factor tra 7 e 8.
[4] Per farsi un’idea: De Fiore L. Chi è l’autore di un articolo scientifico? Recenti Prog Med 2023;114:773-8.