La politica della casa editrice dell’Università di Lodz nei confronti degli strumenti di intelligenza artificiale generativa (GAI)
Regole applicabili agli autori
- Solo gli esseri umani possono essere autori di testi scientifici. Gli strumenti GAI, compresi le chatbot come ChatGPT, non possono essere considerati autori/coautori o essere citati come autori.
- Gli autori si assumono la piena responsabilità del contenuto del manoscritto presentato, compresi tutti gli estratti creati con gli strumenti GAI, e sono pertanto responsabili di qualsiasi violazione dell’etica di pubblicazione.
- Gli autori che utilizzano strumenti di IA nella scrittura, nella raccolta e nell’analisi dei dati sono tenuti a dichiarare in modo onesto e trasparente quale strumento GAI è stato utilizzato, come e in che misura, e quale impatto ha avuto sul lavoro.
- Il materiale grafico e i filmati prodotti o modificati dal GAI non devono essere utilizzati nelle pubblicazioni, a meno che non siano oggetto di ricerca per il lavoro in questione.
- Al momento dell’invio di un manoscritto, gli autori sono tenuti a inviare una dichiarazione appropriata sull’uso di strumenti assistiti da GAI, nella creazione dell’opera, compresi chatbot, modelli linguistici di grandi dimensioni (LLM) o creatori di immagini, insieme a una descrizione dettagliata dello scopo, della portata e delle modalità del loro utilizzo.
- Informazioni dettagliate sull’uso degli strumenti di IA devono essere incluse nell’abstract e nelle parti iniziali del testo, ad esempio in una sezione dedicata intitolata “Dichiarazione sull’uso di GAI nel processo di scrittura dell’articolo”, in modo che lo studio possa essere ripetuto e l’affidabilità dei risultati confermata.
Informazioni richieste - ora e data di utilizzo,
- dati sullo strumento (nome, versione, modello),
- motivo, l’ambito e le modalità di applicazione,
- tutti i comandi (cioè i completi prompt) utilizzati per ottenere nuovo testo, trasformare il testo o convertire il testo in tabelle o illustrazioni,
- nome e versione dello strumento IA utilizzato.
Inoltre, quando invia un manoscritto per la pubblicazione, l’autore dovrebbe includere nella lettera di presentazione informazioni sull’uso degli strumenti di IA. - Gli autori devono essere consapevoli dei limiti degli strumenti di intelligenza artificiale generativa, compresi i chatbot come ChatGPT, dovuti a pregiudizi, errori e lacune di conoscenza. L’output deve essere verificato ogni volta, e in particolare si deve prestare attenzione alla presenza di:
a. Mancanza di oggettività dei contenuti, legata al modo in cui il sistema viene addestrato
b. Mancanza di affidabilità: gli strumenti di IA generativa possono produrre contenuti falsi, soprattutto su argomenti di nicchia e specialistici o contenuti che sembrano plausibili e corretti a livello linguistico ma non scientifico; possono interpretare male i fatti e produrre bibliografie inesistenti
c. Immagine storta della situazione: alcuni strumenti sono stati addestrati su contenuti antecedenti a una certa data e presentano dati incompleti.
d. Mancanza di comprensione del contesto: gli strumenti di IA generativa non possono applicare la comprensione umana al testo, soprattutto nel caso di espressioni idiomatiche, sarcasmo, umorismo o linguaggio metaforico. Questo può causare errori/interpretazioni errate dei contenuti generati.
e. mancanza di dati di addestramento adeguati: gli strumenti di IA generativa richiedono una grande quantità di dati di addestramento di alta qualità per ottenere prestazioni ottimali. Tuttavia, in alcuni domini o lingue, tali dati potrebbero non essere facilmente disponibili, limitando l’utilità del modello. - Gli autori devono inoltre indicare le misure adottate per ridurre il rischio di plagio, per presentare conoscenze affidabili e aggiornate e per garantire che tutte le descrizioni bibliografiche fornite siano accurate e che la paternità delle opere citate sia correttamente identificata. Occorre prestare particolare attenzione a verificare la bibliografia generata e la citazione delle fonti per assicurarsi che siano tutte affidabili e correttamente etichettate e descritte.
Regole per i redattori delle riviste e delle monografie di autori vari
- I redattori valutano sempre la validità dell’uso degli strumenti GAI nel loro lavoro.
- I redattori verificano ogni invio utilizzando software antiplagio e i cosiddetti rilevatori GAI, tenendo conto dei limiti tecnici di questi strumenti e del rischio di sbagliare la classificazione della fonte del contenuto.
- I redattori sono tenuti a tenere presente che le chatbot possono conservare e condividere pubblicamente i dati forniti, compreso il contenuto del manoscritto, violando così la riservatezza del materiale inviato dall’autore.
Regole applicabili ai revisori
- I revisori non devono utilizzare gli strumenti GAI per supportare il processo di revisione.
- I revisori valutano ogni volta la validità dell’uso degli strumenti GAI nel lavoro.
- I revisori devono tenere presente che i chatbot possono conservare e condividere pubblicamente i dati forniti, compreso il contenuto del manoscritto o del rapporto di revisione, violando così la riservatezza del materiale inviato dagli autori.
Fonti
Raccomandazioni dell’Associazione degli editori
PRINCIPI PER L’USO DEI SISTEMI DI INTELLIGENZA ARTIFICIALE NELL’ISTRUZIONE E NELLA LAUREA ALL’UNIVERSITÀ DI ŁÓDŹ
Autorevolezza e strumenti di IA. posizione del COPE
Forum COPE: Come escludere gli generati dall’IA

