La politica della casa editrice dell’Università di Lodz nei confronti degli strumenti di intelligenza artificiale generativa (GAI) 

Regole applicabili agli autori

  1. Solo gli esseri umani possono essere autori di testi scientifici. Gli strumenti GAI, compresi le chatbot come ChatGPT, non possono essere considerati autori/coautori o essere citati come autori.   
  2. Gli autori si assumono la piena responsabilità del contenuto del manoscritto presentato, compresi tutti gli estratti creati con gli strumenti GAI, e sono pertanto responsabili di qualsiasi violazione dell’etica di pubblicazione.   
  3. Gli autori che utilizzano strumenti di IA nella scrittura, nella raccolta e nell’analisi dei dati sono tenuti a dichiarare in modo onesto e trasparente quale strumento GAI è stato utilizzato, come e in che misura, e quale impatto ha avuto sul lavoro.   
  4. Il materiale grafico e i filmati prodotti o modificati dal GAI non devono essere utilizzati nelle pubblicazioni, a meno che non siano oggetto di ricerca per il lavoro in questione. 
  5. Al momento dell’invio di un manoscritto, gli autori sono tenuti a inviare una dichiarazione appropriata sull’uso di strumenti assistiti da GAI, nella creazione dell’opera, compresi chatbot, modelli linguistici di grandi dimensioni (LLM) o creatori di immagini, insieme a una descrizione dettagliata dello scopo, della portata e delle modalità del loro utilizzo.
  6. Informazioni dettagliate sull’uso degli strumenti di IA devono essere incluse nell’abstract e nelle parti iniziali del testo, ad esempio in una sezione dedicata intitolata “Dichiarazione sull’uso di GAI nel processo di scrittura dell’articolo”, in modo che lo studio possa essere ripetuto e l’affidabilità dei risultati confermata.
    Informazioni richieste 
    • ora e data di utilizzo, 
    • dati sullo strumento (nome, versione, modello), 
    • motivo, l’ambito e le modalità di applicazione, 
    • tutti i comandi (cioè i completi prompt) utilizzati per ottenere nuovo testo, trasformare il testo o convertire il testo in tabelle o illustrazioni,   
    • nome e versione dello strumento IA utilizzato.  
      Inoltre, quando invia un manoscritto per la pubblicazione, l’autore dovrebbe includere nella lettera di presentazione informazioni sull’uso degli strumenti di IA.
  7. Gli autori devono essere consapevoli dei limiti degli strumenti di intelligenza artificiale generativa, compresi i chatbot come ChatGPT, dovuti a pregiudizi, errori e lacune di conoscenza. L’output deve essere verificato ogni volta, e in particolare si deve prestare attenzione alla presenza di:
    a. Mancanza di oggettività dei contenuti, legata al modo in cui il sistema viene addestrato
    b. Mancanza di affidabilità: gli strumenti di IA generativa possono produrre contenuti falsi, soprattutto su argomenti di nicchia e specialistici o contenuti che sembrano plausibili e corretti a livello linguistico ma non scientifico; possono interpretare male i fatti e produrre bibliografie inesistenti
    c. Immagine storta della situazione: alcuni strumenti sono stati addestrati su contenuti antecedenti a una certa data e presentano dati incompleti.
     d. Mancanza di comprensione del contesto: gli strumenti di IA generativa non possono applicare la comprensione umana al testo, soprattutto nel caso di espressioni idiomatiche, sarcasmo, umorismo o linguaggio metaforico. Questo può causare errori/interpretazioni errate dei contenuti generati.
    e. mancanza di dati di addestramento adeguati: gli strumenti di IA generativa richiedono una grande quantità di dati di addestramento di alta qualità per ottenere prestazioni ottimali. Tuttavia, in alcuni domini o lingue, tali dati potrebbero non essere facilmente disponibili, limitando l’utilità del modello. 
  8. Gli autori devono inoltre indicare le misure adottate per ridurre il rischio di plagio, per presentare conoscenze affidabili e aggiornate e per garantire che tutte le descrizioni bibliografiche fornite siano accurate e che la paternità delle opere citate sia correttamente identificata. Occorre prestare particolare attenzione a verificare la bibliografia generata e la citazione delle fonti per assicurarsi che siano tutte affidabili e correttamente etichettate e descritte. 

Regole per i redattori delle riviste e delle monografie di autori vari

  1. I redattori valutano sempre la validità dell’uso degli strumenti GAI nel loro lavoro.    
  2. I redattori verificano ogni invio utilizzando software antiplagio e i cosiddetti rilevatori GAI, tenendo conto dei limiti tecnici di questi strumenti e del rischio di sbagliare la classificazione della fonte del contenuto.
  3. I redattori sono tenuti a tenere presente che le chatbot possono conservare e condividere pubblicamente i dati forniti, compreso il contenuto del manoscritto, violando così la riservatezza del materiale inviato dall’autore.    

Regole applicabili ai revisori

  1. I revisori non devono utilizzare gli strumenti GAI per supportare il processo di revisione.   
  2. I revisori valutano ogni volta la validità dell’uso degli strumenti GAI nel lavoro.   
  3. I revisori devono tenere presente che i chatbot possono conservare e condividere pubblicamente i dati forniti, compreso il contenuto del manoscritto o del rapporto di revisione, violando così la riservatezza del materiale inviato dagli autori. 

Fonti 
Raccomandazioni dell’Associazione degli editori   
PRINCIPI PER L’USO DEI SISTEMI DI INTELLIGENZA ARTIFICIALE NELL’ISTRUZIONE E NELLA LAUREA ALL’UNIVERSITÀ DI ŁÓDŹ
Autorevolezza e strumenti di IA.  posizione del COPE  
Forum COPE: Come escludere gli generati dall’IA