Политика Издательства Лодзинского университета в отношении инструментов генеративного искусственного интеллекта

Обязательные положения для авторов

  1. Автором научных текстов может быть исключительно человек. Инструменты генеративного искусственного интеллекта (ГИИ), включая чат-боты, такие как ChatGPT, не могут быть признаны авторами/соавторами и не подлежат цитированию в качестве авторов.
  2. Авторы несут полную ответственность за содержание представленного рукописи, включая все фрагменты, созданные с использованием инструментов ГИИ, а также за любые нарушения норм публикационной этики.
  3. Авторы, использующие инструменты ИИ при написании текстов, сборе и анализе данных, обязаны добросовестно и в полной мере раскрыть информацию о том, какое именно средство ГИИ было использовано, каким образом, в каком объеме и какое влияние оно оказало на данную работу.
  4. В публикациях запрещается использование графических и видеоматериалов, созданных или модифицированных с помощью ГИИ, за исключением случаев, когда они являются предметом исследования.
  5. При подаче рукописи авторы обязаны предоставить соответствующее заявление о применении инструментов, поддерживаемых ГИИ, включая чат-боты, большие языковые модели (LLM) или генераторы изображений, с детальным описанием цели, объема и метода их использования.
  6. Подробная информация об использовании инструментов ИИ должна быть указана в аннотации, а также в начальных разделах текста, например, в специально выделенной секции под названием «Декларация об использовании ГИИ в процессе написания работы», чтобы обеспечить возможность воспроизведения исследования и подтверждения достоверности его результатов.
    Требуемая информация:
    a. Время и дата запроса,
    b. Данные об используемом инструменте (наименование, версия, модель),
    c. Цель, объем и способ его применения,
    d. Полные команды (т.е. все использованные промты), примененные для генерации нового текста, трансформации текста или его конвертации в таблицы либо иллюстрации,
    e. Наименование и версия использованного инструмента ИИ.

    Дополнительно, при подаче рукописи на публикацию автор обязан указать информацию об использовании инструментов ИИ в сопроводительном письме.
  1. Авторы должны осознавать ограничения инструментов генеративного искусственного интеллекта, включая чат-боты, такие как ChatGPT, обусловленные предвзятостью, ошибками и пробелами в знаниях. Необходимо тщательно проверять полученные результаты, особенно обращая внимание на следующие аспекты:
    a. Отсутствие объективности контента, обусловленное методом обучения системы.
    b. Недостоверность информации: инструменты генеративного ИИ могут создавать ложные данные, особенно в узкоспециализированных или нишевых темах, а также генерировать тексты, которые звучат достоверно и грамматически правильно, но не соответствуют научным стандартам; возможно неверное толкование фактов и создание несуществующих библиографий.
    c. Искажение картины реальности: некоторые инструменты обучены на данных, актуальных только до определенной даты, что приводит к использованию устаревшей или неполной информации.
    d. Отсутствие контекстного понимания: генеративные ИИ-инструменты не способны к человеческому пониманию текста, особенно в отношении идиоматических выражений, сарказма, юмора или метафорического языка, что может приводить к ошибкам или некорректной интерпретации сгенерированного контента.
    e. Ограниченный объем обучающих данных: для эффективной работы генеративный ИИ требует большого количества качественных обучающих данных. Однако в некоторых областях или языках такие данные могут быть недоступны, что снижает практическую полезность модели.
  2. Авторы также обязаны указать, какие меры они предприняли для снижения риска плагиата, обеспечения достоверности и актуальности представленных научных данных, а также точности всех библиографических описаний и корректного указания авторства цитируемых работ. С особой тщательностью необходимо проверять сгенерированную библиографию и ссылки на источники, чтобы убедиться в их достоверности, корректном оформлении и точном соответствии оригинальным публикациям

 

Обязательные положения для редакторов научных журналов и коллективных монографий

  1. Редакторы в каждом случае оценивают обоснованность использования инструментов генеративного искусственного интеллекта (ГИИ) в представленной работе.
  2. Редакторы проверяют все поступившие материалы с помощью антиплагиатных программ и детекторов ГИИ, учитывая технические ограничения этих инструментов и риск ошибочной классификации источника происхождения контента.
  3. Редакторы обязаны помнить, что чат-боты могут сохранять и публично раскрывать переданные им входные данные, включая текст рукописи, что нарушает конфиденциальность авторского материала.

 

Обязательные положения для рецензентов

  1. Рецензенты не должны использовать инструменты генеративного искусственного интеллекта (ГИИ) для поддержки процесса рецензирования.
  2. Рецензенты в каждом случае оценивают обоснованность использования инструментов ГИИ в рассматриваемой работе.
  3. Рецензенты обязаны помнить, что чат-боты могут сохранять и публично раскрывать переданные им входные данные, включая текст рукописи или рецензионного отчета, что нарушает конфиденциальность авторского материала.

Источники:

Rekomendacje Stowarzyszenia Wydawców Szkół Wyższych [Рекомендации Ассоциации издателей высших учебных заведений]

ZASADY KORZYSTANIA Z SYSTEMÓW SZTUCZNEJ INTELIGENCJI W PROCESIE KSZTAŁCENIA I DYPLOMOWANIA W UŁ  [Правила использования систем искусственного интеллекта в процессе обучения и дипломирования в Лодзинском университете]

Authorship and AI tools. COPE position statement 

COPE forum: How to exclude AI-generated articles