Искусственный интеллект готовится стать автором и рецензентом научных статей

Авторы статьи в журнале The Lancet Digital Health обсуждают, к чему может привести участие генеративного искусственного интеллекта в написании научных статей. Они задали два вопроса на эту тему популярному чат-боту ChatGPT и опубликовали ответы в приложении к своей статье.

Credit:
123rf.com

Вопрос о влиянии ИИ на научные коммуникации обсуждается давно. Еще в 2021 году Комитет по публикационной этике разработал рекомендации по участию ИИ в принятии решений о публикации. Международная ассоциация научных, технических и медицинских издателей выпустила Белую книгу по этическим вопросам, связанным с ИИ. Однако недавние события активизировали дискуссию. Продукт компании OpenAI из Сан-Франциско — чат-бот с искусственным интеллектом ChatGPT, выпущенный в ноябре 2022 года, — за короткое время приобрел огромную популярность. Он автоматически генерирует ответы на запросы, основываясь на тысячах интернет-источников. ChatGPT уже используют для написания учебных работ и научных статей (система может предоставлять ссылки на свои источники).

Например, Алекс Жаворонков, исполнительный директор Insilico Medicine, гонконгской компании по разработке лекарств с применением искусственного интеллекта, взял ChatGPT в соавторы своей статьи о рапамицине и продлении жизни. Правда, он отметил, что когда пытался заставить чат-бот писать более «технические» статьи, это ему не удалось. «Он очень часто выдает утверждения, которые не обязательно верны, и если вы зададите ему несколько раз один и тот же вопрос, он даст разные ответы, — говорит Жаворонков. — Поэтому я определенно буду беспокоиться о неподобающем использовании системы в академических кругах, так как теперь люди, не разбирающиеся в предмете, смогут попытаться написать научные статьи».

Группа исследователей с кафедры судебной психиатрии Бернского университета призывают журналы семейства Lancet инициировать обмен мнениями о последствиях появления контента, созданного ИИ, в научных публикациях, с целью создания детального руководства. Они попросили ChatGPT написать комментарий для The Lancet Digital Health об искусственном интеллекте и этике медицинских публикаций.

«Функционал ChatGPT подчеркивает растущую необходимость внедрения надежных руководств для авторов, использующих ИИ в научных публикациях, — пишут авторы. — Этические соображения касаются авторского права, атрибуции, плагиата и авторства. Эти опасения особенно актуальны, потому что в настоящее время ни читатель-человек, ни антиплагиаторское ПО не могут определить, создан ли текст ИИ». Соответствует ли генеративный ИИ критериям авторства Международного комитета редакторов медицинских журналов, в частности, способен ли чат-бот нести ответственность за содержание работы? Представители издательского дома Elsevier, которые издают семейство журналов Lancet, заявили, что ИИ не может быть указан в качестве автора и что его использование должно быть должным образом обозначено. Того же мнения придерживаются главные редакторы Nature и Science.

По мнению авторов статьи в The Lancet Digital Health, пока ChatGPT остается в свободном доступе, простота его использования и доступность могут способствовать научным исследованиям и распространению знаний. Однако руководство OpenAI уже подтвердило, что продукт будет монетизирован. Платный доступ может усилить существующее международное неравенство в научных публикациях и распространении знаний, считают авторы. С другой стороны, ChatGPT может и причинить вред, предлагая правдоподобно звучащие, но неправильные или бессмысленные ответы. Неизбежное появление конкурентов ChatGPT усугубит проблемы.

«Растущая популярность ChatGPT и наш опыт показывают, что время для таких разговоров настало; в конце концов, можете ли вы быть уверены, что то, что вы сейчас читаете, написано авторами-людьми?» — такими словами завершается статья.

А вот что написал сам ChatGPT, когда ему предложили обсудить влияние ИИ на этику публикаций в медицинских журналах.

«Алгоритмы ИИ становятся все более изощренными и способны создавать текст, который трудно отличить от контента, созданного человеком. В связи с этим возникает вопрос, этично ли публиковать статьи, написанные ИИ, особенно если они не обозначены как таковые. Есть аргументы за и против. С одной стороны, контент, созданный ИИ, потенциально может быть более объективным и беспристрастным, чем контент, созданный людьми, поскольку он не подвержен тем же когнитивным предубеждениям или конфликту интересов. С другой стороны, есть опасения по поводу отсутствия ответственности за ошибки в контенте, созданным ИИ, а также возможность использования ИИ для дезинформации или пропаганды.

Еще одна область, вызывающая этическую озабоченность, — использование ИИ в процессе рецензирования. Разрабатываются алгоритмы искусственного интеллекта, которые могут помочь в таких задачах, как определение релевантных статей, предложение рецензентов и даже предоставление отзывов о качестве статей. Хотя эти инструменты могут сделать процесс рецензирования более эффективным и беспристрастным, существуют также опасения по поводу того, что ИИ может воспроизвести или усилить существующие предубеждения в научном сообществе. Одним из возможных решений этой проблемы является обеспечение прозрачности и подотчетности разработки и использования ИИ в процессе рецензирования. Это может предполагать включение подробного описания алгоритмов ИИ и данных, используемых в процессе рецензирования, в публикуемые статьи, а также регулярную оценку и корректировку алгоритмов, чтобы гарантировать, что они не сохраняют каких-либо предубеждений.

Еще одним этическим соображением является потенциальное влияние ИИ на занятость в сфере медицинских публикаций. По мере того, как алгоритмы ИИ становятся все более совершенными, существует риск того, что они могут взять на себя некоторые из задач, которые в настоящее время выполняются редакторами и рецензентами…»

Отвечая на вопрос о том, как должна редакция The Lancet Digital Health реагировать на научные статьи, созданные искусственным интеллектом, ChatGPT выделил четыре аспекта:

«Во-первых, важно убедиться, что качество и надежность статьи соответствуют тем же стандартам, что и у авторов-людей. Это включает в себя оценку достоверности и строгости исследования, а также ясности и согласованности изложения. Во-вторых, редакционной группе следует рассмотреть вопрос подотчетности и прозрачности. Если статья написана с помощью ИИ, важно четко указать это в опубликованной статье и предоставить информацию об алгоритме ИИ и данных, используемых для создания контента. Это поможет убедиться, что читатели знают, что статья не была написана автором-человеком, и могут принять обоснованное решение о достоверности содержания». Кроме того, ChatGPT «посоветовал» редакторам учитывать влияние вклада ИИ на занятость в отрасли и более широкие этические последствия, такие как использование текстов, созданных ИИ, для распространения дезинформации или пропаганды.

Источник

Liebrenz M, et al. Generating scholarly content with ChatGPT: ethical challenges for medical publishing // The Lancet Digital Health 2023; published online Feb 6. DOI:  10.1016/ S2589-7500(23)00019-5

Добавить в избранное