Фейки, плагиат и бумажные фабрики: как использование ИИ подрывает доверие к науке

Перевод статьи phys.org «Flood of ‘junk’: How AI is changing scientific publishing»

В научных журналах недавно стали мелькать абсурдные случаи, такие как: инфографика крысы с нелепо большими гениталиями, человеческие ноги с чрезмерным количеством костей, введения, начинающиеся словами: «Конечно, вот возможное введение для вашей темы». Все эти примеры подчеркивают проблему, которая захлестнула академическую издательскую индустрию — волна текстов и изображений, созданных искусственным интеллектом.

Ряд экспертов, отслеживающих проблемы в исследованиях, сообщили AFP, что развитие искусственного интеллекта резко обострило существующие проблемы в многомиллиардном секторе. Все эксперты подчеркнули, что программы искусственного интеллекта, такие как ChatGPT, могут стать полезным инструментом для написания или перевода статей, если их тщательно проверять. Однако в нескольких недавних случаях, которые каким-то образом прошли экспертную оценку, дело обстояло иначе.

Ранее в этом году в социальных сетях широко распространилось изображение крысы с невероятно огромными гениталиями, явно созданное с помощью искусственного интеллекта. Исследование было опубликовано в журнале академического гиганта Frontiers, который впоследствии отозвал его. В прошлом месяце было отозвано еще одно исследование, посвященное графике искусственного интеллекта, на которой были изображены ноги с подозрительным множеством костей и суставов, напоминающие руки.

Хотя эти примеры были изображениями, существует мнение, что именно ChatGPT, чат-бот, запущенный в ноябре 2022 года, оказал наибольшее влияние на то, как исследователи представляют свои результаты.

Исследование, опубликованное Elsevier в марте, стало вирусным благодаря своему введению, которое явно представляло собой подсказку ChatGPT, гласящую: «Конечно, вот возможное введение по вашей теме». По словам некоторых экспертов, подобные постыдные примеры встречаются редко и вряд ли пройдут процедуру рецензирования в самых престижных журналах.

Проблема бумажных фабрик

Обнаружить использование ИИ не так просто. Но одна подсказка заключается в том, что ChatGPT склонен отдавать предпочтение определенным словам. Эндрю Грей, библиотекарь Университетского колледжа Лондона, просмотрел миллионы документов в поисках чрезмерного использования таких слов, как «скрупулезный» (meticulous), «замысловатый» (intricate) или «похвальный» (commendable). Он определил, что в 2023 году не менее 60 000 статей были посвящены использованию ИИ — это более одного процента от годового числа.

 «В 2024 году мы увидим очень значительный рост показателей», — сказал Грей агентству AFP.

Между тем, по данным американской организации Retraction Watch, в прошлом году было отозвано более 13 000 статей, что является рекордом за всю историю.

Соучредитель Retraction Watch Иван Оранский сообщил агентству AFP, что искусственный интеллект позволил недобросовестным игрокам в сфере научных публикаций и академической среды «индустриализировать избыток» «мусорных» статей.

К таким недобросовестным субъектам относятся так называемые бумажные фабрики. Мошенники продают авторство исследователям, выдавая огромные объемы низкокачественных, плагиатных или поддельных статей, говорит Элизабет Бик, голландский исследователь, которая обнаруживает научные манипуляции с изображениями. По словам Бик, предположительно 2% всех исследований публикуются бумажными фабриками, но этот показатель «растет со взрывной силой», поскольку ИИ «открывает шлюзы».

Эта проблема стала особенно очевидной, когда в 2021 году академический издательский гигант Wiley приобрел проблемное издательство Hindawi. Представитель Wiley сообщил агентству AFP, что с тех пор американская фирма отозвала более 11 300 статей, связанных со специальными выпусками на языке хиндави. Компания Wiley представила «сервис обнаружения бумажных фабрик» для обнаружения неправомерного использования ИИ, который также работает на базе ИИ.

Порочный круг

Оранский подчеркнул, что проблема заключается не только в бумажных фабриках, но и в более широкой академической культуре, которая подталкивает исследователей к выбору, который можно описать так — публикация или гибель.

«Издатели получили 30–40-процентную маржу и миллиарды долларов прибыли, создав эти системы, требующие объемов», — сказал он.

По его словам, ненасытный спрос на все большее количество статей усиливает давление на ученых, рейтинг которых определяется по объему их научных работ, что создает «порочный круг». Многие обратились к ChatGPT, чтобы сэкономить время. И это не всегда плохо. Бик отметила, что поскольку почти все статьи публикуются на английском языке, инструменты перевода на основе ИИ могут оказаться бесценными для исследователей (и для нее в том числе), для которых английский не является родным языком.

Однако существуют также опасения, что ошибки и непреднамеренный плагиат со стороны ИИ могут еще больше подорвать доверие общества к науке.

Еще один пример неправомерного использования ИИ произошел на прошлой неделе, когда исследователь обнаружил выкладки своего исследования в статье, которая словно была переписана с помощью ChatGPT и опубликована в академическом журнале. Сэмюэл Пейн, профессор биоинформатики в Университете имени Бригама Янга в США, рассказал AFP, что в марте его попросили провести экспертную оценку исследования. Поняв, что это «стопроцентный плагиат» его собственного исследования, но текст, по-видимому, был перефразирован программой искусственного интеллекта, он отклонил статью. Пейн сказал, что он был «шокирован», обнаружив, что плагиатная работа была просто опубликована в другом месте, в новом журнале издательства Wiley под названием Proteomics. Но работа так и не была отозвана.

_____________________________________________________

✒️Подписывайтесь на наш Telegram-канал и смотрите видео
на канале в YouTube

📩Прислать статью [email protected]

📩У нас есть страница на Facebook и Вконтакте
📩Журнал «Гранит Науки» в Тeletype
✒️Читайте нас на Яндекс Дзен


Больше на Granite of science

Subscribe to get the latest posts sent to your email.

Добавить комментарий