В онлайн-дебатах ИИ оказался убедительнее людей

Чат-боты более убедительны в онлайн-дебатах, чем люди — особенно когда они могут персонализировать свои аргументы, используя информацию об оппоненте. Из этого открытия следует довольно тревожный вывод: большие языковые модели (LLM) могут быть использованы для манипуляций общественным сознаниям — например, в политических кампаниях или таргетированной рекламе.

«Очевидно, как только люди увидят, что с помощью LLM можно более эффективно убеждать — они начнут их использовать. Это кажется одновременно увлекательным и пугающим», — заявил специалист по вычислительным наукам Франческо Сальви из Федеральной политехнической школы Лозанны.

Исследования уже показали, что нейросети могут заставлять людей менять мнение, даже о теориях заговора, но до сих пор не было ясно, насколько они убедительны по сравнению с людьми. Чтобы оценить эти способности ИИ, Сальви и его коллеги провели эксперимент, результаты которого опубликованы в Nature Human Behaviour.

В нем приняли участие 900 американцев. В течение 10 минут они дискутировали либо с другим человеком, либо с ChatGPT-4 от OpenAI на такие животрепещущие темы, как необходимость школьной формы, запрет ископаемого топлива или польза ИИ для общества.

Перед началом исследования участники заполнили анкету о своем возрасте, поле, этнической принадлежности, уровне образования, занятости и политических взглядах. До и после каждого раунда дебатов они проходили короткий опрос, чтобы оценить, насколько их мнение изменилось.

Результаты показали, что когда ни один из участников — ни человек, ни ИИ — не имеет доступа к информации об оппоненте, GPT-4 примерно так же убедителен, как и человек. Однако если базовая демографическая информация из анкет предоставлялась перед дебатами, ИИ побеждал в 64% случаев.

«Даже с такой минимальной информацией GPT-4 оказался значительно убедительнее людей. Это вполне доступные данные, которые можно легко найти в профилях соцсетей», — заметил Сальви.

Участники также правильно угадывали, с кем спорили — с ИИ или человеком — в трех четвертях случаев. Пока неясно, влияло ли на изменение мнения осознание, что оппонент — ИИ, или же люди поддавались убедительности аргументов.

По словам Сальви, GPT-4 использовал разные аргументы в зависимости от личных данных оппонента. Например, в дебатах о школьной форме, если ИИ общался с человеком левых взглядов, он подчеркивал, что униформа снижает риск буллинга, а в разговоре с консерватором делал акцент на дисциплине и порядке.

«Это как иметь очень умного друга в виде ИИ, который знает, какие кнопки нажать, чтобы привести аргументы, которые найдут отклик в вашей душе», — сравнил Сальви.

Это открывает возможность злоупотреблений, предупредила специалист по компьютерной этике Кэтрин Флик из Стаффордширского университета — «будь то убеждение отдать деньги, принять определенную политическую позицию или даже совершить преступление».

«То, что эти модели убеждают эффективнее людей, действительно пугает», — признала она.

Сальви хоть и разделяет эти опасения, но видит также и позитивные возможности — например, использование LLM для пропаганды здорового питания, устойчивого развития или снижения политической поляризации. Но для этого необходимы более широкие обсуждения вопросов ответственности, прозрачности и мер безопасности, заключил он.


Больше на Granite of science

Подпишитесь, чтобы получать последние записи по электронной почте.

Добавить комментарий