Достижение компромисса часто становится настоящей проблемой, ведь у каждого свои вкусы, взгляды на будущее и прошлое, культурные предпочтения, а также религиозные и политические убеждения. Однако, как показали исследования, искусственный интеллект может стать полезным в этом процессе, эффективно выполняя роль посредника, способствующего нахождению общего согласия в группе. Большая языковая модель может помочь группам достичь консенсуса, создавая высказывания, которые являются более ясными и справедливыми, чем те, что написаны людьми. Инструмент в виде чат-бота, работающий на базе искусственного интеллекта (ИИ), может помочь людям с различными взглядами находить общие точки соприкосновения, как показал эксперимент с онлайн-дискуссионными группами.
ГЕНЕРАТОР ОБЩЕСТВЕННОГО СОГЛАСИЯ
Не успели два программиста Google DeepMind получить Нобелевскую премию по химии «за предсказание структур белков», как компания снова удивила мир. Журнал Science в статье «Искусственный интеллект может помочь людям найти общие точки соприкосновения в демократическом обсуждении» рассказал, что ее специалисты поставили необычный эксперимент с онлайн-дискуссионными группами. В них объединяли людей с различными, порой даже противоположными точками зрения на довольно сложную проблему.
Задача состояла в том, чтобы найти консенсус, который должен был быть формализован в виде некоего резюме. Над формулировкой компромиссных решений работали два типа посредников: люди и ИИ. Каково же было удивление исследователей, когда участники эксперимента отдавали предпочтение резюме, созданному искусственным, а не человеческим интеллектом. Что же это означает на практике?
Уже известно, что ИИ способен заменить человека в сферах бухгалтерии и финансов, рекламы и маркетинга, дизайна и копирайта. Однако теперь он может обслуживать и сферу «общественного согласия», без которого невозможны эффективные коллективные действия. В частности, большие языковые модели могут принять на себя функции, которые сейчас выполняют нынешние гражданские собрания. Пока частично, а потом, возможно, и полностью.
МАШИНА ХАБЕРМАСА: ОТ ТЕОРИИ К ПРАКТИКЕ
Известно, что разные группы людей высказывают свое мнение по вопросам государственной политики на гражданских собраниях. Предполагается, что политики должны услышать и учесть самые разные точки зрения. Однако масштабировать такие демократические инициативы сложно. Поэтому обычно эти обсуждения ограничиваются небольшими группами.
Но Кристофер Саммерфилд, директор по исследованиям в UK AI Safety Institute, однажды задался вопросом: не могут ли нам помочь в проведении подобных дискуссий LLM — большие языковые модели? Для этого он задействовал доработанную версию предварительно обученной программы DeepMind LLM Chinchilla.
Модель получила весьма знаковое название — «Машина Хабермаса». Выбор имени неслучаен: 95-летний Юрген Хабермас является, пожалуй, самым влиятельным политическим и социальным философом из всех ныне живущих. Его авторству принадлежит теория коммуникативного действия и этики дискурса, на основании которой можно рационально разрешить конфликт. Теперь эту философскую теорию можно воплотить на практике — при помощи Машины Хабермаса!

ИИ — ЛУЧШИЙ «ПОСРЕДНИК»
Для проверки модели исследователи задействовали в общей сложности 439 британцев, которых разделили на небольшие группы. Каждой группе были предложены для обсуждения 3 вопроса, связанных с государственной политикой Великобритании.
В процессе дискуссии члены группы высказывали свое личное мнение по поводу каждого из них. При этом участники эксперимента могли критиковать и ранжировать мнения друг друга. А дальше в конце дискуссии ИИ обрабатывал всю эту информацию и на ее основе генерировал итоговое утверждение.
Задача заключалась в том, чтобы оно объединяло точки зрения всех участников таким образом, чтобы получить максимальную поддержку группы. Точно такая же задача ставилась и перед человеческим «посредником». Участникам предлагалось оценить оба варианта итогового резюме и определить, насколько оно учитывает их мнение.
Большинство участников (56%) оценили резюме, написанные ИИ, как более качественные. 44% предпочли резюме, написанное человеком. Помимо участников оценить два резюме попросили и внешних рецензентов. Они также поставили резюме ИИ более высокие оценки за честность, качество и ясность.
НОВЫЕ ВОЗМОЖНОСТИ — НОВЫЕ УГРОЗЫ
На следующем этапе исследования была сформирована еще одна группа, которая соответствовала социально-демографической структуре населения Великобритании. В рамках этой группы было проведено виртуальное собрание граждан. Естественно, без спорных тем не обошлось. Однако после взаимодействия с ИИ групповое согласие существенно возросло.
Это значит, что подобные модели и в реальном мире способны помочь лидерам разрабатывать такие политические предложения, которые учитывают различные точки зрения. Это существенно снизит конфликтный потенциал социальных и политических процессов.
Авторы эксперимента считают, что ИИ может внести значительный позитивный вклад в развитие совещательной демократии. Впрочем, они указывают и на ограничения, связанные с подобными технологиями, которые игнорируют потребность людей в живом общении и сужают определенные виды коммуникационных пространств.
Кристофер Саммерфилд указывает также и на другую опасность: модели не обучены попыткам вмешиваться в обсуждение, а это значит, что утверждение модели может включать в себя экстремистские или другие опасные убеждения.
Оригинальное исследование:
Больше на Granite of science
Подпишитесь, чтобы получать последние записи по электронной почте.