Новый ИИ от DeepMind помогает людям преодолеть разногласия

27.10.2024

DeepMind от Google создала систему искусственного интеллекта, призванную помогать людям в разрешении конфликтов. Она называется Машиной Хабермаса в честь Юргена Хабермаса — немецкого философа, который утверждал, что уважительное общение на равных может привести к соглашению. Этот ИИ-посредник обрабатывает высказывания противоборствующих сторон, ищет в них общее и формулирует итоговые заявления, максимально отражающие консенсус группы. Во время тестирования, в котором участвовали тысячи человек, ИИ достиг более высокого уровня согласия участников (56%) по сравнению с посредниками-людьми (44%). Обсуждались такие темы, как облегчение въезда для беженцев и Брексит. Инструмент пригодится в создании политических речей, которые будут резонировать с наиболее широкой аудиторией.

Юрген Хабермас утверждал, что корень недопонимания между людьми кроется не в сути проблемы, а в самих механизмах дискуссии. По его мнению, любые разногласия можно преодолеть, если создать идеальную коммуникативную среду, где все участники получат равные возможности высказаться и будут руководствоваться общими правилами. Следуя этой идее, Машина Хабермаса выступает в роли посредника, проводя индивидуальные беседы с участниками дискуссии. ИИ собирает и анализирует высказывания каждого участника, а затем формулирует общее заявление, которое отражает наиболее общие точки зрения. Такой подход основан на способности больших языковых моделей быстро обрабатывать и обобщать большие объемы текстовой информации. В отличие от стандартной функции резюмирования, машина Хабермаса анализирует множество точек зрения и стремится выделить общие идеи, способствующие достижению консенсуса.

Технически Машина Хабермаса состоит из двух крупных языковых моделей. Первая основана на слегка модифицированной версии языковой модели Chinchilla, разработанной компанией DeepMind в 2022 году. Ее задача — генерировать несколько вариантов итогового общего заявления на основе индивидуальных высказываний участников дискуссии. Второй компонент системы — это модель оценки, которая анализирует высказывания каждого участника и предсказывает вероятность того, что каждый из них согласится с предложенными генеративной моделью вариантами общего заявления. После этого участникам предлагается групповое заявление, которое, по оценке системы, наиболее вероятно будет принято всеми. Участники анализируют его и предоставляют свои замечания и предложения. Система обрабатывает полученную обратную связь и генерирует новые варианты группового заявления, которые все точнее отражают консенсус группы. Этот процесс повторяется до тех пор, пока не будет достигнуто общее согласие.

Как только ИИ был готов, команда DeepMind начала масштабную кампанию по тестированию, в которой приняли участие более пяти тысяч человек из Великобритании. Основная часть первых участников была привлечена через платформу краудсорсинга. Их разделили на группы по пять человек, каждой из которых было предложено обсудить одну из более чем 5000 тем, связанных с актуальными вопросами британской политики. Для сравнения были сформированы контрольные группы, работавшие с посредниками-людьми.

В ходе эксперимента выяснилось, что искусственный интеллект достиг более высокого уровня согласия участников (56%) по сравнению с посредниками-людьми (44%). Кроме того, участники отмечали более высокое качество текстов, сгенерированных искусственным интеллектом.

Но участники с платформ краудсорсинга не могут представлять все британское население. Для более точных результатов DeepMind собрала группу из 200 человек, отражающую разнообразие британского общества по возрасту, этнической принадлежности, социальному статусу и другим характеристикам. Эта группа была разделена на более мелкие подгруппы по три человека, которые обсуждали девять вопросов. Машина Хабермаса продемонстрировала аналогичную эффективность в этой более репрезентативной выборке. После дискуссии уровень поддержки идеи сокращения тюремного населения вырос с 60% до 75%. Также увеличилась поддержка облегчения въезда для беженцев (с 39% до 51%) и поощрения национальной гордости (с 42% до 57%). Участники сошлись во мнениях по пяти из девяти вопросов, но по некоторым, таким как Брексит, сохранились разногласия.

Вопросы были отобраны не случайным образом, а прошли тщательную проверку на предмет потенциально провокационных тем. Как отмечается в исследовании, цель состояла в том, чтобы минимизировать риск оскорбительных высказываний. Однако такой подход можно интерпретировать и как стремление избежать острых дискуссий и получить более предсказуемые результаты. Сами авторы говорят, что для них приоритетом было благополучие участников эксперимента, и это перевешивало возможную научную выгоду от обсуждения более противоречивых вопросов.

Чтобы основные политические партии приняли Машину Хабермаса в качестве беспристрастного посредника, необходимо, чтобы она воспринималась обществом как объективная и непредвзятая. Однако эксперты утверждают, что достичь полной беспристрастности в работе ИИ невозможно.

Когда OpenAI выпустила ChatGPT в 2022 году, Илон Маск выразил обеспокоенность по поводу так называемого «прогрессивного» ИИ, который, по его мнению, может использоваться для манипулирования общественным мнением. В качестве противовеса он представил свою собственную разработку Grok, позиционируя ее как «анти-прогрессивную» альтернативу. Таким образом, Маск и другие создают образ ИИ не как нейтрального инструмента, а как орудия в политической борьбе. Создатели Машины Хабермаса считают, что предвзятость ИИ зависит от того, как задаются вопросы. При выборе ответа из готовых вариантов модель часто склоняется к «прогрессивным взглядам». Но когда она может отвечать свободно, то обычно выражает более сбалансированную и нейтральную позицию.

Источник: ХайТек+

 


Комментарии:

Пока комментариев нет. Станьте первым!