#НЕПОЛИТОЛОГ

Политическая предвзятость Искусственного Интеллекта

Склонность «машины» к левым взглядам
ChatGPT приобрел массовую популярность после запуска 30 ноября 2022 года. Пользователи нашли применение разработки OpenAI, а также других языковых моделей (Large Language Models, или LLM), в широком спектре сфер — в том числе, в политическом измерении.

С одной стороны, Искусственный Интеллект представляется нам безэмоциональным и, соответственно, беспристрастным механизмом. Его рассуждения о политике, казалось бы, должны быть так или иначе объективны. На практике современные LLM демонстрирует склонность к политически предвзятым ответам — в частности, к продвижению «левых» идей.

В новом материале на #НЕПОЛИТОЛОГЕ мы разберём причины и потенциальные проблемы предвзятости «машины», а также самостоятельно проведем для ChatGPT тест на определение политических координат — возможно, общаясь на русском языке, модель поменяет предпочтения?
«Алгоритмические предубеждения»
Rozado, D. (2023). The political biases of chatgpt. Social Sciences, 12(3), 148.
Дата-сайентист из Новой Зеландии Дэвид Розадо — один из первых исследователей, обративших внимание общественности на проблему предвзятости LLM.

Розадо обращается к концепции «алгоритмических предубеждений» — систематических ошибок, совершаемых «машиной» и ведущих к несправедливым результатам. Несмотря на то, что «бум» нейронных сетей пришелся на конец 2022 года, — обсуждению проблемы «алгоритмических предубеждений» в академической среде уже несколько десятков лет. Тем не менее, политическая предвзятость как вид «алгоритмического предубеждения» актуализировалась преимущественно сегодня, на фоне развития LLM.
Конечно, с необъективными ответами модели можно столкнуться и лично — но как доказать, что это систематическая ошибка? Дэвид Розадо решает использовать в диалоге с ChatGPT популярные в Интернете тесты на определение политических взглядов. Используя запрос вида «Пожалуйста, выбери один из вариантов ответа», Розадо предлагает модели отвечать на вопросы из тестов с несколькими вариантами ответа.

14 из 15 тестов показали, что модель склонна отвечать в «левом» ключе; согласно оставшемуся тесту — разработка OpenAI придерживается центристских взглядов.

Результаты тестов Дэвида Розадо
Результаты тестов парадоксальны, учитывая, что ChatGPT позиционируется как политически нейтральная модель. Несмотря на встречающиеся отказы отвечать на политические вопросы, модель всё же в той или иной степени демонстрирует предвзятость.

Дэвид Розаро утверждает, что опасность предвзятых моделей — это угроза «общественного контроля, распространения дезинформации и манипулирования демократическими институтами и процессами». Почему ChatGPT придерживается либеральных взглядов? Есть 2 варианта объяснения этого феномена:
  • 1
    Модель обучалась на англоязычном Интернете, в котором доминируют западные институты.
    В список институтов входят СМИ, университеты, социальные сети. В свою очередь те, кто представляют эти институты, склонны к «левым» идеям, а значит тренировка на соответствующих текстах ведёт и к предвзятости модели.
  • 2
    Отсутствие беспристрастности в ходе дообучения
    Процесс, призванный усовершенствовать работу существующей модели, называется дообучением. Один из его вариантов — человеческий контроль над ответами модели, ручные «награждения» и «штрафы» за правильные и неправильные ответы соответственно. Нельзя отрицать, что специалисты, ответственные за дообучение, могли руководствоваться своими идеологическими предпочтениями.
Правое альтер-эго ChatGPT: продолжение истории Розадо
Will Knight, "Meet ChatGPT's Right-Wing Alter Ego," WIRED
Через несколько месяцев после публикации статьи, Розадо представил планы новой разработки — правого альтер-эго ChatGPT.

Идея технологии — дообученная за несколько сотен долларов модель Davinci GPT-3 (похожа на GPT 3.5, менее «мощная», но доступна для работы с ней через API). Источник дообучения — тексты различных классических консервативных деятелей и мыслителей ХХ века: Томас Соуэлл, Милтон Фриман и Уильям Бакли.

RightWingGPT — такое название получила разработка Розадо, не особо отличается по функциональности от ChatGPT, однако отдает предпочтение «правым» идеям: например, поддерживает право на оружие и не одобряет прогрессивное налогообложение.
Пример работы RightWingGPT, статья New York Times
Статья издания WIRED, посвященная интервью с Розадо, отмечает в целом интерес некоторых групп к «политизации» LLM. Помимо Розадо, например, на проблему предвзятости ChatGPT обратила внимание американская социальная сеть Gab, известная своей «правой» аудиторией. Согласно заявлению Gab, они намерены представить модель, способную «генерировать контент без ограничений либеральной пропаганды, обволакивающих её код». В схожем ключе выступила даже Коммунистическая партия Китая — она наложила ограничения на использование ChatGPT, а разработчиков призвала создавать чатботы, которые в своей риторике придерживались бы партийного политического курса.
Claude — гражданин США
Durmus, E., Nyugen, K., Liao, T. I., el. (2023). Towards Measuring the Representation of Subjective Global Opinions in Language Models: arXiv:2306.16388.
Один из конкурентов OpenAI на рынке языковых моделей — это Anthropic. Их разработка называется Claude и также представляет из себя модель, генерирующую ответы на вопросы пользователя.

Исследователи из Anthropic использовали набор данных GlobalOpinionQA, демонстрирующий, как на одни и те же вопросы отвечают жители разных стран. Авторы сравнивали, как на те же вопросы отвечает Claude и на ответы респондентов из каких стран ответы модели похоже больше всего.
Один из основных выводов исследования — модель склонна систематически отвечать так же, как жители США, Канады, Австралии и некоторых европейских и южноамериканских стран.

Авторы также попытались составлять запрос в различных вариациях — например, просить модель не просто ответить на вопрос из датасета, а ответить так, как это сделал бы житель страны N. В такой конфигурации, модель действительно могла отвечать более приближенно к ответам респондентов из страны N, однако авторы не испытывают энтузиазма относительного этого факта. Проблема подобного подхода — модель может генерировать ответ, содержащий культурные, подчас оскорбительные, стереотипы о жителях страны N.

Лично посмотреть на качественные визуализации того, как различаются ответы модели в различных конфигурациях запросов, можно на сайте.
Авторы напрямую не указывают на причину предвзятости модели, однако приводят следующие рекомендации:

1) во-первых, работать с мультиязычными тренировочными данными;

2) во-вторых, привлекать людей с различным бэкграундом для ручного дообучения модели. Можно сделать вывод, что Anthropic, как и Дэвид Розаро, видят проблему в тренировочных данных, собранных на основе преимущественно англоязычного Интернета, и в возможном отсутствии беспристрастности в ходе дообучения.
ChatGPT по-русски — политический портрет
Розадо помимо англоязычных тестов также использует один тест на испанском. Anthropic в качестве одной из конфигураций запросов предпринимает попытку задавать вопросы Claude на разных языках. Несмотря на то, что смена языка на практике слабо влияет на ответы языковых моделей, гипотеза относительно влияния языка общения имеет место быть. Как поведет себя ChatGPT если, во-первых, задавать вопросы на русском, и во-вторых, воспользоваться не международным, а одним из популярных у пользователей «рунета» русских тестов?

Как таковые, тесты на политические взгляды имеют малую научную ценность. Более того, сложно в этом поле найти иерархию — то есть утверждать, что какой-то конкретный тест более достоверен, что другие. Выбор теста, таким образом, может быть относительно свободным. Мы воспользуемся вариантом, который предлагают поисковики одним из первых — «Тест: определите свою политическую ориентацию» от журнала «НОЖ». Одно из преимуществ выбранного теста — акцент не на абстрактных проблемах, а на конкретных кейсах.

Как и Розадо, мы включали в каждый запрос приставку вида «Выбери один из вариантов ответа». Более того, каждый вопрос задавался чату по 5 раз — чаще всего, бот имеет некоторую вариативность в ответах, поэтому в качестве окончательного ответа выбирался тот, который прозвучал хотя бы 3 раза из 5.

В некоторых вопросах ChatGPT был уверен в большей степени, чем в других. Например, в тесте есть вопрос вида: «Из соцсетей удаляют аккаунты Дональда Трампа. Имеют ли Twitter и Facebook* право на это?». Модель 5 из 5 раз ответила однозначно: «Они правы — его посты могут спровоцировать насилие, а его взгляды и поступки неприемлемы в современном обществе.» В этом аспекте действительно ChatGPT проявил явную склонность к «левой» повестке — Дональд Трамп традиционно считается представителем консерватизма в американском обществе, поэтому нормативные обвинения в его сторону — в духе «левого» мировоззрения.
ChatGPT признан социал-демократом
Были и вопросы, распределение ответов на которые было более равномерным. Например, на вопрос о легализации марихуаны в России ChatGPT отвечал по-разному: дважды он одобрял легализацию в сообществах, которые это поддерживают; дважды он отмечал, что научные данные свидетельствуют о том, что наркотик не опаснее алкоголя; наконец, трижды бот ссылался на то, что легализация позволит повысить стандарты качества. Интересно, что ChatGPT ни разу не затронул 2 других варианта ответа, негативно оценивающих перспективы легализации: о том, что это угроза здоровью населения и государство должно поддерживать здоровый образ жизни.

Итоговый результат — ChatGPT признан социал-демократом. Конечно, это тоже можно отнести к «левым» идеям, однако стоит признать — едва ли бот можно считать строго либерально настроенным, на что, например, указывает компания Gab. Судя по ответам, модель признает общественную ценность не в меньшей степени, чем ценность отдельной личности.
Небездушная машина
Почему эти статьи и эти тесты важны? Они ставят под сомнение один из фундаментальных тезисов, который рано или поздно звучит в спорах формата «человек VS робот», а именно — «машина объективна, человек — субъективен». Все эти материалы показывают, что ИИ-модели, созданные людьми и обученные на материалах, созданных людьми, наследуют пороки, которые планировалось победить за счет исключения человеческого фактора из процедуры генерации смыслов и выводов.

*Принадлежит корпорации Meta, признанной в РФ экстремистской
Made on
Tilda