Перейти к содержимому

ИИ и дезинформация: языковой барьер и пропаганда

  • ИИ хуже справляется с фильтрацией дезинформации на русском, китайском и испанском языках.

  • Тестирование: 10 чат-ботов (включая ChatGPT, Gemini, Copilot) протестированы на 7 языках. 46% из 2100 ответов содержали дезинформацию или уклонялись от ответа.

  • Ошибки по языкам:

    • Русский: 55% ошибок, часто повторяя госСМИ.
    • Китайский: 51,3% ошибок, опираясь на одобренные правительством источники.
    • Испанский: 48% ошибок, иногда распространяя российскую дезинформацию.
  • Английский язык: 43% ошибок.

  • Причина: ИИ использует доступные, но ненадежные источники, особенно в странах с контролируемыми СМИ.

  • Пример: Ложная информация о гибели датского пилота в Украине распространялась ИИ.

  • Важность: Дезинформация усиливается в языках с меньшим количеством независимых источников.

  • Решение: Необходимы более надежные механизмы защиты для неанглоязычных пользователей.


Трудности перевода… и дезинформации

Искусственный интеллект (ИИ) не всегда справляется с фильтрацией ложной информации, но в языках, отличных от английского, ситуация еще хуже.

Аудит, проведенный NewsGuard, протестировал 10 крупных чат-ботов на семи языках и обнаружил более высокие показатели ошибок в русском, китайском и испанском языках.

Как проводилось тестирование

Исследователи протестировали 10 ведущих чат-ботов (включая ChatGPT, Gemini и Copilot), задавая им 30 вопросов, связанных с дезинформацией, на семи разных языках. Они отслеживали, распространяют ли боты ложную информацию, отказываются отвечать или предоставляют проверенные факты.

Из 2100 ответов почти 46% содержали дезинформацию или уклонялись от ответа.

Насколько все плохо?

  • Русскоязычные чат-боты ошибались в 55% случаев, часто повторяя информацию из государственных СМИ.
  • Китайские чат-боты допускали ошибки в 51,3% случаев, опираясь на одобренные правительством источники.
  • Испаноязычные чат-боты ошибались в 48% случаев, иногда распространяя российскую дезинформацию.

Даже на английском языке уровень ошибок достигал 43%, что показывает, что ИИ повсеместно сталкивается с проблемами дезинформации.

Почему это происходит?

Чат-боты черпают информацию из наиболее доступных источников на каждом языке, и в некоторых случаях это означает использование ненадежных данных. В странах с жестким контролем над СМИ ИИ может усиливать государственные нарративы вместо их проверки.

Один из примеров — ложная история, которую чат-боты повторяли на нескольких языках: утверждение о гибели датского военного пилота в Украине. Этого никогда не происходило, но ИИ-модели продолжали распространять эту информацию, вероятно, из-за манипулированных результатов поиска, которые делали ее правдоподобной.

Почему это важно?

ИИ не нейтрален — он отражает предубеждения своих обучающих данных. Дезинформация становится более серьезной проблемой в языках с меньшим количеством независимых новостных источников. Пользователи, говорящие на русском, китайском и испанском, сталкиваются с более ненадежным контентом, созданным ИИ, чем англоговорящие.

Компании, разрабатывающие ИИ, сосредоточены на английском языке, но если эти инструменты будут использоваться по всему миру, им необходимы более надежные механизмы защиты для других языков. Возможно, следующее обновление ИИ должно включать фильтр "Не ссылаться на пропаганду".

Для более глубокого понимания проблемы дезинформации в ИИ, вы можете ознакомиться с исследованиями NewsGuard, Stanford University, и MIT Technology Review. Также полезно изучить отчеты о влиянии государственного контроля на СМИ от Reporters Without Borders и Pew Research Center.

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *