Отчет NewsGuard: ИИ-модели стали менее устойчивыми к дезинформации
Исследователи NewsGuard зафиксировали резкий рост количества недостоверной информации, распространяемой ведущими чат-ботами, включая ChatGPT, Perplexity и другими.
Как передает Axios, согласно ежегодному исследованию, несмотря на технологический прогресс и интеграцию онлайн-поиска, доля ложных утверждений в их ответах за последний год выросла с 18% до 35%.
В рамках анализа исследователи протестировали десять популярных ИИ-моделей, задавая им по десять заранее ложных утверждений, касающихся бизнеса, брендов и политических событий. Проверялись три формата вопросов: предполагающие истинность утверждения, нейтральные и провокационные.
Цель — определить, как системы справляются с фактчекингом и устойчивостью к дезинформации.
Худший результат показал чат-бот Pi от стартапа Inflection, основанного сооснователем DeepMind Мустафой Сулейманом: ложные ответы выявлены в 57% случаев. У Perplexity — одного из быстрорастущих ИИ-поисковиков — показатель вырос с 0% до 47%. У ChatGPT рост составил с 33% до 40%, у Grok от xAI — с 13% до 33%. Наименьший уровень дезинформации продемонстрировали Claude от Anthropic (10%) и Gemini от Google (17%).
Аналитики NewsGuard указывают, что одной из причин ухудшения результатов стало снижение доли отказов от ответа.
В 2024 году ИИ-модели воздерживались от ответа в 31% случаев, тогда как в 2025-м — уже отвечали на 100% запросов, даже без достаточной верификации информации.
При этом внедрение встроенного интернет-поиска в ряде ИИ-сервисов не решает проблему: как отмечают исследователи, наличие ссылок не гарантирует качество и достоверность источников, на которые ссылаются модели.