twitter
youtube
instagram
facebook
telegram
apple store
play market
night_theme
en
arm
search
ЧТО ВЫ ИЩЕТЕ ?


ПОПУЛЯРНЫЕ ПОИСКОВЫЕ ЗАПРОСЫ




Любое использование материалов допускается только при наличии гиперссылки на Caliber.az
Caliber.az © 2025. Все права защищены..
МИР
A+
A-

ChatGPT и другие ИИ-боты часто искажают новости

13 Февраля 2025 04:30

Четыре самых популярных в мире чат-бота с искусственным интеллектом допускают слишком много ошибок при подготовке сводок новостных материалов, показало исследование BBC. Неточности отмечены более чем в половине случаев.

Журналисты BBC поставили эксперимент — они попросили чат-боты OpenAI ChatGPT, Microsoft Copilot, Google Gemini и Perplexity составить сводки по сотне новостных сюжетов агентства, а затем оценили ответы систем и определили, насколько точными они были. По итогам исследования «51 % всех ответов ИИ на связанные с новостями вопросы получили оценки как имеющие существенные проблемы в той или иной форме». Кроме того, «19 % ответов ИИ со ссылками на материалы BBC содержали фактические ошибки, такие как неверные фактические утверждения, числа и даты».

Чат-бот Google Gemini, в частности, радикально исказил заявление Национальной службы здравоохранения Великобритании, а ChatGPT и Copilot продолжали считать действующими вышедших в отставку политиков. Небрежное обращение ИИ с информацией носит системный характер, указывают британские журналисты: он «с трудом различал мнения и факты, разглагольствовал и зачастую пропускал существенный контекст». Ранее стало известно, что в iOS 18.3 была временно отключена входящая в пакет Apple Intelligence функция подготовки сводок по новостным материалам. Не все системы ИИ в ходе исследования показали себя одинаково: «у Microsoft Copilot и Google Gemini есть более существенные проблемы, чем у OpenAI ChatGPT и Perplexity», сделали вывод в BBC.

Эксперимент в очередной раз показал, что воспринимать информацию от чат-ботов с ИИ следует с долей скепсиса. ИИ развивается бурно, большие языковые модели выпускаются почти каждую неделю и ошибки в таком объёме данных неизбежны. С другой стороны, «галлюцинации», то есть заведомо неверные ответы у передовых систем теперь встречаются реже, чем раньше. ИИ прогрессирует быстрее, чем предполагает закон Мура, рассказал недавно в личном блоге глава OpenAI Сэм Альтман (Sam Altman). Но на данный момент излишне доверять чат-ботам всё-таки, особенно если речь идёт о новостных материалах.

Caliber.Az
Просмотров: 520

share-lineВам понравилась новость? Поделиться в социальных сетях
print
copy link
Ссылка скопирована
ads
telegram
Подписывайтесь на наш Telegram канал
Подписывайтесь на наш Telegram канал
Cамые читаемые
1

В Кремле отреагировали на слова Пашиняна о возможном выходе из ОДКБ

67238
16 Июля 2025 21:36
2

Азербайджан закупил у России золота на сотни миллионов долларов

29244
15 Июля 2025 15:52
3

Известная азербайджанская телеведущая ушла с работы

22074
15 Июля 2025 10:38
4

Жителям бакинских новостроек запретят «комби» И будут диктовать цены на отопление / ПОДРОБНОСТИ

10537
16 Июля 2025 10:55
5

Сколько иностранцев покинуло Азербайджан после обращения Миграционной службы? ЦИФРЫ / ОФИЦИАЛЬНО

10288
17 Июля 2025 11:07
6

Бесплатный сыр против мира? ЕС вновь выделяет помощь Армении

9075
15 Июля 2025 19:02
7

Цепочка ошибок Москвы От Карабаха до самолета и Екатеринбурга

5550
17 Июля 2025 16:05
8

Один из бакинских маршрутов получит новые автобусы

5499
15 Июля 2025 17:11
9

Он, она, любовница и кровь в гараже Шокирующие подробности семейной драмы бакинского директора / ФОТО / ОБНОВЛЕНО

4475
18 Июля 2025 17:55
10

Азербайджанского спортсмена лишили российского гражданства

4385
16 Июля 2025 23:56
МИР
Наиболее важные мировые новости
loading