twitter
youtube
instagram
facebook
telegram
apple store
play market
night_theme
en
arm
search
ЧТО ВЫ ИЩЕТЕ ?


ПОПУЛЯРНЫЕ ПОИСКОВЫЕ ЗАПРОСЫ




Любое использование материалов допускается только при наличии гиперссылки на Caliber.az
Caliber.az © 2025. Все права защищены..
МИР
A+
A-

ChatGPT и другие ИИ-боты часто искажают новости

13 Февраля 2025 04:30

Четыре самых популярных в мире чат-бота с искусственным интеллектом допускают слишком много ошибок при подготовке сводок новостных материалов, показало исследование BBC. Неточности отмечены более чем в половине случаев.

Журналисты BBC поставили эксперимент — они попросили чат-боты OpenAI ChatGPT, Microsoft Copilot, Google Gemini и Perplexity составить сводки по сотне новостных сюжетов агентства, а затем оценили ответы систем и определили, насколько точными они были. По итогам исследования «51 % всех ответов ИИ на связанные с новостями вопросы получили оценки как имеющие существенные проблемы в той или иной форме». Кроме того, «19 % ответов ИИ со ссылками на материалы BBC содержали фактические ошибки, такие как неверные фактические утверждения, числа и даты».

Чат-бот Google Gemini, в частности, радикально исказил заявление Национальной службы здравоохранения Великобритании, а ChatGPT и Copilot продолжали считать действующими вышедших в отставку политиков. Небрежное обращение ИИ с информацией носит системный характер, указывают британские журналисты: он «с трудом различал мнения и факты, разглагольствовал и зачастую пропускал существенный контекст». Ранее стало известно, что в iOS 18.3 была временно отключена входящая в пакет Apple Intelligence функция подготовки сводок по новостным материалам. Не все системы ИИ в ходе исследования показали себя одинаково: «у Microsoft Copilot и Google Gemini есть более существенные проблемы, чем у OpenAI ChatGPT и Perplexity», сделали вывод в BBC.

Эксперимент в очередной раз показал, что воспринимать информацию от чат-ботов с ИИ следует с долей скепсиса. ИИ развивается бурно, большие языковые модели выпускаются почти каждую неделю и ошибки в таком объёме данных неизбежны. С другой стороны, «галлюцинации», то есть заведомо неверные ответы у передовых систем теперь встречаются реже, чем раньше. ИИ прогрессирует быстрее, чем предполагает закон Мура, рассказал недавно в личном блоге глава OpenAI Сэм Альтман (Sam Altman). Но на данный момент излишне доверять чат-ботам всё-таки, особенно если речь идёт о новостных материалах.

Caliber.Az
Просмотров: 131

share-lineВам понравилась новость? Поделиться в социальных сетях
print
copy link
Ссылка скопирована
ads
youtube
Подписывайтесь на наш Youtube канал
Подписывайтесь на наш Youtube канал
Cамые читаемые
1

Киберпровокация против Азербайджана: «Русский дом» в Баку сделал заявление

11488
11 Февраля 2025 15:13
2

Немного об одной асимметрии Российско-азербайджанские отношения требуют паритета

8722
10 Февраля 2025 19:01
3

Русская община прокомментировала закрытие «Русского дома Баку» Подробности / ФОТО

6749
12 Февраля 2025 12:11
4

Весной прояснится судьба «Дружбы»: Новая жизнь старого кинотеатра ФОТО / Подробности

6048
10 Февраля 2025 16:02
5

AZAL подписал соглашение с авиакомпанией Израиля Новые возможности для пассажиров

4139
11 Февраля 2025 10:25
6

Ложь, мифы и геополитическая реальность Злоупотребление глупостью от Константина Затулина

3833
10 Февраля 2025 13:39
7

Трамп и Иран: сделка или ракетный удар? И точка зрения Владимира Сажина

2018
11 Февраля 2025 17:07
8

«Стратегическое» кадровое назначение в Бакметрополитене Из Оксфорда - в «подземку» / ФОТО

1953
10 Февраля 2025 11:00
9

Мозаика Бакинского метро История в камне и цвете

1759
11 Февраля 2025 15:36
10

Школьница бросилась с балкона в Баку ФОТО

1635
10 Февраля 2025 14:44
МИР
Наиболее важные мировые новости
loading