twitter
youtube
instagram
facebook
telegram
apple store
play market
night_theme
en
arm
search
ЧТО ВЫ ИЩЕТЕ ?


ПОПУЛЯРНЫЕ ПОИСКОВЫЕ ЗАПРОСЫ




Любое использование материалов допускается только при наличии гиперссылки на Caliber.az
Caliber.az © 2025. Все права защищены..
МИР
A+
A-

ChatGPT и другие ИИ-боты часто искажают новости

13 Февраля 2025 04:30

Четыре самых популярных в мире чат-бота с искусственным интеллектом допускают слишком много ошибок при подготовке сводок новостных материалов, показало исследование BBC. Неточности отмечены более чем в половине случаев.

Журналисты BBC поставили эксперимент — они попросили чат-боты OpenAI ChatGPT, Microsoft Copilot, Google Gemini и Perplexity составить сводки по сотне новостных сюжетов агентства, а затем оценили ответы систем и определили, насколько точными они были. По итогам исследования «51 % всех ответов ИИ на связанные с новостями вопросы получили оценки как имеющие существенные проблемы в той или иной форме». Кроме того, «19 % ответов ИИ со ссылками на материалы BBC содержали фактические ошибки, такие как неверные фактические утверждения, числа и даты».

Чат-бот Google Gemini, в частности, радикально исказил заявление Национальной службы здравоохранения Великобритании, а ChatGPT и Copilot продолжали считать действующими вышедших в отставку политиков. Небрежное обращение ИИ с информацией носит системный характер, указывают британские журналисты: он «с трудом различал мнения и факты, разглагольствовал и зачастую пропускал существенный контекст». Ранее стало известно, что в iOS 18.3 была временно отключена входящая в пакет Apple Intelligence функция подготовки сводок по новостным материалам. Не все системы ИИ в ходе исследования показали себя одинаково: «у Microsoft Copilot и Google Gemini есть более существенные проблемы, чем у OpenAI ChatGPT и Perplexity», сделали вывод в BBC.

Эксперимент в очередной раз показал, что воспринимать информацию от чат-ботов с ИИ следует с долей скепсиса. ИИ развивается бурно, большие языковые модели выпускаются почти каждую неделю и ошибки в таком объёме данных неизбежны. С другой стороны, «галлюцинации», то есть заведомо неверные ответы у передовых систем теперь встречаются реже, чем раньше. ИИ прогрессирует быстрее, чем предполагает закон Мура, рассказал недавно в личном блоге глава OpenAI Сэм Альтман (Sam Altman). Но на данный момент излишне доверять чат-ботам всё-таки, особенно если речь идёт о новостных материалах.

Caliber.Az
Просмотров: 481

share-lineВам понравилась новость? Поделиться в социальных сетях
print
copy link
Ссылка скопирована
ads
telegram
Подписывайтесь на наш Telegram канал
Подписывайтесь на наш Telegram канал
Cамые читаемые
1

В Азербайджане уничтожены сотни килограммов российской сгущенки ФОТО

32960
02 Июня 2025 17:22
2

В Гянджу на поезде за 114 манатов Почему цена билета стала выше в 6 раз? / ОФИЦИАЛЬНО / ФОТО

14179
03 Июня 2025 13:50
3

Названы суммы компенсаций в зоне бакинского массового сноса ОФИЦИАЛЬНО

5187
03 Июня 2025 12:24
4

Китайские авто стали «убийцами» авторынка Баку Привычные лидеры оказались аутсайдерами / ВИДЕОФАКТ

3678
02 Июня 2025 12:06
5

Нашествие «невидимок» Кибервойна: на прицеле – Азербайджан

3662
02 Июня 2025 17:06
6

Сенатор с миссией Статья Владимира Цхведиани

2774
02 Июня 2025 19:01
7

Армянский пустоцвет Спекуляции Еревана вокруг мирного договора

2725
02 Июня 2025 16:10
8

Бакинский пешеход – «черепаха» перевернул автомобиль ВИДЕО

2684
03 Июня 2025 14:47
9

Azercell резко ужесточает тарифную политику? Призыв к бойкоту и пространный ответ / ПОДРОБНОСТИ / ОФИЦИАЛЬНО

2603
04 Июня 2025 07:51
10

В Баку прилетел самолёт с телом умершей на борту пассажирки

2506
03 Июня 2025 16:39
МИР
Наиболее важные мировые новости
loading