Поддержать команду Зеркала
Беларусы на войне
  1. МВД нашло еще одно экстремистское формирование в стране
  2. Беларусский вор в законе встречался с главой BYPOL и, похоже, помогал политзаключенному. Его новые планы звучат тревожно — рассказываем
  3. В одной из стран ЕС предлагают ввести новые ограничения для беларусов
  4. Российская армия смогла захватить город на Донбассе спустя два года с начала наступления на него — что дальше
  5. В СК рассказали, откуда приехали трое иностранцев, которые с битой и травматическими пистолетами истязали семью в Смолевичском районе
  6. Прожил 25 лет, но стал классиком, написав гимн «Пагоня» в горячке, почти перед смертью. Объясняем, в чем величие Максима Богдановича
  7. «Не волнуйтесь, все в порядке». Военком Гомельского района объяснил, что за дрон летает над городом
  8. С 1 марта введут новшество для тех, у кого есть дом или квартира. Подробности
  9. Похоже, гендиректора «Минсктранса» сняли с должности — рассказываем
  10. В Минске работали call-центры мошенников. В их офисы нагрянули силовики, задержаны 55 человек
  11. Огласили приговор беларуске, которую задержали на выходе из онкодиспансера
  12. Чиновники рассказали еще об одном изменении для налога, который спасал некоторых от «тунеядства»
  13. «Месть — удел слабых». Виктор Бабарико дал большое интервью «Зеркалу»
  14. «Можно себе позволить завтрак в 2 часа дня». «Бюро» выяснило подробности жизни внучки Лукашенко — от места учебы до личных отношений


/

Французская компания Giskard выяснила: когда пользователя интересует краткий ответ, искусственный интеллект (ИИ) чаще выдает ошибку или придумывает несуществующий факт. Чем меньше слов — тем выше риск дезинформации, пишет «Хайтек».

Изображение носит иллюстративный характер. Фото: Freepik.com
Изображение носит иллюстративный характер. Фото: Freepik.com

Французская компания Giskard, которая тестирует ИИ на надежность, провела исследование и обнаружила: если попросить нейросеть ответить кратко, она чаще ошибается. Причем это касается и самых современных моделей вроде GPT-4o, Claude 3.5 Sonnet и Mistral Large.

Исследователи обнаружили, что указание вроде «будь лаконичным» мешает ИИ объяснять суть, проверять вводные и опровергать ложные предпосылки. Чем меньше слов — тем больше компромиссов с точностью. Особенно часто это происходит в вопросах, где требуется анализ, нюансы или контекст.

Более того, современные модели, рассчитанные на диалог и «дружелюбный» стиль общения, вроде GPT-4o, могут ошибаться даже чаще старых версий. А приятный тон, как выяснилось, не гарантирует достоверность.

Важное наблюдение: модели реже поправляют собеседника, если тот уверен в себе. То есть если пользователь пишет неправду с уверенностью, нейросеть с большей вероятностью согласится — особенно в сжатом формате.

Авторы исследования предупреждают: безобидные на первый взгляд формулировки вроде «сделай покороче» могут существенно испортить результат. Особенно в задачах, где важна точность — от медицинских тем до программирования.