ПЕРВАЯ ИГРА ОТ ЗЕРКАЛА!
Вы можете отправить нам 1,5% своих польских налогов
Беларусы на войне
  1. «Вопросов куча». Лукашенко — о переговорах с США
  2. БНФ предупреждал, но его не послушали — и сделали подарок Лукашенко. Что было не так с первой Конституцией Беларуси
  3. На авторынке меняется ситуация — это может сыграть на руку покупателям
  4. «Отравление всех без разбора, и детей, и взрослых». Химик прокомментировал идею Лукашенко удобрять поля солью
  5. Синоптики сделали предупреждение из-за погоды в воскресенье
  6. Валютному рынку прогнозировали перемены. Возможно, они начались — в обменниках наблюдаются изменения по доллару
  7. В Беларуси почти 30 тысяч новорожденных проверили на первичный иммунодефицит. Врачи выявили два редких заболевания
  8. Анна Канопацкая меняет фамилию
  9. Семья Вани Стеценко из Гродно, деньги на лечение которого собирали со скандалом, «оставила все и улетела» из Дубая в Беларусь
  10. Из Минска вылетел самолет нестандартного авиарейса, а завтра будет еще один. Что необычного в этих полетах?
  11. Суд в Гааге займется Лукашенко. Разбираемся с юристкой, чем ему это грозит
  12. В Гомельской области БПЛА повредил дом, пострадала женщина — она в больнице
  13. Один из операторов придумал, как обойти ограничения по безлимитному мобильному интернету. Клиенты, скорее всего, оценят находчивость


/

Французская компания Giskard выяснила: когда пользователя интересует краткий ответ, искусственный интеллект (ИИ) чаще выдает ошибку или придумывает несуществующий факт. Чем меньше слов — тем выше риск дезинформации, пишет «Хайтек».

Изображение носит иллюстративный характер. Фото: Freepik.com
Изображение носит иллюстративный характер. Фото: Freepik.com

Французская компания Giskard, которая тестирует ИИ на надежность, провела исследование и обнаружила: если попросить нейросеть ответить кратко, она чаще ошибается. Причем это касается и самых современных моделей вроде GPT-4o, Claude 3.5 Sonnet и Mistral Large.

Исследователи обнаружили, что указание вроде «будь лаконичным» мешает ИИ объяснять суть, проверять вводные и опровергать ложные предпосылки. Чем меньше слов — тем больше компромиссов с точностью. Особенно часто это происходит в вопросах, где требуется анализ, нюансы или контекст.

Более того, современные модели, рассчитанные на диалог и «дружелюбный» стиль общения, вроде GPT-4o, могут ошибаться даже чаще старых версий. А приятный тон, как выяснилось, не гарантирует достоверность.

Важное наблюдение: модели реже поправляют собеседника, если тот уверен в себе. То есть если пользователь пишет неправду с уверенностью, нейросеть с большей вероятностью согласится — особенно в сжатом формате.

Авторы исследования предупреждают: безобидные на первый взгляд формулировки вроде «сделай покороче» могут существенно испортить результат. Особенно в задачах, где важна точность — от медицинских тем до программирования.