ПЕРВАЯ ИГРА ОТ ЗЕРКАЛА!
Вы можете отправить нам 1,5% своих польских налогов
Беларусы на войне
  1. Белый пепел, «дети-медузы» и рождение монстра. История катастрофического ядерного испытания, которую пытались скрыть
  2. Адский понедельник. 65 лет назад случилась катастрофа, которую советские власти пытались стереть из истории Киева, — рассказываем
  3. На торговом рынке маячит очередное банкротство. Скорее всего, вы знаете эту компанию
  4. «Так живет почти вся Беларусь». В Threads показали расчетный лист якобы с одного из предприятий — некоторых удивила зарплата
  5. «Они должны помнить, что я говорил». Экс-журналист пула Лукашенко — об увольнении и разговорах с силовиками
  6. Доллар приближается к трем рублям: что будет с курсами во второй половине марта. Прогноз по валютам
  7. На польской границе пограничник зачеркнул беларуске печать, которую поставил, и «щелкнул» рядом вторую. Зачем он это сделал?
  8. «Поставили клеймо». Стало известно, за что в прошлом году судили пропагандистку Ольгу Бондареву
  9. Помните убийство девушки в Минске, где мать с сыном расчленили труп, сварили и перекрутили на мясорубке? Вот что сейчас с преступником
  10. «Не ел, не пил 20 лет, а потом еще заплати». Налоговики рассказали о нюансе по сбору на недвижимость — у некоторых это вызвало удивление
  11. BELPOL: Российский завод сорвал сроки и выставил огромный счет беларусам за «союзный самолет»


Искусственный интеллект следует использовать с осторожностью в медицине, в том числе при постановке диагнозов, предупредили во Всемирной организации здравоохранения (ВОЗ). Там призвали тщательно изучать риски при работе с ChatGPT, Bard, Bert и подобными платформами.

Фото: пресс-служба ВОЗ
Фото: пресс-служба ВОЗ

Вот что вызывает опасения у организации:

  • искусственный интеллект может обучиться на основе предвзятых данных и из-за этого генерировать неверную информацию, способную нанести «ущерб здоровью и инклюзивности»;
  • иногда чат-боты генерируют ответы, которые кажутся пользователю достоверными и правдоподобными, но на деле являются совершенно неверными;
  • не все чат-боты обучены защищать предоставленную им пользователем чувствительную информацию, в том числе касающуюся его здоровья;
  • чат-боты могут генерировать информацию в форме текста, аудио- и видеоконтента, которая выглядит «очень убедительно», а пользователи не всегда в состоянии отличить обман от достоверных данных.

ВОЗ одобряет «надлежащее использование технологий», но подчеркивает важность «прозрачности, инклюзивности, участия общественности, контроля экспертов и тщательной оценки» перед тем, как чат-боты начнут активно применять в здравоохранении.