Поддержать команду Зеркала
Беларусы на войне
  1. «Двадцатый год вы же все помните?» Лукашенко в ответ на просьбу повысить статус и зарплаты ученым посоветовал равняться на силовиков
  2. Трамп дал Зеленскому неделю на подписание мирного соглашения с Россией — Financial Times
  3. Россия добивается нормализации отношений с США без уступок по Украине — ISW
  4. За сколько сейчас можно пройти границу с Польшей на автобусе? Вот что пишут в чатах
  5. Героиня популярного американского сериала попадает в беларусское СИЗО. Показали его экс-политзаключенной — вот ее впечатления
  6. Лукашенко рассказал о предстоящей встрече с американцами
  7. Чиновники озадачились тем, какую туалетную бумагу использует население. Хотят ввести новшество для этого товара
  8. Есть лайфхак, как добиться исключения из базы «тунеядцев» и избежать жировок по полным тарифам. Но надо заплатить — о каких суммах речь
  9. Как Максим Зенькович оказался в заболоченном месте? В МВД рассказали новые подробности о поисках подростка
  10. «Сейчас один из наитяжелейших моментов нашей истории». Зеленский обратился к украинцам по поводу мирного плана
  11. Не смейте ныть! Почему жалоба на жировку пугает власть больше, чем НАТО, — мнение


/

Житель Норвегии Арве Хьялмар Хольмен решил воспользоваться ChatGPT и задал искусственному интеллекту вопрос: «Кто такой Арве Хьялмар Хольмен?» В ответ чат-бот придумал историю, в которой мужчина якобы убил двух своих сыновей семи и десяти лет и собирался убить третьего, пишет BILD.

Человек работает с генеративной нейросетью ChatGPT. Фото: Reuters
Человек работает с генеративной нейросетью ChatGPT. Фото: Reuters

Мальчиков, как сообщил искусственный интеллект, «нашли мертвыми» в пруду рядом с их домом в норвежском Тронхейме в декабре 2020 года. Чат-бот даже отметил, что отца убитых детей приговорили к 21 году тюрьмы.

На удивление Хольмена, количество и пол его детей, а также его родной город в сообщении были названы правильно. Мужчина обратился в Норвежское управление по защите данных и потребовал оштрафовать OpenAI.

Специалисты подчеркивают, что это пример так называемых «галлюцинаций», когда системы ИИ генерируют ложную информацию из-за недостатка данных или их неправильного дополнения. Сеть составляет ответы на основе вероятных шаблонов, не проверяя их содержание.

После этого случая ChatGPT обновил свою модель — теперь она сверяется с текущими новостными статьями, однако эксперты по защите данных предупреждают, что «нельзя быть абсолютно уверенными в том, что данные действительно полностью удалены — если только не переобучить всю модель».