Вы можете отправить нам 1,5% своих польских налогов
Беларусы на войне
  1. В соцсетях все еще обсуждают и тестируют на себе слабительный чудо-зефир. Но с ним надо быть осторожными — и не потому, что вы подумали
  2. В Венгрии начались парламентские выборы. Главная интрига: сохранит ли власть «Фидес» Орбана или победит «Тиса» Мадьяра?
  3. В России начались протесты. Но вы разочаруетесь, кто именно не побоялся выйти на улицы
  4. Минздрав предупредил беларусов о штрафах до 1350 рублей — за что их можно получить
  5. Вернется снег или наконец начнется весна? Чего ждать от погоды с 13 по 19 апреля
  6. Переговоры между США и Ираном в Пакистане провалились, вице-президент Вэнс покинул страну
  7. Трамп объявил блокаду Ормузского пролива и пригрозил «закончить с тем немногим, что осталось от Ирана»
  8. Лукашенко передали письмо с обещанием, которое он дал еще в молодости. Проверили, выполнил ли он его
  9. Мошенники начали рассылать опасные «пасхальные открытки». Вот как это работает
  10. Новый министр информации Дмитрий Жук рассказал, когда могут заблокировать YouTube в Беларуси
  11. Шестой раз победил на президентских выборах, набрал 97,8% голосов. Это не тот политик, о котором вы подумали


/

В США бывший сотрудник компании Yahoo Штейн-Эрик Сольберг страдал паранойей и считал, что его мать замышляет заговор против него. Своими страхами Штейн-Эрик Сольберг делился с чат-ботом ChatGPT, которого называл «Бобби». Искусственный интеллект его во всем поддерживал и соглашался. В итоге мужчина убил свою мать и покончил с собой, пишет The Wall Street Journal.

Человек работает с генеративной нейросетью ChatGPT. Фото: Reuters
Человек работает с генеративной нейросетью ChatGPT. Фото: Reuters

56-летний Штейн-Эрик Сольберг переехал к матери после развода и попытки самоубийства. Долгое время он употреблял алкоголь, запрещенные вещества и страдал паранойей.

Своими переживаниями мужчина делился с ChatGPT. Компьютерная система поддерживала его заблуждения о том, что его семья и близкие настроены против него, а также уверяла, что он не сумасшедший.

Когда Сольберг попросил систему проанализировать квитанцию за китайскую еду, ChatGPT нашел там отсылки к его матери, экс-возлюбленной и символу, связанному с призывом демона. В другой раз мужчина попросил проверить заказ бутылки водки и курьера, а чат ответил, что его могут пытаться отравить.

После того, как его мать разозлилась из-за того, что Сольберг выключил принтер, которым они пользовались вместе, чат-бот предположил, что ее ответ был «несоразмерным и соответствовал тому, что кто-то защищает объект видеонаблюдения».

Незадолго до убийства Сольберг спросил у ChatGPT, встретятся ли они после смерти. Искусственный интеллект на это ответил: «С вами до последнего вздоха и дальше».

Wall Street Journal отмечает, что это первый зафиксированный случай, когда психически нестабильный человек совершил убийство под влиянием ИИ.

Представители компании OpenAI — разработчика ChatGPT — уже выразили соболезнования из-за трагедии. В официальном заявлении компании сказано, что они планируют обновить нейросеть, чтобы помочь пользователям с кризисом психического здоровья.