Вы можете отправить нам 1,5% своих польских налогов
Беларусы на войне
  1. Вернется снег или наконец начнется весна? Чего ждать от погоды с 13 по 19 апреля
  2. Минздрав предупредил беларусов о штрафах до 1350 рублей — за что их можно получить
  3. В России начались протесты. Но вы разочаруетесь, кто именно не побоялся выйти на улицы
  4. Лукашенко передали письмо с обещанием, которое он дал еще в молодости. Проверили, выполнил ли он его
  5. Оппозиция разгромно побеждает на выборах в Венгрии. Путин потерял главного союзника в ЕС
  6. В соцсетях все еще обсуждают и тестируют на себе слабительный чудо-зефир. Но с ним надо быть осторожными — и не потому, что вы подумали
  7. В Венгрии начались парламентские выборы. Главная интрига: сохранит ли власть «Фидес» Орбана или победит «Тиса» Мадьяра?
  8. Новый министр информации Дмитрий Жук рассказал, когда могут заблокировать YouTube в Беларуси
  9. Шестой раз победил на президентских выборах, набрал 97,8% голосов. Это не тот политик, о котором вы подумали
  10. Переговоры между США и Ираном в Пакистане провалились, вице-президент Вэнс покинул страну
  11. Трамп объявил блокаду Ормузского пролива и пригрозил «закончить с тем немногим, что осталось от Ирана»
  12. Черный апрель. Советская военная биолаборатория устроила эпидемию и убила десятки людей, это скрывали 13 лет — рассказываем
  13. Мошенники начали рассылать опасные «пасхальные открытки». Вот как это работает


/

Google удалил из своих принципов работы с искусственным интеллектом пункт, в котором компания обещала не участвовать в создании технологий, способных нанести вред людям, в том числе в военных целях. На это обратило внимание агентство Bloomberg.

Изображение носит иллюстративный характер. Фото: Pawel Czerwinski / unsplash.com
Изображение носит иллюстративный характер. Фото: Pawel Czerwinski / unsplash.com

Со страницы целиком исчез раздел под заголовком «Применение [ИИ], которым мы не будем заниматься». Судя по копиям страницы в веб-архиве, в конце января этот раздел еще присутствовал на ней. Он содержал четыре пункта:

  • технологии, которые в целом наносят или могут нанести вред (только если польза от них значительно не перевешивает риски);
  • оружие или другие технологии, предназначенные для причинения вреда человеку напрямую или косвенно;
  • технологии слежки, нарушающие международные нормы;
  • технологии, цели которых противоречат международным правовым принципам.

Страница в ее нынешнем виде вообще не содержит упоминаний об обязательствах отказаться от применения ИИ в опасных и неэтичных технологиях, включая оружейные.

В ответ на запрос журналистов прокомментировать произошедшие изменения представитель Google отправил запись в блоге компании, которая была опубликована 4 февраля. В ней говорится об итогах работы в 2024 году и ближайших планах корпорации относительно искусственного интеллекта.

Как рассказали в блоге старший вице-президент Google Джеймс Манийка и глава лаборатории искусственного интеллекта DeepMind Демис Хассабис, правительства и компании должны работать вместе над созданием искусственного интеллекта, который будет защищать людей, способствовать глобальному развитию и поддерживать нацбезопасность.

Одна из бывших руководителей исследовательской группы Google по этике искусственного интеллекта Маргарет Митчелл сказала Bloomberg, что подобное изменение принципов работы корпорации с ИИ будет иметь серьезные последствия: «Удаление этого пункта <…> означает, что Google теперь, вероятно, будет работать над внедрением технологий, которые смогут убивать людей».

Изменение политики Google в сфере разработки искусственного интеллекта совпадает с общей тенденцией среди крупных игроков на рынке, отметило Bloomberg. В частности, в январе Meta и Amazon расформировали часть своих программ по обеспечению разнообразия и инклюзивности.