IT NewsНовости рынкаНовости ИТ

150 компаний подписали соглашение о мирном использовании ИИ

Анна Шулина | 19.07.2018

ВКонтакт Facebook Google Plus Одноклассники Twitter Livejournal Liveinternet Mail.Ru

150 компаний подписали соглашение о мирном использовании ИИ

Представители 150 компаний, работающих над созданием и усовершенствованием приложений искусственного интеллекта, подписали соглашение, которое должно выступить гарантом того, что создатели умных машин никогда не допустят возможности возникновения угрозы жизни людей.

Документ был подписан на Международной конференции 2018 года по искусственному интеллекту (IJCAI) в Стокгольме, прошедший по эгидой Института будущего (Future of Life Institute). В качестве подписантов выступили более 2400 человек, представляющих 150 компаний из 90 стран и работающих в области искусственного интеллекта и робототехники.

Цель подобного шага – привлечь внимание мировых правительств, академических кругов и промышленности. «Я очень рад видеть, что лидеры в области разработки ИИ переходят от разговоров к действию, реализуя политику, которую политики до сих пор не смогли реализовать», - сказал президент Института будущего, профессор физики Массачусетского технологического института Макс Тегмарк (Max Tegmark).

«ИИ обладает огромным потенциалом для помощи миру — если мы предотвратим в будущем злоупотребление его потенциалом. Наша цель – не превратить ИИ в оружие».

В подписании столь важного документа приняли участие представители Google DeepMind, фонда XPRIZE, компании ClearPath Robotics/OTTO Motors, Европейской ассоциации ИИ, а также предприниматель и изобретатель Илон Маск (Elon Musk).

Одной из задач Института будущего является не допустить появления потенциально опасных машин, которые смогут принять самостоятельное решение об убийстве, будь то один человек или человечество в целом. Однако, г-н Тегмарк подчеркнул, что данное решение не касается современных беспилотных летательных аппаратов, находящиеся под контролем человека, как, впрочем, и автономных систем, которые стоят на защите от возможного применения чужого оружия.

Поводом для создания договора послужил апрельский бойкот Корейского института науки и техники (KAIST) более чем 50 исследователями из 30 стран. Университет KAIST заявил, что откроет лабораторию по созданию ИИ в сотрудничестве с Hanwha Systems, специализирующейся на оборонной промышленности, проигнорировав, тем самым, запрет Организации Объединенных Наций. Эти действия вынудили научного руководителя KAIST - Сун-Чул Сина (Sung-Chul Shin), сделать заявление, что он не будет участвовать в разработке смертоносного автономного оружия. «KAIST не будет проводить какую-либо исследовательскую деятельность, противостоящую человеческому достоинству, включая автономное оружие, не имеющее значимого человеческого контроля». Как высказался профессор Университета Нового Южного Уэльса (UNSW), специализирующийся в области искусственного интеллекта, Тоби Уолш (Toby Walsh): «У машин нет этики, чтобы решать кому жить, а кому умирать. Я призываю вас и ваши организации приложить все усилия, чтобы уберечь мир от подобной войны».

Горячие темы: Искусственный интеллект и война

Журнал IT-News № 08/2018    [ PDF ]    [ Подписка на журнал ]

Об авторах

Анна Шулина

Анна Шулина

Окончила экономический факультет МГУ, после чего много лет проработала в крупнейших российских банках: Менатепе, Инкомбанке и Менатепе СПб. В дальнейшем увлеклась экономической аналитикой и закончила факультет журналистики МГУ по специальности "экономическая журналистика и PR”. Несколько лет проработала выпускающим редактором программ АТВ. Является автором рассказов, публикуемых в рамках CWS Москва.


Поделиться:

ВКонтакт Facebook Google Plus Одноклассники Twitter Livejournal Liveinternet Mail.Ru

Загрузка...

Другие материалы рубрики

Компании сообщают

Мероприятия

17.12.2018
QIWI Techday make it real

Москва, Loft #2 ул. Ленинская Слобода, д. 26с11

25.02.2019 — 26.02.2019
Teamlead Conf

Москва, Инфопространство