Письмо сопровождает доклад Института будущего жизни, в котором подчеркивается, что ученым следует тщательно координировать разработку и сообщать о своих достижениях, чтобы искусственный интеллект не вышел из-под контроля человечества.
Стивен Хокинг, Элон Маск и еще десятки ученых, предпринимателей и инвесторов подписали открытое письмо — предостережение о необходимости быть более осмотрительными при разработке систем искусственного интеллекта.
Письмо сопровождает доклад Института будущего жизни (FLI) с рекомендациями о том, как следует разрабатывать искусственный интеллект. В нем подчеркивается, что ученым следует тщательно координировать разработку и сообщать о своих достижениях, чтобы искусственный интеллект не вышел из-под контроля человечества.
FLI был учрежден в прошлом году группой общественных деятелей, в том числе сооснователем Skype Яааном Таллинном. Цель создания института — вести исследования влияния искусственного интеллекта на будущее человечества и оценивать риски. Маск, сооснователь компаний SpaceX и Tesla, входит в научно-консультативный совет института наряду с Хокингом и актером Морганом Фриманом.
Письмо также подписали эксперты из Google, IBM, Microsoft и Amazon.
В декабре Хокинг заявил в интервью BBC, что разработка полноценного искусственного интеллекта может означать конец человеческой расы, если такая система «начнет неконтролируемо совершенствовать саму себя», а Маск до того заявлял, что бесконтрольное развитие искусственного интеллекта «потенциально опаснее, чем ядерное оружие».
По информации http://www.osp.ru/news/2015/0114/13027047/
Обозрение "Terra & Comp".