Тема развитого искусственного интеллекта (ИИ) в будущем обычно несёт с собой определённые страхи — например, то, что он будет способен к самообучению и станет настолько развитым, что люди уже будут не в состоянии его понимать. В плохих руках, и даже по собственному почину, такой продвинутый алгоритм сможет захватить правительства и армии, ввести оруэлловские методы надзора и манипуляции, установить контроль над обществом, и даже управлять армией автономных боевых дронов на поле боя.
Но некоторые специалисты в области ИИ не считают эти страхи обоснованными. На самом деле, высокоразвитый ИИ может быть способен лучше управлять миром, чем люди. Такие страхи сами представляют опасность, потому что могут помешать нам реализовать такую возможность.
«Может быть, невнедрение ИИ представляет опасность для человечества», — сказал исследователь в области ИИ компании Facebook Томас Миколов на конференции в Праге, посвящённой проблемам создания ИИ на уровня человеческого интеллекта.
Миколов объясняет, что люди, как биологический вид, очень слабы в принятии долгосрочных решений, призванных принести благотворные результаты. Люди вырубили тропические леса с целью добычи сырья, не осознавая (или не интересуясь), что тем самым они способствовали деградации нашей планеты — возможно, необратимой.
Но развитая система ИИ могла бы защитить человечество от его собственной недальновидности.
«Люди плохо умеют предвидеть отдалённое будущее, скажем, на 20-30 лет вперёд. Возможно, создав ИИ, который намного умнее нас, мы поможем себе избежать будущей катастрофы».
Конечно, Миколов принадлежит меньшинству учёных, верящим в то, что высокоразвитый ИИ будет благожелательным. В ходе конференции многие докладчики выражали широко распространённый страх перед ИИ, чаще в связи с его возможным применением в опасных целях злонамеренными субъектами, опасность чего не следует недооценивать.
Мы не знаем наверняка, станет ли возможным создание ИИ общего назначения, способного выполнить любую мыслительную задачу, доступную человеку, и, возможно, даже лучше его.
Будущее развитого ИИ выглядит многообещающим, но оно поднимает множество проблем этического характера. Мы даже не знаем всех вопросов, на которые придётся найти ответ.
Всё же большинство участников пражской конференции согласились, что правила надо выработать до того, как они понадобятся. Уже сейчас надо создавать международные договора, комитеты по этике, и регулирующие органы при правительствах, компаниях, и научных сообществах. Внедрение таких институтов и протоколов снизит вероятность того, что враждебное правительство, неосторожный исследователь, или даже действительно спятивший «учёный» запустит в действие вредоносный ИИ или применит в качестве оружия сложный алгоритм другим способом. А в неблагоприятном случае у нас будут средства защиты.
Внедрив необходимые правила и меры предосторожности, мы сможем в будущем жить в гармонии с высокоразвитым ИИ; возможно, однажды он даже спасёт нас.
По информации http://gearmix.ru/archives/43493
Обозрение "Terra & Comp".