Как создать супер-интеллект, который не уничтожит человечество

Как создать супер-интеллект, который не уничтожит человечество

В последнем фильме франшизы Мстители искусственный интеллект Альтрон одержим идеей истребления человечества. Он был создан, чтобы защищать мир, но, по его мнению, люди – это главная угроза миру.

Достижения ученых в сфере искусственного интеллекта заставили многих насторожиться. Что если мы создадим машину более умную, чем мы? Как в таком случае мы сможем предотвратить «эру Альтрона»? Именно эту проблему пытался решить Ник Бостром, директор Института будущего человечества при Оксфордском университете, в своей книге «Суперинтеллект: Путь, Опасности, Стратегии (Superintelligence: Paths, Dangers, Strategies)».
То, что Альтрон хочет спасти мир, искоренив человечество, Бостром называет «извращенным толкованием» - случай, когда ИИ обнаруживает какой-то способ достижения конечной цели, нарушающий намерения программистов, которые определяли цели. Например, если спросить у ИИ, как вызвать у человека улыбку, он может попытаться совершить манипуляцию с лицевыми нервами, чтобы заставить лицо «застыть» в улыбке.
Бостром отмечает, что даже невинные цели могут нести опасность, если они не продуманы должным образом. Например, если ИИ приказано доказать или опровергнуть гипотезу Римана, одну из самых важных нерешенных проблем в математике, он может начать добиваться этой цели, пытаясь преобразовать всю солнечную систему в компьютере или же атомы в органах тех, кто запрашивал ответ.
Можно спорить, что «глупый» ИИ представляет более реальную угрозу, чем гиперумный. Тем не менее, даже в отдаленной перспективе, искусственный супер-интеллект представляет потенциальную опасность. Бостром говорит, что «глупый» ИИ может вызвать крах фондового рынка или даже военный кризис, но супер-интеллект может уничтожить всю цивилизацию.
Бостром пишет, что есть два основных класса методов по удержанию искусственного супер-интеллекта от уничтожения мира. Один из них связан с ограничением возможностей ИИ, например, отсутствием доступа к Интернету или каких-либо физических манипуляторов, таких как механические руки.  И хотя ограничение искусственного интеллекта может быть полезным на начальных этапах разработки такой машины, нельзя ожидать, что мы сможем удержать суперумного джинна внутри бутылки навсегда или даже в течении короткого времени, говорит ученый.
Вместо этого Бостром советует формировать правильную модель поведения ИИ. Одна из стратегий включает в себя набор непосредственных правил, которым должен следовать ИИ, как, например, Три закона робототехники писателя-фантаста Айзека Азимова. Тем не менее, в этом случае всё осложняется выбором правил, а также трансформацией их в компьютерный код.
Второй вариант предполагает отказ от глобальных целей и ограничение амбиций. Здесь нужно обращать внимание на то, как минимизировать влияние ИИ на мир. Третий вариант подразумевает создание искусственного интеллекта, который не является сверхумным, с последующим его развитием после того, как люди убедятся, что он доброжелателен. И, конечно же, он не должен «обозлиться» в процессе. Последнее решение, предложенное Бостромом, заключается в создании искусственного супер-интеллекта, чьим заданием будет выяснить, как сделать его безопасным. По сути, план заключается в том, чтобы научить ИИ понимать то, чего мы хотим, а не просто следовать командам.
Тем не менее, даже эти стратегии не могут гарантированно предотвратить робото-апокалипсис. Ключ к безопасности не только в том, чтобы ИИ понимал наши ценности, но и в том, чтобы он был мотивирован соответствовать им, говорит Бостром.

Система Orphus
comments powered by Disqus
 
Top