Вероятно, контролировать сверхразумный ИИ невозможно

Вероятно, контролировать сверхразумный ИИ невозможно


На протяжении последних лет технологии искусственного интеллекта получили стремительное развитие, поэтому появилось множество версий о дальнейшей судьбе человечества. Опасения ученых связаны с возможностью ИИ не только выйти из зоны влияния людей в будущем, но и получить контроль над человечеством. Такие опасения больше похожи на сценарий фантастических фильмов, однако все больше ученых призывают остановить разработки, связанные с улучшением искусственного интеллекта.

Специалисты из научного мира планируют создать сверхразумный ИИ, который сможет решать множество задач и работать на благо человечества, однако некоторые футорологи отмечают, что люди не только не смогут контролировать подобные технологии, но могут пропустить момент создания такого искусственного интеллекта. 

Новая статья с выводами исследователей из Института Макса Планка о невозможности контролировать искусственный разум появилась на EurekAlert. Авторы предполагают, что если люди смогут создать универсальный ИИ, который сможет самообучаться и самовоспроизводится, то это может поставить под угрозу дальнейшее существование нашей цивилизации. 

Для моделирования ситуации с развитием искусственного интеллекта рассмотрели 2 варианта событий, которые могут произойти в будущем. Также были рассмотрены варианты контроля над сверхразумной системой с ИИ. В качестве возможного контроля специалисты предлагают отключить ИИ от интернета, но в этом случаи польза искусственного интеллекта для людей будет существенно снижена.

Второй вариант контроля заключается в создании специального механизма защиты, а скорее целой системы, которая сможет отключить ИИ в случаи угрозы для человечества, но моделирование показало, что это сделать практически невозможно, т.к. если искусственный интеллект будет подключен к интернету, то коллективный искусственный разум научиться обходить защиту. Один из авторов исследования по имени Ийад Рахван сказал следующее:

«Если разбить проблему до базовых правил теоретической информатики, окажется, что алгоритм, который мог бы приказать ИИ не разрушать мир, непреднамеренно прекратит свою работу. Когда наступит это время, то люди будут теряться в догадках, то ли он все еще анализирует угрозу, то ли остановился, чтобы сдержать опасный ИИ. Таким образом, подобная технология не только будет бесполезна, но на ее создание необходимо потратить очень большие суммы»

Подобный прогноз не является единственным и не может отражать всей сути дальнейшего развития искусственного интеллекта, но если авторы научной работы не ошибаются, то развитии ИИ ничего хорошего для человечества не принесет. 
Оцените
0

Оставить комментарий