Влияние искусственного интеллекта: - риск для развития человеческой цивилизации

Стивен Хокинг часто высказывается о развитии искусственного интеллекта (ИИ) как о реальной причине возможного уничтожения человеческого рода. Как рассказал ученый в своем интервью изданию Wired в конце ноября 2017 года, он опасается того, что ИИ может в целом заменить людей.

По словам самого Хокинга, люди могут создать слишком мощный искусственный интеллект, который будет чрезвычайно хорош в достижении своих целей. И если эти цели не будут совпадать с человеческими, то у людей будут проблемы, считает ученый.

Множество других крупных ученых и специалистов в области технологий разделяют беспокойство Стивена Хокинга. Например, основатель Tesla Илон Маск (Elon Musk) также озабочен разрушительным потенциалом ИИ. По сравнению с позицией Хокинга, Маск видит ситуацию несколько более спокойно, хотя он и говорил, что ИИ представляет большую потенциальную угрозу, чем Северная Корея. По его мнению, нужно больше сфокусироваться на регулировании развития систем ИИ, который, как и все, потенциально представляющее угрозу для общества, заслуживает по крайней мере правильного осмысления со стороны властей.

Хокинг полагает, что "некая форма мирового правительства" должна контролировать развитие технологий для уверенности в том, что машины не восстанут против их создателей, подобно их прототипам в художественных сценариях.

Мнение об угрозе искусственного интеллекта Стивен Хокинг также высказывал ходе видеоконференции в Пекине, состоявшейся в рамках Глобальной конференции мобильного интернета в апреле 2017 года.

«Развитие искусственного интеллекта может стать как наиболее позитивным, так и самым страшным фактором для человечества. Мы должны осознавать опасность, которую он собой представляет, — отмечал он.[1]»

По словам Хокинга, новейшие технологии могут привести к деградации человека, сделать его совершенно беспомощным перед лицом природы. Он добавил, что в условиях естественной эволюции и борьбы за выживание это означает верную гибель.

В то же время ученый отметил, что при умелом подходе искусственный интеллект способен решить большинство проблем, которые существуют в мире.

«Впрочем, я считаю, что это вовсе не обязательно произойдет, — резюмировал Хокинг.»

Основатель Starmind и президент инициативы по разработке синтетического интеллекта Mindfire Foundation Паскаль Кауфман (Pascal Kaufmann) отрицает вероятность превращения ИИ в настоящую угрозу, но не исключает опасность полностью:

«Есть опасности, вытекающие из создания столь мощной и всезнающей технологии, как они всегда есть в связи с чем-либо мощным. Это не означает, что мы должны предположить самое худшее, и принимать потенциально невыгодные решения, основанные на этом страхе, — заявил Кауфман.[2]»

Добавить комментарий