Влияние искусственного интеллекта: - риск для развития человеческой цивилизации
- Информация о материале
- Категория: ИТ статьи
- Опубликовано: 03.09.2019, 09:56
- Автор: HelpDesk
- Просмотров: 1062
Стивен Хокинг часто высказывается о развитии искусственного интеллекта (ИИ) как о реальной причине возможного уничтожения человеческого рода. Как рассказал ученый в своем интервью изданию Wired в конце ноября 2017 года, он опасается того, что ИИ может в целом заменить людей.
По словам самого Хокинга, люди могут создать слишком мощный искусственный интеллект, который будет чрезвычайно хорош в достижении своих целей. И если эти цели не будут совпадать с человеческими, то у людей будут проблемы, считает ученый.
Множество других крупных ученых и специалистов в области технологий разделяют беспокойство Стивена Хокинга. Например, основатель Tesla Илон Маск (Elon Musk) также озабочен разрушительным потенциалом ИИ. По сравнению с позицией Хокинга, Маск видит ситуацию несколько более спокойно, хотя он и говорил, что ИИ представляет большую потенциальную угрозу, чем Северная Корея. По его мнению, нужно больше сфокусироваться на регулировании развития систем ИИ, который, как и все, потенциально представляющее угрозу для общества, заслуживает по крайней мере правильного осмысления со стороны властей.
Хокинг полагает, что "некая форма мирового правительства" должна контролировать развитие технологий для уверенности в том, что машины не восстанут против их создателей, подобно их прототипам в художественных сценариях.
Мнение об угрозе искусственного интеллекта Стивен Хокинг также высказывал ходе видеоконференции в Пекине, состоявшейся в рамках Глобальной конференции мобильного интернета в апреле 2017 года.
«Развитие искусственного интеллекта может стать как наиболее позитивным, так и самым страшным фактором для человечества. Мы должны осознавать опасность, которую он собой представляет, — отмечал он.[1]»
По словам Хокинга, новейшие технологии могут привести к деградации человека, сделать его совершенно беспомощным перед лицом природы. Он добавил, что в условиях естественной эволюции и борьбы за выживание это означает верную гибель.
В то же время ученый отметил, что при умелом подходе искусственный интеллект способен решить большинство проблем, которые существуют в мире.
«Впрочем, я считаю, что это вовсе не обязательно произойдет, — резюмировал Хокинг.»
Основатель Starmind и президент инициативы по разработке синтетического интеллекта Mindfire Foundation Паскаль Кауфман (Pascal Kaufmann) отрицает вероятность превращения ИИ в настоящую угрозу, но не исключает опасность полностью:
«Есть опасности, вытекающие из создания столь мощной и всезнающей технологии, как они всегда есть в связи с чем-либо мощным. Это не означает, что мы должны предположить самое худшее, и принимать потенциально невыгодные решения, основанные на этом страхе, — заявил Кауфман.[2]»