23 принципа искусственного интеллекта
- Информация о материале
- Категория: ИТ статьи
- Опубликовано: 03.09.2019, 10:47
- Автор: HelpDesk
- Просмотров: 926
Созданный в 2014 году Институт будущего жизни (Future of Life Institute, FLI)— исследовательская и просветительская организация, функционирующая на общественных началах и изучающая риски, которым подвергается человечество, в особенности те, которые связаны с прогрессом в области искусственного интеллекта (ИИ). В числе основателей института — космолог Макс Тегмарк и один из главных разработчиков Skype Яан Таллинн, в его консультативный совет входят генетик Джордж Чёрч, физик Стивен Хокинг, предприниматель Илон Маск и многие другие выдающиеся деятели современной науки и техники. В январе 2017 года FLI провел мастерскую и конференцию «Полезный ИИ» (Beneficial AI), важнейшим итогом которой стали принципы ИИ, названные, по национальному парку Асиломар, где проходила конференция, асиломарскими.
Перечню принципов предпослано краткое вступление: «Искусственный интеллект уже дал людям всего мира ряд полезных инструментов, применяемых ими в повседневной жизни. Его дальнейшее развитие в будущие годы и столетия, направляемое следующими принципами, откроет невероятные перспективы помощи людям и расширения их возможностей».
Научные исследования
Цель исследований: целью исследований в сфере ИИ должно быть создание не безадресного разума, а полезного разума.
Финансирование исследований: инвестиции в ИИ должны сопровождаться финансированием исследований, направленных на обеспечение его полезного применения, в том числе для решения острых животрепещущих вопросов информатики, экономики, юриспруденции, этики, социологии, например:
как нам сделать будущие ИИ-системы высоконадежными, чтобы они делали то, что нам требуется, никогда не ломались и не были подвержены взлому?
как нам с помощью автоматизации повысить свое благосостояние, сохранив за людьми ресурсы и возможность целесообразной деятельности?
как нам изменить наши законодательные системы в сторону большей справедливости и эффективности, чтобы они шли в ногу с развитием ИИ, и как управлять рисками, связанными с ИИ?
в соответствии с какими ценностями необходимо строить ИИ, и каким правовым и этическим статусом он должен обладать?
Связь науки и политики: между разработчиками ИИ и государственными деятелями, определяющими политику своих стран, должен происходить здоровый конструктивный обмен информацией.
Культура научно-исследовательской деятельности: в среде исследователей и разработчиков ИИ должна поддерживаться культура сотрудничества, взаимного доверия и прозрачности.
Отказ от гонки: командам, разрабатывающим ИИ-системы, следует активно сотрудничать друг с другом, — это поможет им не «срезать углы», жертвуя стандартами безопасности.
Этика и ценности
Безопасность: ИИ-системы должны быть надежными и безопасными в течение всего срока службы, и эти их качества должны быть верифицируемыми везде, где такая верификация применима и осуществима.
Технологическая прозрачность: если ИИ-система причинит вред, должна быть возможность установить причину.
Правовая прозрачность: при участии автономной системы в принятии судебных решений всякое ее предложение должно снабжаться удовлетворительным объяснением, которое может быть проверено компетентным уполномоченным человеком.
Ответственность: моральная ответственность за функционирование передовых ИИ-систем и последствия пользования (а также злоупотребления) ими лежит на их проектировщиках и создателях, которые обязаны — и имеют возможность — продумать эти последствия.
Соответствие ценностей: при разработке ИИ-систем с высокой степенью автономности необходимо гарантировать соответствие их задач, а также поведения в процессе функционирования, человеческим ценностям.
Человеческие ценности: проектирование и эксплуатация ИИ-систем должны быть совместимы с идеалами человеческого достоинства, прав, свобод и культурного многообразия.
Неприкосновенность частной жизни: человек, предоставляющий ИИ-системе полномочия для анализа и использования сгенерированных им данных, должен иметь доступ к этим данным, право ими распоряжаться и их контролировать.
Свобода и неприкосновенность: применение ИИ для обработки персональных данных не должно приводить к неправомерному ограничению реальной или воспринимаемой свободы людей.
Общее благо: технологии ИИ должны приносить пользу и новые возможности максимальному количеству людей.
Общий успех: экономическим процветанием, создаваемым благодаря ИИ, необходимо широко делиться, чтобы пользу получило все человечество.
Человеческий контроль: людям принадлежит выбор, делегировать ли ИИ-системе принятие решения для достижения целей, выбранных людьми, и если да, то как именно делегировать.
Неподавление: власть, контролирующая самые передовые ИИ-системы, должна с уважением относиться к социальной и гражданской активности, от которой зависит здоровье общества, и не подавлять ее, а заботиться о ее совершенствовании.
Гонка ИИ-вооружений: необходимо избежать гонки в создании автономных систем вооружения смертельного действия.
Вопросы на дальнейшую перспективу
Осторожность в отношении возможностей: поскольку на данный счет нет единого мнения, следует воздерживаться от категорических суждений касательно потолка возможностей будущих ИИ-систем.
Значение: передовые ИИ-системы, возможно, привнесут фундаментальное изменение в историю жизни на Земле, поэтому необходимо обращать соответствующее внимание и выделять достаточные ресурсы на планирование таких систем и управление ими.
Риски: необходимо направить усилия, соразмерные ожидаемому эффекту, на прогнозирование и предотвращение угроз, — особенно катастрофических и экзистенциальных, — исходящих от ИИ-систем.
Рекурсивное самосовершенствование: необходимо поставить под жесткий контроль развитие самосовершенствующихся и самовоспроизводящихся ИИ-систем, способное привести к их быстрому качественному или количественному росту.
Общее благо: суперинтеллект должен разрабатываться лишь на службе всеобщих этических идеалов и на благо всего человечества, а не отдельного государства или организации.
Документ открыт для подписания, и на данный момент его подписали уже более тысячи исследователей, непосредственно занимающихся вопросами ИИ и робототехники, и более двух тысяч других специалистов. Это, конечно, ничтожно мало по сравнению с количеством тех, кому знакомы Три закона роботехники, но инициатива ширится.