23 принципа искусственного интеллекта

Созданный в 2014 году Институт будущего жизни (Future of Life Institute, FLI)— исследовательская и просветительская организация, функционирующая на общественных началах и изучающая риски, которым подвергается человечество, в особенности те, которые связаны с прогрессом в области искусственного интеллекта (ИИ). В числе основателей института — космолог Макс Тегмарк и один из главных разработчиков Skype Яан Таллинн, в его консультативный совет входят генетик Джордж Чёрч, физик Стивен Хокинг, предприниматель Илон Маск и многие другие выдающиеся деятели современной науки и техники. В январе 2017 года FLI провел мастерскую и конференцию «Полезный ИИ» (Beneficial AI), важнейшим итогом которой стали принципы ИИ, названные, по национальному парку Асиломар, где проходила конференция, асиломарскими.

Перечню принципов предпослано краткое вступление: «Искусственный интеллект уже дал людям всего мира ряд полезных инструментов, применяемых ими в повседневной жизни. Его дальнейшее развитие в будущие годы и столетия, направляемое следующими принципами, откроет невероятные перспективы помощи людям и расширения их возможностей».

Научные исследования

Цель исследований: целью исследований в сфере ИИ должно быть создание не безадресного разума, а полезного разума.

Финансирование исследований: инвестиции в ИИ должны сопровождаться финансированием исследований, направленных на обеспечение его полезного применения, в том числе для решения острых животрепещущих вопросов информатики, экономики, юриспруденции, этики, социологии, например:

как нам сделать будущие ИИ-системы высоконадежными, чтобы они делали то, что нам требуется, никогда не ломались и не были подвержены взлому?

как нам с помощью автоматизации повысить свое благосостояние, сохранив за людьми ресурсы и возможность целесообразной деятельности?

как нам изменить наши законодательные системы в сторону большей справедливости и эффективности, чтобы они шли в ногу с развитием ИИ, и как управлять рисками, связанными с ИИ?

в соответствии с какими ценностями необходимо строить ИИ, и каким правовым и этическим статусом он должен обладать?

Связь науки и политики: между разработчиками ИИ и государственными деятелями, определяющими политику своих стран, должен происходить здоровый конструктивный обмен информацией.

Культура научно-исследовательской деятельности: в среде исследователей и разработчиков ИИ должна поддерживаться культура сотрудничества, взаимного доверия и прозрачности.

Отказ от гонки: командам, разрабатывающим ИИ-системы, следует активно сотрудничать друг с другом, — это поможет им не «срезать углы», жертвуя стандартами безопасности.

Этика и ценности

Безопасность: ИИ-системы должны быть надежными и безопасными в течение всего срока службы, и эти их качества должны быть верифицируемыми везде, где такая верификация применима и осуществима.

Технологическая прозрачность: если ИИ-система причинит вред, должна быть возможность установить причину.

Правовая прозрачность: при участии автономной системы в принятии судебных решений всякое ее предложение должно снабжаться удовлетворительным объяснением, которое может быть проверено компетентным уполномоченным человеком.

Ответственность: моральная ответственность за функционирование передовых ИИ-систем и последствия пользования (а также злоупотребления) ими лежит на их проектировщиках и создателях, которые обязаны — и имеют возможность — продумать эти последствия.

Соответствие ценностей: при разработке ИИ-систем с высокой степенью автономности необходимо гарантировать соответствие их задач, а также поведения в процессе функционирования, человеческим ценностям.

Человеческие ценности: проектирование и эксплуатация ИИ-систем должны быть совместимы с идеалами человеческого достоинства, прав, свобод и культурного многообразия.

Неприкосновенность частной жизни: человек, предоставляющий ИИ-системе полномочия для анализа и использования сгенерированных им данных, должен иметь доступ к этим данным, право ими распоряжаться и их контролировать.

Свобода и неприкосновенность: применение ИИ для обработки персональных данных не должно приводить к неправомерному ограничению реальной или воспринимаемой свободы людей.

Общее благо: технологии ИИ должны приносить пользу и новые возможности максимальному количеству людей.

Общий успех: экономическим процветанием, создаваемым благодаря ИИ, необходимо широко делиться, чтобы пользу получило все человечество.

Человеческий контроль: людям принадлежит выбор, делегировать ли ИИ-системе принятие решения для достижения целей, выбранных людьми, и если да, то как именно делегировать.

Неподавление: власть, контролирующая самые передовые ИИ-системы, должна с уважением относиться к социальной и гражданской активности, от которой зависит здоровье общества, и не подавлять ее, а заботиться о ее совершенствовании.

Гонка ИИ-вооружений: необходимо избежать гонки в создании автономных систем вооружения смертельного действия.

Вопросы на дальнейшую перспективу

Осторожность в отношении возможностей: поскольку на данный счет нет единого мнения, следует воздерживаться от категорических суждений касательно потолка возможностей будущих ИИ-систем.

Значение: передовые ИИ-системы, возможно, привнесут фундаментальное изменение в историю жизни на Земле, поэтому необходимо обращать соответствующее внимание и выделять достаточные ресурсы на планирование таких систем и управление ими.

Риски: необходимо направить усилия, соразмерные ожидаемому эффекту, на прогнозирование и предотвращение угроз, — особенно катастрофических и экзистенциальных, — исходящих от ИИ-систем.

Рекурсивное самосовершенствование: необходимо поставить под жесткий контроль развитие самосовершенствующихся и самовоспроизводящихся ИИ-систем, способное привести к их быстрому качественному или количественному росту.

Общее благо: суперинтеллект должен разрабатываться лишь на службе всеобщих этических идеалов и на благо всего человечества, а не отдельного государства или организации.

Документ открыт для подписания, и на данный момент его подписали уже более тысячи исследователей, непосредственно занимающихся вопросами ИИ и робототехники, и более двух тысяч других специалистов. Это, конечно, ничтожно мало по сравнению с количеством тех, кому знакомы Три закона роботехники, но инициатива ширится.