Искусственный интеллект и этика: эксперты оценили проект нового кодекса
Стремительное развитие технологии искусственного интеллекта и его повсеместное внедрение в различные сферы общества обостряют определенные вопросы в отношении применения данной технологии.
При этом понимание того, что развитие искусственного интеллекта и его внедрение сопряжено с необходимостью адаптации нормативного регулирования было обозначено уже несколько лет назад – так, выработка этических норм заявлена одним из пунктов программы "Национальная стратегия развития искусственного интеллекта на период до 2030 года" (п. 48 Указа Президента РФ от 10 октября 2019 г. № 490 "О развитии искусственного интеллекта в Российской Федерации"; далее – Указа Президента РФ № 480). При этом в документе отмечено, что в целях аналитической поддержки стратегии проводятся научные исследования, направленные на прогнозирование этических аспектов использования технологий искусственного интеллекта – результаты таких исследований должны учитываться при принятии управленческих решений (п. 57 Указа Президента РФ № 480).
Другим важным документом, регламентирующим необходимость урегулирования этических аспектов применения искусственного интеллекта, стала "Концепция развития регулирования отношений в сфере технологий искусственного интеллекта и робототехники на период до 2024 г.". В подзаконном акте расширение применения инструментов регулирования, а также формирование кодексов этических правил разработки, внедрения и применения технологий искусственного интеллекта определяется как одна из ключевых целей Концепции (Распоряжение Правительства РФ от 19 августа 2020 г. № 2129-р).
Для решения соответствующей задачи в рамках исполнения Указа президента было принято решение разработать Национальный кодекс этики в сфере искусственного интеллекта (далее – кодекс), который подготовлен совместно Аналитическим центром при Правительстве РФ, Министерством экономики и развития РФ и Альянсом в сфере искусственного интеллекта, при участии представителей государства и научного сообщества. Последний представляет собой объединение ведущих технологических компаний для внедрения искусственного интеллекта в различные сферы общественной жизни. На момент написания материала в альянсе состояли Яндекс, МТС, Mail.ru Group, Сбербанк, Газпром и Российский фонд прямых инвестиций1. В июле Правительство РФ утвердило правила предоставления субсидии для Аналитического центра в целях поддержки исследовательских центров в сфере искусственного интеллекта, в том числе в области этических аспектов применения искусственного интеллекта" (Постановление Правительства РФ от 5 июля 2021 г. № 1120). Проект кодекса этики для искусственного интеллекта экспертное сообщество обсуждает на различных площадках, в том числе, на государственном уровне.
Что такое искусственный интеллект?
Понятие искусственного интеллекта определено в Национальной стратегии развития искусственного интеллекта на период до 2030 года как комплекс технологических решений, позволяющий имитировать когнитивные функции человека и получать при выполнении конкретных задач результаты, сопоставимые, как минимум, с результатами интеллектуальной деятельности человека (п. 5 Указа Президента РФ № 480). К таким функциям относятся, например, самообучение и поиск решений без заранее заданного алгоритма. В данной стратегии в качестве технологий, которые основаны на использовании искусственного интеллекта, приводятся в пример компьютерное зрение, обработка естественного языка, распознавания и синтез речи, интеллектуальная поддержка принятия решений (п. 5 Указа Президента РФ № 480).
Зачем нужен кодекс этики в сфере искусственного интеллекта?
Как заметил Председатель совета директоров некоммерческого фонда "Центр содействия законотворчеству", д. ю. н., профессор Вадим Виноградов в ходе круглого стола на площадке Общественной палаты РФ, информационные технологии, применяющиеся на данный момент, относятся к слабому искусственному интеллекту. Однако, скорость его эволюции позволяет судить о том, что процесс перехода к сильному искусственному интеллекту возможен в ближайшем будущем. При этом сложно представить в полной мере, на какие области будет распространено его влияние – однако рамки его применения будут распространяться на сложные для этического анализа сферы, например, военную. В такой ситуации разработка определенных этических норм по созданию и использованию искусственного интеллекта выступает необходимостью, уверен эксперт.
Как отмечает один из разработчиков кодекса, директор по развитию технологий искусственного интеллекта ООО "Яндекс"Александр Крайнов, в отношении искусственного интеллекта распространено большое количество заблуждений, причем некоторые из них переоценивают технологию, другие – недооценивают. Основная причина заключается в том, что у человека, не обладающим специальными знаниями в области информационных технологий, восприятие принципа функционирования искусственного интеллекта формируется на основании массовой культуры, СМИ и рассказов со стороны представителей ИТ-компаний, которые в некоторых случаях преукрашают свою деятельность. Такое восприятие зачастую создает недоверие к искусственному интеллекту, формируя ложные убеждения об опасности использования технологии. Эксперт объяснил, что искусственный интеллект представляет собой набор математических методов и решений на их базе, где каждое конкретное решение применяется для конкретной узкой задачи. Количество задач, которые решаются данным способом, стремительно растет.
При этом заложенная в технологии искусственного интеллекта задача распространяется на большое количество людей, в связи с чем масштаб потенциальной ошибки в значительной степени увеличивается. Этические нормы выступают неким сдерживающим механизмом для применения искусственного интеллекта, который выступает "мягким" регулированием в отсутствии законодательного аппарата, заключил Александр Крайнов. При этом разработанный документ не является законом, его формулировки норм носят рекомендательный характер. Кодекс этики искусственного интеллекта также должен помочь сомневающимся людям обозначить основные принципы внедрения и использования технологии в повседневной жизни.
Ранее упомянутая Концепция развития регулирования отношений в сфере технологий искусственного интеллекта и робототехники до 2024 года содержит упоминание о том, что развитие технологий искусственного интеллекта должно основываться "на базовых этических нормах" (Распоряжение Правительства РФ от 19 августа 2020 г. № 2129-р). Документ относит к ним:
- приоритет благополучия и безопасности человека, защиты его основополагающих прав и свобод;
- подконтрольность человеку;
- проектируемое соответствие закону (в том числе, требованиям безопасности);
- недопущения противоправной манипуляции.
При этом приведенные примеры базовых этических норм носят расплывчатые формулировки, которые могут затруднять понимание, каким образом следует внедрять искусственный интеллект с соблюдением этических требований. Концепция в значительной степени конкретизирует принципы, что может поспособствовать четче обозначить механизм внедрения принципов и их распространение на деятельность ИТ-компаний.
Как отметил управляющий директор центра регулирования искусственного интеллекта Сбербанка Андрей Незнамов, несмотря на наличие других подобных кодексов в других странах – эксперт продемонстрировал примеры более 10 стран – представленный проект является уникальным. Авторы учитывали практические кейсы использования искусственного интеллекта на практике, которые можно использовать как подсказку для акторов в сфере искусственного интеллекта.
Регулирование этических проблем искусственного интеллекта в мире
Внушительное число стран предпринимали попытки выработать, систематизировать, упорядочить этические нормы по использованию технологий искусственного интеллекта. Андрей Незнамов представил список наиболее распространенных принципов искусственного интеллекта, принятых в мире. Эксперт выделил следующие:
- Справедливость (включая недискриминацию, непредвзятость, равенство и т. д.);
- Прозрачность (например, прозрачность использования данных, дата сетов, обработки информации);
- Ответственность (контролируемость, подотчетность, возмещение вреда, ответственное отношение);
- Безопасность – невозможность причинения умышленного вреда;
- Конфиденциальность (в том числе, неприкосновенность частной жизни и защиту персональных данных).
Вначале соответствующие идеи нашли свое отражение в частных декларациях – эксперт приводит в качестве примера крупного документа Азиломарские принципы искусственного интеллекта, разработанные и принятые в ходе конференции разработчиков в 2017 году. В последствие такие принципы начали находить свое отражение в качестве корпоративных норм различных компаний, деятельность которых сопряжена с разработкой искусственного интеллекта.
Так, например, ряд крупных ИТ-компаний разработали собственные кодексы по использованию искусственного интеллекта, в которых обозначили свою позицию по вопросам этической составляющей такой эксплуатации – подобные документы есть, например, у IBM, Bosch, Сбера, отметил Вадим Виноградов. По статистике Андрея Незнамова, на данный момент корпоративные нормы в сфере искусственного интеллекта имеют около 35 мировых компаний-разработчиков. Несмотря на то, что мораль и нравственность представляют собой регулятор, отличный от нормативных актов, стал появляться ряд национальных инициатив по урегулированию этических норм искусственного интеллекта. И, наконец, существуют наднациональные инициативы, яркий пример – проект рекомендаций по этике искусственного интеллекта ЮНЕСКО.
Ключевые положения кодекса
Планируется, что кодекс будет включать четыре раздела:
- Общие положения – назначение и цели, нормативные основания и правовая природа кодекса, круг действия и термины;
- Общие этические принципы/ценности поведения акторов искусственного интеллекта;
- Этические стандарты поведения акторов в сфере искусственного интеллекта;
- Механизмы реализации кодекса.
Согласно положениям документа, к общим этическим принципам относится человекоцентричный и гуманистический подход – технологии искусственного интеллекта должны использоваться во благо человека. Также, согласно Концепции, к таким принципам относится риск-ориентированный подход, согласно которому уровень внимания к этическим вопросом сопоставим с оценкой уровня потенциального риска от внедрения и использования искусственного интеллекта. Важную часть занимает принцип предосторожности, в соответствии с которым актором искусственного интеллекта должны быть предприняты меры по предотвращению вреда от их деятельности. Не последнее по важности место занимает принцип ответственного отношения к вопросам влияния систем искусственного интеллекта на общество в целом и на граждан в частности.
В документе отдельно прописаны конкретные точечные нормы по этическим стандартам поведения акторов в сфере искусственного интеллекта, среди которых:
- действовать ответственно и добросовестно;
- соблюдать интересы общества и граждан – права и свободы человека, уважение автономии воли человека;
- проявлять профессионализм и компетентность, включая обеспечение стимулирования развития искусственного интеллекта, сотрудничество разработчиков, ориентируясь при этом на положения законодательства РФ;
- содействовать доверию общества к технологиям искусственного интеллекта в интересах устойчивого развития, в том числе предоставляя пользователю достоверную информацию о допустимых областях применения искусственного интеллекта.
Примечательно, что в документе есть положение об обязанности акторов принимать меры в целях обеспечения недискриминации и непричинения вреда. При этом, согласно положениям документа, не допускается передача полномочий ответственного нравственного выбора системам искусственного интеллекта. Таким образом, принятие важных морально-этических решений доверить искусственному интеллекту экспертное сообщество не готово.
Как отмечает Андрей Незнамов, авторы кодекса предусмотрели все наиболее прогрессивные механизмы реализации кодекса. Так, рекомендуется проводить оценку рисков применения систем искусственного интеллекта. Предлагается также использовать институт уполномоченных пор этике искусственного интеллекта или формировать коллегиальные отраслевые органы (например, комиссию по этике). Важным механизмом составители кодекса считают создание свода наилучших практик решения возникающих этических вопросов при эксплуатации систем искусственного интеллекта. При этом авторы отдельно отметили, что положения кодекса должны быть пересмотрены с учетом развития технологий искусственного интеллекта.
Обобщая положения кодекса до краткой версии, авторы представили следующий список принципов этики искусственного интеллекта:
- Основной приоритет развития технологии искусственного интеллекта – защита интересов людей в целом и человека в частности;
- Осознание ответственность при создании и эксплуатации искусственного интеллекта, учитывая масштаб применения технологии и ее значимости;
- Ответственность за последствия применения искусственного интеллекта всегда лежит на человеке;
- Технологии искусственного интеллекта следует внедрять там, где это принесет пользу людям;
- Интересы совершенствования технологий искусственного интеллекта выше интересов конкуренции;
- Прозрачность и правдивость в информировании о рисках, успехах и неудачах уровня развития искусственного интеллекта;
- Технологии искусственного интеллекта и этика искусственного интеллекта находятся вне границ;
- Принципы этики развиваются по мере развития технологий.
Предложения по совершенствованию кодекса
Одно из наиболее значимых положений, которые следует закрепить в кодексе, должно содержать предложения по устранению дефицита инфраструктуры, считает заместитель декана по научной работе факультета права НИУ ВШЭ, д. ю. н. Александр Ларичев. Несмотря на то, что этот принцип не является этическим напрямую, он может являться своеобразным руководством к действию акторов, участвующих в процессе модернизации искусственного интеллекта напрямую, уверен эксперт.
Проблема в том, что у регионов России отсутствуют равные возможности технологического развития. Также эксперт считает важным отразить в положениях кодекса принцип отсутствия предвзятости по социально-технологической предвзятости. По его мнению, следует также уточнить требование о необходимости способствовать достижению цели в области устойчивого развития, добавив положения о процессе осуществления достижения такой цели.
Как отметил Александр Крайнов, инфраструктура для искусственного интеллекта создается не территориально, при этом вопросы инфраструктуры регулируют другие документы, в то время, как одной из целью кодекса было закрепление норм, которые не были освещены в других документах.
Эксперт в том числе заметил, что в рекомендациях ЮНЕСКО право человека знать, какие решения принимаются с использованием алгоритмов искусственного интеллекта, в то время как в положениях кодекса это право носит формулировку разумно-применимого. С коллегой согласен Александр Журавлев, председатель Комиссии по правовому обеспечению цифровой экономики Московского отделения Ассоциации юристов России, который назвал вопрос прозрачности деятельности алгоритма искусственного интеллекта принципиально важным. Он считает, что в кодекс важно заложить условие о том, что искусственный интеллект должен выступать в качестве помощника, поддержкой в принятии решений.
Это относится к ключевым отраслям, где вопросы морально-этического выбора стоят наиболее остро – например, финансовая сфера, судопроизводство (в особенности, уголовное), трудоустройство. Более того, следует добавить порядок обжалования решений, когда у человека возникает сомнение в отношении того, принимала ли система решение по важному вопросу самостоятельно или нет.
При этом Александр Крайнов возразил: соответствующее положение кодекс содержит – обеспечить возможность отмены человеком или предотвращения принятия юридически значимых решений. При этом на практике человек при постоянном взаимодействии с алгоритмом искусственного интеллекта склонен в конечном счета соглашаться с результатами анализа системы, в связи с чем включение предлагаемого экспертами положения на практике проблему не решит.
По мнению Вадима Виноградова, одним из основных факторов, который следует учитывать при разработке кодекса этики искусственного интеллекта, это четкая формулировка понятий и норм. Эксперт считает, что в тексте такого документа следует избегать расплывчатых словесных конструкций – так, например, сохраняется возможность множественной трактовки фраз "сохранение нравственных и духовных ценностей" и "общепринятые этические нормы". Он также считает, что кодекс должен быть составлен с использованием упрощенного стиля, так как конечный адресат документа не будет иметь специальных познаний в области юриспруденции.
Заведующий лабораторией анализа данных правоприменения ВШЭ Григорий Красноженов предложил уточнить, для какого типа искусственного интеллекта разрабатывается кодекс. Эксперт считает, что так, как на текущем уровне технологического развития документ рассчитан на системы искусственного интеллекта с некоторой степенью автономности. Также, по мнению эксперта, в кодексе следует подчеркнуть, что акторами являются люди, а не машины, а также уточнить их перечень.
Михаил Якушев, заместитель директора Института права цифровой среды факультета права НИУ ВШЭ, считает, что так как документ носит рекомендательный характер, его стиль должен соответствовать заданной формуле. Так, например, эксперт считает, что включение норм об ответственности за нарушение принципов этики искусственного интеллекта, неуместны. Эксперт также предложил не ограничивать распространение кодекса исключительно на гражданскую сферу, а относить его положения также к военной сфере.
***
Необходимость в создании Национального проекта кодекса в сфере регулирования этических проблем разработки и эксплуатации искусственного интеллекта назрела давно. Эксперты в области юриспруденции и искусственного интеллекта провели масштабную работу по выработке кодекса. Как неоднократно подчеркивают авторы, кодекс не будет носить общеобязательный характер, выступая скорее примером "мягкого" права, когда нормы представляют собой рекомендации для государственных органов и компаний, использующих системы искусственного интеллекта.
На момент написания материала кодекс этики не был опубликован, содержание документа в его текущем виде предоставлены для оценки экспертам и представителям государственной власти. По словам авторов документа, по предварительным данным кодекс будет рассмотрен на уровне Правительства РФ к концу октября-началу ноября текущего года.
Источник: garant.ru