Подходы к регулированию искусственного интеллекта во всем мире только начинают формулироваться. В финансовом секторе, где эффективность серьезно зависит от технологий, регуляторам предстоит найти баланс между сдерживанием рисков и созданием условий для развития сектора.
  |   Станислав Короп, Екатерина Лозгачева, Глеб Мараренко

Финансовый сектор вошел в число сфер экономики, в которых технологии ИИ внедряются наиболее активно. При этом степень проникновения ИИ в бизнес-процессы финансовых организаций – одна из самых высоких.

Внедрение ИИ может способствовать росту эффективности бизнеса участников рынка, в том числе за счет снижения издержек, ускорения процессов, обработки больших массивов данных, а также повышения лояльности клиентов благодаря более качественным и таргетированным предложениям продуктов и сервисов.

Как и любые инновации, ИИ наряду с новыми возможностями для финансовых организаций и их клиентов таит в себе и риски. В мире отсутствует единое мнение в отношении рисков, присущих этой технологии. Вместе с тем большинство экспертов склоняется к тому, что риски, характерные для ИИ, во многом схожи с рисками для других технологий. В частности, выделяются риски технологического, экономического, этического характера, риски в сфере данных и информационной безопасности. При этом эксперты отмечают наличие специфичных рисков, связанных с применением технологий ИИ, в особенности генеративного ИИ, который генерирует тексты, изображения, программный код и иной контент.

Единые подходы к регулированию применения ИИ на финансовом рынке в мировой практике еще не выработаны, но регуляторы активно работают над вопросом о том, как, с одной стороны, создать благоприятные условия для того, чтобы рынок воспользовался преимуществами ИИ, и, с другой стороны, ограничить возможные уязвимости. Свои предложения по регулированию ИИ на российском финансовом рынке изложил и Банк России в форме доклада для общественных консультаций.

Преимущества и риски ИИ: как найти баланс?

Развитие инструментов ИИ на финансовом рынке во многом происходит в русле общей траектории совершенствования методов применения ИИ в экономике. В то же время существует и ряд особенностей использования этой технологии в финансовой сфере. Можно отметить несколько основных направлений использования ИИ на финансовом рынке:

  • Скоринг и андеррайтинг. Системы оценки кредитоспособности, управляемые ИИ, могут предлагать моментальные решения, дополняя традиционные методы оценки. Например, анализ оплаты счетов за коммунальные услуги позволяет точнее рассчитать кредитный рейтинг для клиентов, у которых недостаточно кредитной истории.
  • Противодействие мошенничеству. Благодаря способности выявлять нетипичные транзакции, труднозаметные человеку, технологии ИИ позволили вывести процедуры обнаружения фактов мошенничества на новый уровень.
  • Управление инвестиционным портфелем. Алгоритмы ИИ способны быстрее, чем традиционные методы, проводить технический и фундаментальный анализ, прогнозировать доходность инструментов. Это повышает эффективность управления портфелем.
  • Роботы-советники. Такие автоматизированные системы предлагают инвестиционные рекомендации, адаптированные к конкретным обстоятельствам и индивидуальным предпочтениям клиентов финансовых институтов.
  • Упрощение выполнения требований регуляторов (RegTech). Применение ИИ помогает дополнительно настроить системы управления рисками в финансовых организациях, в частности рисками кибербезопасности, и системы противодействия отмыванию денег и финансированию терроризма (ПОД/ФТ). Так, алгоритмы ИИ позволяют идентифицировать аномальное поведение внутренних систем и вредоносные программы и мгновенно реагировать на них.
  • Мониторинг обращений клиентов и урегулирования претензий. ИИ может применяться для классификации поступающих обращений, автоматического считывания и обработки больших массивов текстовых данных.

Риски, характерные для ИИ в финансовом секторе, во многом схожи с рисками для других отраслей экономики, однако и здесь у финансового сектора есть своя специфика.

  • Риски разработки ИИ и искажения работы модели ИИ. Различные факторы, например, такие, как недостаток информации в обучающем наборе данных, ее плохое качество, или резкие изменения в новых поступающих данных могут дестабилизировать работу модели. Если система распознавания лиц обучена исключительно на основе изображений людей определенного пола или возраста, то она с трудом обрабатывает изображения лиц другого пола и возраста. Возможны ошибки и при непосредственной разработке модели ИИ, в том числе ввиду использования неверного программного кода. Даже известен такой феномен, как «галлюцинации» ИИ – когда модель генерирует информацию, которая не соответствует реальности, или создает вымышленные данные, например ссылается на несуществующие документы.
  • Риски аутсорсинга. Организации могут прибегать к решениям ИИ от сторонних поставщиков (в том числе использовать внешние базы данных и облачные вычисления), что может привести к нарушению конфиденциальности данных, сложностям в интерпретации результатов работы ИИ и др.
  • Риски в области данных и информационной безопасности. Это в особенности риски утечки персональных данных пользователей и сведений, составляющих тайну (банковскую, налоговую, страховую и др.), которые могут использоваться для обучения моделей ИИ, а также риски мошеннических атак на системы ИИ.
  • Этические риски и риски нарушения прав потребителей и инвесторов. Машинная логика может серьезно противоречить представлениям человека об этике. Например, системы ИИ могут учитывать при ценообразовании финансовых продуктов и оценке рисков отдельных клиентов дискриминационные факторы, такие как вероисповедание. ИИ служит инструментом для оптимизации прибыли финансовых организаций, анализируя привычки потребления контента, товаров и услуг у определенных целевых групп. Интересы компаний владельцев ИИ могут быть как явно, так и неявно встроены в оптимизационные механизмы ИИ-систем, обучающихся на основе примеров поведения пользователей. Это может, в свою очередь, потенциально вести к нарушению интересов потребителей и инвесторов при предложении финансовых продуктов и услуг.
  • Риски конкуренции. Крупные организации за счет использования ИИ могут усилить свои преимущества, что повысит барьеры для входа на рынок, а также может привести к ограничениям для распространения технологий.
  • Макроэкономические риски и риски финансовой стабильности. Широкое использование ИИ потенциально может повысить процикличность на финансовом рынке: алгоритм автоматизирует процесс, тем самым его ускоряя; аналогично может влиять однотипность используемых алгоритмов.

Подходы к регулированию ИИ: о чем говорит современная практика

Эксперты отмечают, что в ряде юрисдикций ИИ регулируется при помощи сочетания инструментов так называемого «жесткого регулирования» (hard law) – юридически обязательных норм, разрабатываемых законодателями и регуляторами; «мягкого регулирования» (soft law) – рекомендаций и добровольных стандартов, созданных с участием регулятора, и саморегулирования (self-regulation) – стандартов, принципов и кодексов поведения, созданных участниками рынка.

Ряд  экспертов  отмечает, что страны могут делать акценты на различных инструментах регулирования в отношении ИИ, а подходы к регулированию ИИ варьируются в различных юрисдикциях. При этом речь в основном идет о подходах к ИИ в целом, а не отдельно – на финансовом рынке. Можно условно выделить три основных подхода к регулированию ИИ:

  1. В качестве примеров преимущественно ограничительного подхода, ориентированного на регламентацию использования ИИ, введение прямых запретов или ограничений на применение отдельных систем ИИ, рассматриваются Европейский союз и Бразилия.
  2. К гибридному подходу регулирования ИИ можно отнести модели таких стран, как Китай, Канада и США. Он представляет собой сочетание инструментов так называемого «жесткого регулирования», «мягкого регулирования» и саморегулирования на основе риск-ориентированных принципов. Такие принципы предполагают зависимость уровня регуляторных требований от объема и вероятности реализации рисков внедрения технологий ИИ.
  3. «Стимулирующий подход» к регулированию ИИ предполагает применение инструментов «мягкого регулирования» (саморегулирование, этические принципы) и полное отсутствие ограничительных мер в отношении ИИ. К такому типу регулирования близок подход Великобритании и Сингапура.

Стоит также отметить, что на фоне широкого распространения генеративного ИИ регулирование таких моделей становится актуальным вопросом для все большего числа юрисдикций.

Международные организации. Риски, связанные с ИИ, описали и изучают G7, МВФ, Банк международных расчетов и Совет по финансовой стабильности, Совет Безопасности ООН и ОЭСР, создавшая специальную экспертную группу по рискам и подотчетности в области ИИ.

Одним из основополагающих документов являются опубликованные в 2019 г. рекомендации ОЭСР, представляющие собой верхнеуровневые принципы использования ИИ (например – ориентированность на человека, прозрачность и интерпретируемость моделей) и пример «мягкого регулирования», на основе которого многие страны разрабатывают собственные подходы и правила. Также на основе указанных рекомендаций в октябре 2023 г. страны G7 согласовали 11 руководящих принципов (Guiding Principles) для разработчиков передовых систем ИИ (advanced AI systems) и кодекс поведения (Code of Conduct) разработчиков таких систем, применимые и к моделям генеративного ИИ.

Евросоюз. Законопроект ЕС (AI Act) предлагает пропорциональное регулирование систем ИИ на основе риск-ориентированного подхода. Модели ИИ предлагается классифицировать в зависимости от уровня создаваемых ими угроз: неприемлемого, высокого, ограниченного, минимального. К неприемлемому уровню риска отнесено использование ИИ, осуществляющего социальный скоринг и биометрическую идентификацию в режиме реального времени в публичных местах: использование таких технологий ИИ будет запрещено. Тогда как для ИИ с минимальным уровнем риска предусмотрены инструменты «мягкого регулирования», например разработка кодексов этики.

Отдельные требования предполагается ввести для операторов систем генеративного ИИ, которые должны будут раскрывать информацию о применении ИИ при создании контента и использовании обучающих данных, защищенных авторским правом, а также обучать и проектировать модели ИИ для предотвращения генерирования незаконного контента.

Наряду с развитием общеотраслевого законодательства финансовые регуляторы ЕС также формируют подходы к регулированию ИИ на финансовом рынке, которые в основном сводятся к мягкому регулированию. В основном это руководства и рекомендации в отношении подходов к работе с данными и моделями, управления рисками, защиты прав потребителей, соблюдения этических принципов и др. В частности, к таким примерам можно отнести документы Франции, Нидерландов, Германии, Европейской службы банковского надзора.

Бразилия. На рассмотрении Сената Бразилии находится законопроект об использовании ИИ, во многом аналогичный законопроекту ЕС. Он тоже запрещает социальный скоринг и биометрическую идентификацию при помощи ИИ в общественных местах. Системы ИИ с высоким уровнем риска (кредитный скоринг, автономные транспортные средства, использование решений ИИ в медицине, образовании) должны отвечать дополнительным требованиям надежности и объяснимости.

Китай. Здесь принимаются законы, направленные на регулирование отдельных случаев использования ИИ. Так, в 2022 г. в Китае был введен запрет на использование алгоритмов, анализирующих привычки, предпочтения, транзакции и иные данные потребителей, а в 2023 г. запрещена публикация контента, созданного ИИ, без специальной маркировки.

Кроме того, в августе 2023 г. в Китае вступило в силу первое в мире руководство по регулированию генеративного ИИ. Таким алгоритмам запрещено генерировать контент, направленный на подрыв государственной власти и связанный с пропагандой терроризма, межнациональной вражды, а также содержащий недостоверную информацию. Поставщики решений генеративного ИИ обязаны выполнять ряд требований: 1) обучающие данные должны иметь законное происхождение; 2) ИИ не должен нарушать права лиц на объекты интеллектуальной собственности; 3) при использовании персональных данных для обучения ИИ необходимо согласие лица на их обработку; 4) поставщики ИИ должны принимать запросы физлиц об исправлении недостоверной информации; 5) контент, созданный ИИ, должен быть маркирован.

Канада. В Канаде в 2022 г. был разработан межотраслевой законопроект С-27 из трех инициатив по защите частной жизни и информации, одной из которых является законопроект об ИИ и данных (AIDA). AIDA содержит требование по обезличиванию данных, используемых ИИ, и устанавливает строгие правила управления рисками для некоторых алгоритмов. Также в Канаде активно применяются механизмы «мягкого регулирования» ИИ на финансовом рынке. В апреле 2023 г. Офис суперинтенданта финансовых учреждений (OSFI) в партнерстве с Институтом глобальных рисков (GRI) основал Форум финансовой индустрии по искусственному интеллекту (FIFAI), куда вошли представители регуляторов, финансовых организаций и исследовательских центров. Форум опубликовал доклад о принципах безопасного и ответственного применения ИИ, к которым, в частности, отнесены объяснимость алгоритмов, качественное управление данными, адекватная структура управления и соответствие этическим принципам.

США. Значимым шагом в направлении регулирования ИИ является опубликованный администрацией президента США в конце октября 2023 г. указ о безопасном, надежном и заслуживающем доверия ИИ, а также опубликованный в конце 2022 г. Билль о правах в эру ИИ (AI Bill of Rights). Последний документ имеет стратегический характер и включает следующие принципы: безопасные и эффективные системы, алгоритмическая защита от дискриминации, конфиденциальность данных, уведомление и объяснение, а также человеческие альтернативы.

В качестве ключевых регуляторных практик на финансовом рынке можно назвать:

  • требование указывать конкретные и обоснованные причины при принятии отрицательных решений в отношении заемщика кредитором, использующим ИИ;
  • рекомендацию для участников финансового рынка постоянно обновлять и тестировать продукты и услуги на основе технологий ИИ.

Великобритания. Департамент науки, инноваций и технологий Великобритании в марте 2023 г. опубликовал доклад «Инновационный подход к регулированию ИИ», где предлагает регулировать использование ИИ, а не саму технологию, и отказаться от разработки отдельных правил или уровней риска для целых секторов и технологий – в этой части доклад противопоставляет себя подходу, предлагаемому в ЕС.

Ранее, в 2022 г., Банк Англии выпустил доклад для общественных консультаций, где описаны выгоды и риски от использования ИИ на финансовом рынке. Доклад не содержит конкретных мер и направлен прежде всего на обсуждение вопроса о достаточности действующего регулирования ИИ на финансовом рынке и целесообразности введения дополнительного.

В Великобритании опубликовано также значимое количество руководств, которые затрагивают вопросы этичного использования ИИ в разных ситуациях и сферах – в публичном секторе, при закупках, при автоматизированном принятии решений и т.д.

Сингапур. Монетарное управление Сингапура в 2018 г. разработало «Принципы справедливости, этики, подотчетности и прозрачности» (FEAT), которые были обновлены в 2019 и 2020 гг. в целях имплементации предложений сингапурской комиссии по защите персональных данных. В частности, нововведения затрагивают вопросы операционного управления, включая формирование отчетности о данных и сведение к минимуму возможных погрешностей; управление взаимоотношениями с клиентами, включая раскрытие информации, прозрачность и объяснимость.

Важный документ, который задает ориентиры политики Сингапура в вопросах права и этики ИИ, – Рамочная модель регулирования ИИ (The Model AI Governance Framework). В части обеспечения добросовестности выделены необходимость защиты от систематического ущемления интересов потребителей, регулярная проверка моделей на корректность работы и исключение систематических ошибок. В 2022 г. в Сингапуре была создана первая в мире система тестирования управления ИИ (AI Verify), в рамках которой разработчики ИИ могут самостоятельно верифицировать соответствие Рамочной модели регулирования ИИ.

Регулирование ИИ в России: что нужно для развития?

По оценкам исследователей Стэнфордского университета, Россия вошла в пятерку стран – лидеров по количеству принятых документов в сфере ИИ. Ключевой из них – Национальная стратегия развития ИИ на период до 2030 г., которая принята в 2019 г. и сейчас находится в процессе актуализации. В рамках этой стратегии правительство России при участии Банка России подготовило и утвердило Концепцию развития регулирования отношений в сфере технологий ИИ и робототехники на период до 2024 г. – один из первых в мире документов, нацеленных на закрепление общеотраслевых направлений и задач, а также принципов регулирования ИИ на национальном уровне. Согласно Концепции, в основе регулирования ИИ в России должны лежать: риск-ориентированный подход; использование инструментов сорегулирования (взаимодействия нескольких регуляторов) и саморегулирования, а также формирование этических правил разработки и применения ИИ.

Действующее российское регулирование финансового рынка в ряде случаев уже устанавливает требования к применению различных моделей, в том числе основанных на технологиях традиционного ИИ, в деятельности финансовых организаций. Например, в банковской сфере установлены требования к валидации банковских моделей оценки рисков и к управлению кредитными организациями операционными, в том числе модельными рисками, в инвестиционной сфере предусмотрена специальная процедура аккредитации программ, предоставляющих индивидуальные инвестиционные рекомендации.

Широкое распространение использования генеративного ИИ и расширение сфер использования технологии ИИ в целом на финансовом рынке могут быть сопряжены с появлением новых, специфических для данной технологии рисков, требующих дополнительного анализа и оценки.

При этом при определении подходов к регулированию применения ИИ на финансовом рынке важно исходить из баланса между созданием условий, необходимых для развития технологий ИИ, и обеспечения достаточного уровня контроля рисков его использования. Представляется, что в основе этого баланса может быть одновременное создание условий, стимулирующих развитие ИИ на финансовом рынке, и систематический углубленный мониторинг регулятором специфических рисков применения ИИ на основе принципа риск-ориентированности.