Искусственный интеллект может либо увеличить частоту и глубину финансовых кризисов, либо содействовать стабилизации финансовой системы. Результат во многом будет зависеть от того, какой способ взаимодействия с искусственным интеллектом выберут финансовые регуляторы.
  |   Джон Дэниелссон, Андреас Утеманн

Использование искусственного интеллекта (ИИ) в финансовой сфере имеет значительный потенциал для увеличения частоты, интенсивности и суровости финансовых кризисов – подробно мы это обсуждали в предыдущей колонке. Но ИИ также способен стабилизировать финансовую систему. В этой, заключительной колонке мы утверждаем, что все зависит от того, как финансовые регуляторы решат взаимодействовать с ИИ.

Предотвращение и сдерживание финансовых кризисов – одна из важнейших и самых нелегких задач для финансовых властей, в том числе центральных банков. Системные финансовые кризисы очень разрушительны и обходятся крупным экономикам в триллионы долларов. Работа макропруденциальных регуляторов становится все труднее, поскольку сложность финансовой системы постоянно растет. Если финансовые регуляторы решат использовать ИИ, он будет для них весьма полезным, поскольку отлично справляется с обработкой огромных объемов данных и управлением сложностью. ИИ может однозначно помочь регуляторам на микроуровне, но столкнуться с трудностями на макроуровне.

Финансовые власти находят взаимодействие с ИИ непростым: им приходится отслеживать и регулировать частные ИИ-системы, одновременно выявляя системные риски. Неудивительно, что многие авторитетные органы изучали ИИ: МВФ, Банк международных расчетов (1, 2), ЕЦБ (1, 2). Однако большая часть опубликованных работ официальных органов фокусируется на поведении ИИ и микропруденциальных проблемах, а не на финансовой стабильности и кризисах. Если финансовые власти хотят оставаться значимыми контролерами финансовой системы, они должны не только регулировать ИИ частного сектора, но и использовать его для своей миссии.

В сравнении с частным сектором финансовые регуляторы находятся в откровенно невыгодном положении, которое усугубляется ИИ: частные финансовые организации имеют больше опыта, доступ к превосходным вычислительным ресурсам и, во все большей степени, к более качественным данным. Механизмы ИИ защищены интеллектуальной собственностью и содержат данные, зачастую находящиеся вне досягаемости регуляторов.

Этот диспаритет затрудняет властям мониторинг и противодействие угрозам, исходящим от ИИ. В худшем случае это может подтолкнуть участников рынка к использованию все более агрессивной тактики, поскольку они знают, что вероятность вмешательства регулирующих органов низка.

К счастью, у властей есть несколько хороших вариантов реагирования, которые мы описываем в своей недавней работе. Это: целевые механизмы постоянного действия; собственные системы ИИ; налаживание связей между ИИ; развитие государственно-частного партнерства.

1. Механизмы постоянного действия.

Из-за того, что ИИ реагирует очень быстро, механизмы дискреционного вмешательства, которые обычно используются центральными банками, могут оказаться слишком медленными во время кризиса.

Поэтому центральным банкам, возможно, придется внедрить механизмы постоянного действия с заранее установленными правилами, что позволит немедленно реагировать на стресс. Такие механизмы могли бы предотвращать некоторые кризисы, вызванные координацией ИИ частного сектора. Например, если частные ИИ знают, что центральные банки вмешаются, когда цены упадут на определенную величину, то механизмы ИИ не будут координировать свои действия по стратегиям, которые будут прибыльны только в том случае, если цены упадут еще больше. Примером могут служить объявления центробанков о краткосрочных процентных ставках – рынки верят, поскольку знают, что регуляторы могут и будут вмешиваться. Таким образом, заявленное становится самосбывающимся пророчеством, даже без фактического вмешательства центральных банков в денежные рынки.

Должна ли такая автоматическая запрограммированная реакция на стресс быть непрозрачной, чтобы предотвратить попытки сыграть на этом и, следовательно, риски недобросовестного поведения? Нет, необязательно. Прозрачность, напротив, может помочь предотвратить нежелательное поведение; и есть много примеров того, как хорошо продуманные прозрачные механизмы способствуют стабильности. Обратной стороной является то, что, если такие заранее объявленные правила будут плохо спроектированы, они позволят играть на этом и, следовательно, повысят моральный риск.

2. ИИ финансовой системы.

Финансовые регуляторы могут разработать свои собственные механизмы ИИ для непосредственного мониторинга всей финансовой системы. Для этого потребуется преодолеть юридические и политические трудности обмена данными – предположим, что это удалось. В этом случае регуляторы смогут использовать значительный объем конфиденциальных данных и таким образом получить комплексное представление о финансовой системе для разработки правил своей реакции на стрессы.

3. Связи между ИИ-системами.

Один из способов воспользоваться преимуществами ИИ финансовой системы, созданного регуляторами, – это разработка инфраструктуры связи между разными ИИ-системами участников рынка. Это позволит механизмам ИИ органов финансового регулирования напрямую взаимодействовать с механизмами ИИ частного сектора и других органов власти. Технологическим требованием будет разработка стандарта связи – набора правил, которые позволяют компьютерным системам, использующим различные технологии, безопасно взаимодействовать друг с другом.

Такая система связей несет несколько преимуществ. Она облегчит регулирование ИИ в частном секторе, помогая контролировать и сравнивать ИИ с заранее установленными нормативными стандартами и передовыми практиками. Каналы связи между системами ИИ будут полезны для приложений финансовой стабильности, таких как стресс-тестирование.

Когда случается кризис, регуляторы могут поручить своему ИИ использовать связи между всеми ИИ-системами рынка для моделирования альтернативных мер реагирования, таких как вливания ликвидности, невмешательство или выкуп проблемных активов, что позволит регулирующим органам принимать более обоснованные решения.

Если такое соглашение о системе связей с «регуляторным ИИ» воспринимается как компетентные и заслуживающие доверия меры, то само наличие подобного механизма может действовать как стабилизирующая сила.

4. Государственно-частное партнерство.

Регуляторам нужен доступ к механизмам ИИ, которые по скорости и сложности соответствуют ИИ частного сектора. Маловероятно, что у них в конечном итоге появятся собственные разработки, поскольку это потребует значительных государственных инвестиций и реорганизации способов работы властей. Вместо этого более вероятен путь партнерства государственного и частного сектора, которое уже стало обычным явлением в финансовом регулировании, например в анализе кредитных рисков, противодействии мошенничеству, борьбе с отмыванием денег и управлении рисками.

У такого ИИ-партнерства есть свои недостатки. Монокультура риска из-за олигополистической структуры рынка ИИ может стать реальной проблемой. Более того, это может помешать властям собирать информацию о процессах принятия решений. Организации частного сектора также предпочитают сохранять за собой право собственности на технологии и не раскрывать их даже властям. Хотя последнее может не быть такой проблемой, как кажется: для оценки механизмов может не требоваться доступ к базовой технологии, а только информация о том, как она реагирует в конкретных случаях.

Проблемы «регуляторного ИИ»

Хотя нет никаких технологических причин, которые мешали бы финансовым властям создавать свои механизмы ИИ и формировать связи между ними и частными ИИ-системами, регуляторы сталкиваются с рядом практических проблем при реализации вышеперечисленных вариантов.

Во-первых, это вопросы данных и проблемы суверенитета. Власти уже борются с доступом к данным, и ситуация, похоже, становится все напряженнее, поскольку технологические компании защищают данные и процессы их измерения с помощью прав интеллектуальной собственности. Кроме того, власти и друг с другом неохотно делятся конфиденциальными данными.

Во-вторых, это вопрос, как бороться с ИИ, вызывающим чрезмерный риск. Приостановка работы такого ИИ, аналогично приостановке торгов при внезапных сбоях, может оказаться нежизнеспособным решением, поскольку может быть неясно, как система будет работать, если ключевой двигатель выключен. Например, внезапная остановка системы ИИ может привести к тому, что сделки и транзакции останутся незавершенными или неопределенными, что приведет к проблемам с ликвидностью и потере доверия среди участников рынка. Кроме того, системы ИИ предназначены для обучения и адаптации к среде, и их сложность и возможность непредсказуемого поведения затруднит разработку «аварийного выключателя», который можно было бы эффективно использовать, не причиняя вреда.

Финансовые регуляторы сейчас находятся на распутье. Если они будут слишком консервативны в своей реакции на ИИ, то существует значительный потенциал того, что ИИ может быть встроен в рынки без адекватного надзора. Следствием может стать увеличение интенсивности, частоты и серьезности финансовых кризисов. Однако более широкое использование ИИ может стабилизировать финансовую систему, снизив вероятность разрушительных кризисов. Это возможно, если регуляторы в вопросе применения ИИ займут проактивную позицию.

Примечание авторов. Любые мнения и выводы, выраженные в этой колонке, принадлежат авторам и не обязательно отражают точку зрения Банка Канады.

Оригинал статьи опубликован на портале CEPR.org/VoxEU. Сокращенный перевод выполнен редакцией Econs.online.