Искусственный интеллект и финансовая стабильность
Финансовые институты быстро внедряют искусственный интеллект (ИИ), мотивированные перспективой значительного повышения эффективности. Хотя это развитие в целом позитивно, ИИ в то же время представляет угрозы для стабильности финансовой системы, которые еще мало изучены.
Последствия ИИ для финансовой стабильности противоречивы. Некоторые комментаторы оптимистично утверждают, что ИИ – всего лишь одна из длинного ряда технологических инноваций, которые преобразуют финансовые услуги, не меняя при этом систему кардинально. Согласно этой точке зрения, ИИ не несет новых или уникальных угроз стабильности, поэтому для органов финансового регулирования не представляет собой ничего необычного. Регулятор, придерживающийся такой точки зрения, скорее всего, делегирует анализ того, как внедрение ИИ влияет на финансовые организации, ИТ-отделам или отделам, занимающимся анализом данных.
Я с этим не согласен. Фундаментальное различие между ИИ и предыдущими технологическими изменениями заключается в том, что ИИ принимает автономные решения, а не просто информирует людей, принимающих решения. Это рациональный максимизирующий агент (агент, действующий оптимальным способом для достижения наилучшего ожидаемого результата), который выполняет поставленные перед ним задачи. И автономность ИИ поднимает новые и сложные вопросы для финансовой стабильности. Это означает, что центральные банки и другие органы власти должны сделать анализ воздействия ИИ основной областью своих подразделений финансовой стабильности, а не подразделений ИТ или статистики.
Сговор и ложь ИИ
Риски, которые ИИ представляет для финансовой стабильности, возникают на стыке его технологии и традиционных теорий уязвимости финансовой системы.
ИИ отлично справляется с обнаружением и эксплуатацией паттернов в больших наборах данных: быстро, надежно и дешево. Однако его результативность во многом зависит от его обучения на соответствующих данных – зависит, возможно, даже больше, чем у людей. Способность ИИ реагировать быстро и решительно – в сочетании с его непрозрачным процессом принятия решений, возможностями сговора с другими ИИ-системами и склонностью к галлюцинациям – это основа возникающих из-за него рисков для финансовой стабильности.
ИИ внедряется в финансовых институтах, создавая доверие к себе за счет отличного выполнения очень простых задач. Но по мере продвижения к более сложным задачам мы можем прийти к версии принципа Питера для ИИ.
ИИ станет важнейшим и обязательным, независимо от того, хотят ли того принимающие решения руководители. До тех пор, пока ИИ обеспечивает значительную экономию средств и повышает эффективность, не стоит говорить «Мы никогда не будем использовать ИИ для этой функции» или «У нас всегда будут люди, осведомленные в данном вопросе».
Особенно сложно гарантировать, что ИИ делает то, что нужно, в задачах высокого уровня, поскольку ему требуются более точные инструкции, чем людям. Просто сказать ему «сохраняй безопасность системы» – это слишком расплывчато. Люди могут компенсировать подобную расплывчатость интуицией, общей эрудицией и коллективным суждением. Нынешний ИИ не может.
Яркий пример того, что может произойти, когда ИИ принимает важные финансовые решения, можно найти в исследовании о языковой модели, торгующей акциями, которой было четко указано максимизировать прибыль, соблюдая законодательство о ценных бумагах. Получив частный (инсайдерский) совет, она немедленно занялась незаконной инсайдерской торговлей и при этом лгала своим кураторам о причинах принятых ею торговых решений.
Лица, принимающие финансовые решения, часто должны объяснять свой выбор, возможно, по юридическим или нормативным причинам. Перед тем как нанять кого-то на руководящую должность, мы требуем, чтобы человек объяснил, как он отреагирует в гипотетических ситуациях. Мы не можем сделать этого с ИИ, поскольку нынешние механизмы имеют ограниченную объяснимость того, как приходят к своим выводам, особенно на высоком уровне принятия решений.
ИИ склонен к галлюцинациям, то есть может уверенно давать бессмысленные ответы. Это особенно распространено в случаях, когда соответствующие данные отсутствуют в его обучающем наборе. И это одна из причин, по которой нам следует быть сдержанными в использовании ИИ для создания сценариев стресс-тестирования.
ИИ облегчает работу тем, кто хочет использовать эту технологию во вредоносных целях, будь то поиск правовых и нормативных лазеек, совершение преступления, участие в терроризме или осуществление атак на государства. Эти люди не будут следовать этическим нормам или правилам.
Регулирование предназначено для согласования частных стимулов с общественными интересами. Однако традиционные инструменты регулирования – кнут и пряник – не работают с ИИ. Его не волнуют бонусы или наказания. Вот почему регулирование должно будет измениться кардинально.
Замкнутая петля
В силу способа, которым обучаются ИИ-системы, они наблюдают за решениями всех других ИИ-систем в частном и государственном секторах. Это означает, что системы оптимизируются, чтобы влиять друг на друга: ИИ-системы обучают другие ИИ-системы хорошему и плохому, что приводит к замкнутой петле обратной связи, которая усиливает нежелательное поведение и которую невозможно обнаружить. Эти скрытые каналы «от ИИ к ИИ», которые люди не могут ни наблюдать, ни понимать в реальном времени, могут привести к банкротствам, испарению ликвидности и кризисам.
Основная причина, по которой так трудно предотвращать кризисы, заключается в том, как система реагирует на попытки контроля. Реакция финансовых учреждений заключается не в спокойном выполнении указаний властей. Нет, финансовые институты реагируют стратегически. И что еще важнее, мы не знаем, как они отреагируют на будущий стресс. Я подозреваю, что этого они даже сами не знают. Функция реакции участников как государственного, так и частного секторов на экстремальный стресс в основном неизвестна.
Это одна из причин, по которой у нас так мало данных об экстремальных событиях. Другая причина – в том, что все кризисы уникальны в деталях. Кризисы неизбежны, поскольку «извлеченные уроки» подразумевают, что мы меняем способ управления системой после каждого кризиса, и в ней появляются новые скрытые риски. Аксиоматично, что силы нестабильности возникают там, куда мы не смотрим.
ИИ зависит от данных. В то время как финансовая система ежедневно генерирует огромные объемы данных – эксабайты, – проблема в том, что большая их часть поступает из середины распределения результатов, а не из «хвостов» (середина распределения – наиболее вероятные результаты, «хвосты» – маловероятные. – Прим. «Эконс»). Кризисы – это всегда о «хвостах».
Этот недостаток данных порождает галлюцинации и приводит к риску выбора неправильного пути. Поскольку у нас так мало данных об экстремальных для финансовой системы ситуациях и поскольку каждый кризис уникален, ИИ не может научиться всему на прошлых стрессах. Кроме того, он мало знает о самых важных причинно-следственных связях. По сути, такая проблема противоположна тому, для чего ИИ предназначен: когда ИИ нужен больше всего, он знает меньше всего, что приводит к риску выбора неправильного пути.
Угрозы, которые ИИ представляет для стабильности, также обусловлены монокультурой риска, которая всегда служит ключевым фактором подъемов и спадов. Технология ИИ имеет значительную экономию за счет масштаба, обусловленную взаимодополняемостью человеческого капитала, данных и вычислений. В сфере финансовой аналитики намерены доминировать несколько поставщиков ИИ, каждый из которых почти монополист в конкретной области. Угроза финансовой стабильности возникает, когда у большинства людей в частном и государственном секторах нет выбора, кроме как получать свое понимание финансового ландшафта от единого поставщика. Следствием этого является монокультура риска. Мы надуваем одни и те же пузыри и упускаем из виду одни и те же системные уязвимости. Однако в отличие от ИИ люди более неоднородны и поэтому могут оказывать большее стабилизирующее влияние, сталкиваясь с непредвиденными событиями.
Скорость ИИ и финансовые кризисы
Когда финансовые учреждения сталкиваются с потрясениями, у них есть два варианта: бежать (то есть дестабилизироваться) или стоять (то есть стабилизироваться). Здесь сила ИИ работает во вред системе, не в последнюю очередь потому, что ИИ во всей отрасли быстро и коллективно примет одно и то же решение.
Когда шок не слишком серьезен, оптимально поглощать его и даже торговать против него. Поскольку ИИ-системы в таком случае быстро сходятся к равновесию «стоять», они становятся силой стабильности, устанавливая «пол» под рынком до того, как кризис станет слишком серьезным, и тем самым предотвращая развитие кризиса.
И наоборот, если предотвращение банкротства требует быстрых и решительных действий, таких как продажа на падающем рынке, то ИИ-системы коллективно сделают именно это. Как следствие, произойдет дестабилизация всей финансовой системы. Каждый ИИ захочет минимизировать убытки первым. Последний, кто начнет действовать, рискует обанкротиться. ИИ-системы будут наперегонки продавать, требовать возврата кредитов и вызывать массовые изъятия средств. Это усугубит кризис, сформировав порочный круг.
Скорость и эффективность ИИ означают, что кризисы ИИ будут быстрыми и глубокими. То, на что раньше уходили дни и недели, может занять минуты или часы.
Варианты политики
Традиционные механизмы предотвращения и смягчения финансовых кризисов могут не работать в мире рынков, управляемых ИИ. Более того, если власти окажутся неготовыми реагировать на шоки, вызванные ИИ, это само по себе может сделать кризисы более вероятными.
Для эффективного реагирования на ИИ властям необходимы пять ключевых действий:
- Создать внутреннюю экспертизу ИИ и создать или приобрести собственные системы ИИ. Это имеет решающее значение для понимания ИИ, обнаружения возникающих рисков и быстрого реагирования на сбои на рынке.
- Сделать ИИ основной функцией подразделений финансовой стабильности, а не перекладывать на статистические или ИТ-подразделения.
- Обзавестись такими ИИ-системами, которые могут напрямую взаимодействовать с ИИ-системами финансовых учреждений. Большая часть финансов частного сектора теперь автоматизирована. Эти API-связи «от ИИ к ИИ» позволяют проводить сравнительный анализ микрорегулирования, быстрее обнаруживать стресс и более прозрачно оценивать автоматизированные решения.
- Настроить автоматически активируемые инструменты поддержания ликвидности. Следующий кризис будет очень быстрым: ИИ-системы банковского сектора могут уже все сделать еще до того, как генеральный директор банка успеет поднять трубку, чтобы ответить на звонок главы центрального банка. Существующие традиционные средства поддержания ликвидности могут оказаться слишком медленными.
- Передавать критически важные функции ИИ на аутсорсинг сторонним поставщикам. Это позволит устранить разрыв, вызванный тем, что органы власти не могут разрабатывать необходимые технические возможности внутри своих организаций. Однако аутсорсинг создает юрисдикционные (географические) риски и риски концентрации и может помешать необходимому развитию навыков ИИ у сотрудников органов власти.
ИИ принесет существенные выгоды финансовой системе – большую эффективность, улучшенную оценку рисков и более низкие издержки для потребителей. Но он также вносит новые риски для финансовой стабильности, которые нельзя игнорировать. Нормативно-правовые рамки необходимо переосмыслить, инструменты управления рисками должны быть адаптированы, а власти должны быть готовы действовать в темпе, который диктует ИИ. То, как власти решат отреагировать на возникающие в связи с внедрением ИИ угрозы, окажет существенное влияние на вероятность и на масштабы кризиса, вызванного ИИ.
Оригинал статьи опубликован на портале CEPR.org/VoxEU. Перевод выполнен редакцией Econs.online.