Искусственный интеллект хорошо прогнозирует события, заложенные в модели, но беспомощен при реализации непредсказуемого сценария. Со временем он будет выполнять все больше задач центрального банка, но не сможет заменить «человеческое» регулирование без риска для всей системы.
  |   Ирина Рябова Эконс

«У меня есть мечта, – признавался в 2014 г. главный экономист Банка Англии Энди Холдейн. – Она футуристична, но реалистична. Это кресло пилота «Стартрека» и множество мониторов, позволяющих наблюдать за глобальными денежными потоками практически в режиме реального времени». Глобальная структура финансового надзора, о которой мечтает Холдейн, позволила бы сразу фиксировать изменения в финансовой системе, моделировать ситуации и проводить стресс-тесты, моментально обнаруживая приближение к пороговым значениям. Развитие цифровых технологий в какой-то мере приближает регуляторов к исполнению мечты Холдейна, и, возможно, в будущем каждый центральный банк будет иметь своего «Большого Бота». Но возникает вопрос о том, какие из задач регуляторы могут доверить машине, а какие по-прежнему должны оставаться в зоне ответственности человека.

Особенности функционирования искусственного интеллекта, в первую очередь – неумение учитывать в своих прогнозах эндогенные (внутренние) риски системы, ограничивают возможности его использования. «Большой бот» может быть помощником центрального банка, но не способен заменить человеческий интеллект при принятии важных решений, а чрезмерное доверие компьютерному разуму может и вовсе привести к повышению системного риска, выяснили директор Центра системных рисков (Systemic Risk Centre) при Лондонской школе экономики Джон Дэниелссон и его соавторы – научный сотрудник Центра Роберт Макрей и старший экономист департамента финансовых рынков Банка Канады Андреас Утеманн.

Искусственный интеллект как регулятор

Для успешной работы машине требуется четкое обозначение целей и рисков, а также достаточное количество наблюдений, на основе которых можно выявить закономерности и обучаться. В результате искусственный интеллект может справляться с финансовым регулированием на микроуровне, где требуется отслеживать повседневную работу банков, соблюдение ими стандартов и нормативных актов и оценивать текущие риски. Обширная база наблюдений, накопленная регуляторами, облегчает процесс обучения машины для выполнения этой задачи.

Однако работать на макроуровне, что подразумевает долгосрочное прогнозирование системных рисков и обеспечение финансовой стабильности, искусственному интеллекту – как и людям – гораздо сложнее.

Во-первых, для построения отлаженного алгоритма просто не хватает данных: кризисы финансовой системы случаются относительно редко, и определить и понять риски, которые приводят к кризису, нелегко даже человеку.

Во-вторых, те риски, которые легко просчитать, как правило, носят экзогенный характер, то есть возникают в результате воздействия внешних факторов без учета внутренних процессов в системе: например, вероятность падения астероида на лондонский Сити. Большинство применяемых сегодня моделей учитывает именно экзогенные риски, для их распознавания есть большие объемы статистических данных и повторяющихся событий.

Однако поворотные моменты в функционировании финансовой системы, как правило, определяются другими рисками – эндогенными, возникающими вследствие внутренних изменений в системе: например, в момент стресса экономические агенты могут перестать действовать независимо и синхронизировать свое поведение, что еще больше обострит ситуацию. Алгоритм вряд ли справится с предсказанием такого внезапного развития событий. Человек, обладающий опытом, сделает это с большей вероятностью.

Правда, в момент кризиса машина все же очень полезна: в такой ситуации очень важна скорость реакции регулятора на происходящее, и машина освобождает людей, принимающих решения, от рутины, позволяя сосредоточиться на самых важных вопросах, признают авторы.

В-третьих, машине трудно в принципе определить, какие из рисков носят эндогенный характер. Ей сложно структурировать данные, сигнализирующие об изменениях внутри системы, и распознать предвестники внезапного развития событий (к примеру, что ипотечный кризис в США перерастет в глобальный финансовый кризис).

В тех областях, где данных для обучения искусственного интеллекта недостаточно, а задачи сложны, его эффективность снижается, предупреждают Дэниелссон и его коллеги. В ходе своего исследования они обнаружили четыре главные причины, которые должны заставить регуляторов ограничить сферы использования машинного разума.

Слабые места

Процикличность. Если все экономические агенты ведут себя одинаково, например, в условиях стабильности все банки наращивают кредитование, а затем при ухудшении условий все его сокращают, – риски в системе повышаются. Искусственный интеллект при его использовании для финансового надзора будет отдавать предпочтение однородным методологиям и стандартизированным методам, лучшим в своем классе, тем самым навязывая участникам рынка все более однородное представление о мире. Все будут видеть риск одинаково, все будут покупать и продавать одинаковые активы. Это усилит процикличность и, следовательно, повысит системный риск.

Проблема «неизвестных неизвестных» (unknown unknowns). Это термин, обозначающий события, которые произошли внезапно и которые заранее невозможно было даже представить: то есть это факторы, о которых мы не знаем, что мы о них не знаем (термин позаимствован исследователями у бывшего главы Пентагона и одного из архитекторов войны США в Ираке Дональда Рамсфельда). Искусственный интеллект может обучаться только на событиях, которые уже произошли, или на тех, которые можно сгенерировать в определенной системной модели («известные неизвестные»). Между тем самые опасные кризисы возникают именно из-за «неизвестных неизвестных». Человек также может пропустить непредвиденные уязвимости системы, но, скорее всего, отреагирует на них лучше, основываясь на имеющемся опыте.

Проблема доверия. В 1981 г. самообучаемая программа Eurisko, разработанная математиком, физиком и философом Дугласом Ленатом, приняла участие в чемпионате США по настольной игре Traveller, в которой требовалось создавать собственный космический флот и вести сражения с другими игроками. Eurisko стала победителем чемпионата, обыграв людей: программа уничтожила собственные самые медленные корабли, чтобы повысить маневренность и скорость остальных. Генералу не нужно говорить, чтобы он не уничтожал собственные корабли. Но у машины нет ценностей, у нее есть только цели. Люди могут корректировать цели, а машина – нет.

Большую часть времени искусственный интеллект будет обеспечивать безопасность финансовой системы, скорее всего, лучше, чем «человеческая» система надзора. На него будут полагаться все больше, что может создать ложное чувство безопасности и подорвать планирование на случай непредвиденных ситуаций. Парадоксальным образом, чем сильнее будет расти доверие машине – тем выше риск катастрофы. Если машина начнет «уничтожать корабли», то нажать на аварийный выключатель может оказаться не так-то просто как из-за возросшего авторитета искусственного интеллекта, так и из-за риска для всей системы.

Оптимизация против системы. Искусственный интеллект вполне бы справился с предотвращением системных рисков, если бы система была статичной или подвергалась воздействию исключительно внешних факторов. Но участники финансовой системы иногда ведут себя злонамеренно, например, принимая на себя слишком высокие риски или даже имея прямую цель нанести ущерб. Таким игрокам гораздо легче противодействовать искусственному интеллекту, чем людям: машина всегда ведет себя рационально и, следовательно, предсказуемо, поэтому и обойти его ограничения проще. Врожденная рациональность в сочетании с требованиями прозрачности и честной игры ставят машину в невыгодное положение, когда ее используют для надзора. В денежно-кредитной политике допускается конструктивная неопределенность, поэтому здесь может быть меньше проблем, отмечают авторы.

«Окей, компьютер»

Работа с большими данными (big data) позволяет лучше систематизировать информацию и помогает центробанкам получать моментальный «снимок экономики», предупреждая о возможных поворотных моментах в экономическом цикле на ранних этапах, объяснял в 2016 г. советник Европейского ЦБ Пер Нюманд-Андерсен. Применение искусственного интеллекта в финансовом секторе может повысить эффективность обработки данных и таким образом улучшить эффективность всей финансовой системы, соблюдение нормативных требований и эффективность надзора, считает Совет по финансовой стабильности (Financial Stability Board). Искусственный интеллект дает возможность автоматизировать сбор и анализ информации, сокращая время и стоимость этих процессов.

Искусственный интеллект сможет со временем выполнять все больше функций центрального банка. Широкое использование искусственного интеллекта принесет значительные выгоды в плане сокращения затрат и роста эффективности, однако может вызвать серьезные проблемы и усилить системные риски, заключают авторы.

Чтобы искусственный интеллект был полезен для финансового регулирования, необходимо несколько условий: искусственный интеллект должен иметь четкие правила и данные о повторяющихся результатах; он должен знать, что ему разрешено делать; он должен уметь использовать машинное обучение для определения закономерностей в финансовой системе и причинно-следственных связей, встроенных в данные.

Но пока «большой бот» еще долго будет оставаться помощником, а не заменой человека в принятии решений. Например, в регулировании ему пришлось бы постоянно выносить суждения о действиях, не указанных в данных или правилах, а значит – уметь толковать правила так, чтобы это было понятно скептическим наблюдателям, в том числе судам. Искусственный интеллект неизбежно будет совершать ошибки, но некоторые ошибки допустимы, а глобальный финансовый кризис – нет. Чтобы быть эффективным на макроуровне, искусственный интеллект должен иметь возможность осуществлять контроль через национальные границы, а чтобы эффективно отражать атаки – уметь создавать в том числе непрозрачные правила: все это вряд ли приемлемо для любого правительства. Кроме того, искусственный интеллект должен уметь рассуждать на глобальном, а не локальном уровне и выявлять угрозы, которые еще не привели к неблагоприятным последствиям. Это все за пределами текущих возможностей, заключают авторы.