GenAI в финансах: обзор рисков
Появление в конце ноября 2022 г. ChatGPT произвело настоящий фурор во всем мире: число его пользователей перевалило за 100 млн всего за два месяца – тогда как, к примеру, приложению Uber для достижения этой планки потребовалось 20 месяцев, Telegram – почти 40, а Twitter – 60, подсчитали эксперты МВФ.
ChatGPT – Chat Generative Pre-Trained Transformer – это технология генеративного искусственного интеллекта (generative artificial intelligence, GenAI), то есть искусственного интеллекта, способного самостоятельно генерировать новый контент – тексты, изображения, видео, музыку, код и т.д. GenAI представляет собой особое подмножество технологий искусственного интеллекта, базирующихся на машинном обучении (AI/ML). «Мозг» GenAI – это большие языковые модели (large language models, LLM) на основе нейронных сетей, обученные на огромных объемах данных и способные создавать понятный и осмысленный контент на «человеческих языках». И этой возможностью новой технологии стали пользоваться практически все отрасли и сферы деятельности – от издательств и юридических фирм до промышленности и научных исследований.
Финансовый сектор тоже быстро изучил возможности применения GenAI. Например, Capital One и JPMorgan Chase используют GenAI для усиления своей системы обнаружения мошенничеств и подозрительной деятельности, Morgan Stanley – для помощи своим финансовым консультантам в поиске данных, Goldman Sachs – для разработки внутреннего программного обеспечения. Способность GenAI обрабатывать очень большие и разнообразные наборы данных и генерировать контент в доступных и простых форматах (включая диалоговые) оказалась очень полезной для улучшения качества обслуживания клиентов, подготовки отчетности, финансового анализа и прогнозирования, управления рисками. GenAI будет иметь системные последствия для финансового сектора – и наряду с преобразованиями оно несет свои риски, которые необходимо понимать и смягчать как со стороны самой отрасли, так и со стороны регулирующих органов. Эксперты МВФ составили обзор таких рисков: от «встроенной» предвзятости и проблемы объяснимости до угроз кибербезопасности и финансовой стабильности.
Конфиденциальность данных. Публично доступные системы GenAI постоянно используют информацию от пользователей для обучения и настройки своих ответов, что для финансовых учреждений, которые применяют такие системы в своей деятельности, создает риски утечки конфиденциальных данных. Это в дополнение к общим рискам конфиденциальности систем AI – таким как утечки из наборов обучающих данных, возможность демаскировать анонимные данные, способность AI «запоминать» индивидуальные данные из обучающих наборов. Для предупреждения подобных рисков некоторые крупные финансовые компании запретили своим сотрудникам использовать ChatGPT.
«Встроенная» предвзятость. Алгоритмы компьютерных систем, включая искусственный интеллект, могут выдавать решения, систематически и несправедливо дискриминирующие одних лиц или группы лиц, из-за того, что копируют человеческие предрассудки. GenAI может усилить проблему «встроенной» предвзятости, поскольку его модели обучаются на широком наборе онлайн-текстов и других форматов данных, которые несут в себе человеческие предубеждения. Кроме того, в отличие от «обычных» моделей машинного обучения (AI/ML), которые используют данные обучения для прогнозирования, GenAI использует обучающие данные для создания нового контента, точность которого зависит от точности каждой части ответа. На эту точность, в свою очередь, влияют адресованные GenAI подсказки, и эти подсказки тоже могут нести в себе предубеждения. «Встроенная» предвзятость в финансовом секторе может привести среди прочего к неэтичным практикам и финансовой изоляции определенных лиц или групп.
Надежность результатов. Модели GenAI могут давать неправильные, но правдоподобно звучащие ответы или результаты, а затем уверенно защищать эти ответы – явление, называемое «галлюцинацией». В сфере финансов галлюцинации GenAI представляют собой значительный риск на многих уровнях. Например, отчеты об оценке рисков, созданные GenAI на основе настроений рынка, или отчеты о профилях клиентов на основе онлайн-источников могут быть неверными; финансовые услуги, предлагаемые клиентам через диалоговых ботов, поддерживаемых GenAI, могут содержать неуместные советы и предложения неподходящего продукта. Это может подвергнуть финансовую систему значительным рискам и подорвать доверие общества и к системам искусственного интеллекта, и к использующим их финансовым учреждениям.
Синтетические данные. Синтетические данные используются для обучения систем искусственного интеллекта и проверки надежности моделей. Это жизнеспособная и экономически эффективная альтернатива реальным данным, прежде всего из-за решения проблемы конфиденциальности. Apple, например, использует синтетические данные для улучшения возможностей распознавания голоса Siri, Tesla – для моделирования множества условий вождения. Компании в секторе розничной торговли используют синтетические данные для имитации моделей поведения потребителей, тем самым получая полезную информацию.
GenAI может значительно расширить горизонты использования синтетических данных в финансовом секторе, поскольку его можно адаптировать для конкретных функций (например, обнаружения мошенничества, разработки продуктов). В то же время GenAI может привнести некоторые свои риски (например, предвзятость) в сгенерированные синтетические данные, и тогда это подорвет полезность их использования для машинного обучения.
Объяснимость результатов. Алгоритмы искусственного интеллекта представляют собой «черный ящик», и причины, по которым модель пришла к тому или иному выводу, невозможно идентифицировать. Появление GenAI усугубило эту проблему: его алгоритмы работают на нескольких уровнях нейронной сети и используют множество параметров для расчета вероятностей каждой части ответа. Исследователи пытаются найти методы решения этой проблемы, но в целом результаты остаются неудовлетворительными.
Вывод GenAI состоит из текстов, то есть областью GenAI являются рекомендации, советы, анализ – это та сфера, где люди должны принимать решения и брать на себя ответственность за них. Нюанс в том, что финансовым организациям необходимо понимать причины своих действий и объяснять их как внутри компании, так и внешним заинтересованным сторонам: можно сказать, что способность объяснять решения лежит в основе здоровой финансовой системы. Руководствуясь советами GenAI, финансовые организации должны быть в состоянии понимать, что происходит в «черном ящике», – и в этом проблема.
Кибербезопасность. GenAI создает новые серьезные проблемы в сфере информационной безопасности, и они включают в себя не только возможности создания более сложных фишинговых сообщений и дипфейков – реалистичных видео, аудио и фотоизображений, – которые могут нанести серьезный ущерб как организациям, так и отдельным лицам. Модели GenAI, так же как и модели AI/ML в целом, уязвимы к «отравлению» данных и к атакам на вводимые данные. «Отравление» данных – это ввод специальных элементов в наборы обучающих данных, в результате чего системы AI неправильно учатся распознавать и классифицировать информацию. Атаки на вводимые данные действуют аналогично, вводя системы AI в заблуждение во время операций: например, в изображения могут добавляться элементы, невидимые для человеческого глаза, но распознаваемые машинами и заставляющие AI неправильно маркировать изображения. Контент, создаваемый GenAI, может использоваться для манипулирования точно так же. Особенно уязвимы корпоративные приложения GenAI, поскольку они используют более специализированные наборы данных.
Финансовая стабильность. Использование AI в финансовом секторе потенциально может привести к большей однородности в оценках рисков и кредитных решениях, к усилению процикличности финансовых условий, к более быстрому распространению финансовых шоков. GenAI в дополнение к этому может создать и другие системные риски:
-
«Стадное поведение». Решения, принимаемые финансовыми учреждениями на основе созданных GenAI отчетов об экономике, рынке или рисках, могут быть подвержены «эффекту толпы», особенно в периоды рыночной эйфории, если эти отчеты созданы на основе общедоступных единых наборов данных, используемых системами GenAI.
- «Галлюцинации» GenAI. Эта проблема может стать системно значимой, если вводящая в заблуждение информация распространится по финансовой системе, чему способствует концентрация поставщиков услуг GenAI, а также проблемы с интерпретацией источников данных.
- Банковская паника. Использование GenAI может создавать риски платежеспособности и ликвидности, если модели не обучены должным образом управлению рисками и сделки, управляемые искусственным интеллектом, будут с более высоким кредитным или рыночным риском для максимизации прибыли. Стадное поведение инвестиционных консультантов, «ведомых» GenAI, может повлиять на ликвидность рынка, а слухи, распространяемые через GenAI, – спровоцировать массовое изъятие средств из банков. Потенциальная восприимчивость GenAI к манипуляциям с данными и его высокий потенциал к генерированию ложного контента – также потенциальный источник распространения общественной паники, в том числе банковской.
Технологии GenAI открывают большие перспективы для финансового сектора, но к ним следует подходить с осторожностью, заключают эксперты МВФ. GenAI может повысить эффективность, улучшить качество обслуживания клиентов, усилить управление рисками и комплаенс, но в то же время присущие ему проблемы могут создавать угрозу для репутации и устойчивости финансового сектора и в конечном итоге способны подорвать общественное доверие. Применение GenAI в финансовой сфере требует тщательного человеческого контроля, соразмерного рискам, которые могут возникнуть в результате такого применения: например, оптимально использовать AI для помощи в анализе – но не внедрять системы AI, принимающие и исполняющие решения.
Политика регулирования со временем будет меняться, чтобы помочь финансовым учреждениям использовать приложения GenAI без ущерба, считают эксперты МВФ. Для этого органам финансового надзора нужно активизировать мониторинг развития этой технологии и того, как она применяется в финансовом секторе, и взаимодействовать с компаниями и с государственным сектором, советуют авторы обзора.