Баланс инноваций и рисков
Как внедрение ИИ может повлиять на финансовый сектор
Риски внедрения искусственного интеллекта в финансовой сфере уже очевидны, но масштаб потенциальных последствий пока недооценён. Сегодня более 70% финансовых организаций используют ИИ в платежах, кредитном анализе, страховании и управлении активами. По оценке Глобального института McKinsey, только в мировом банковском секторе такие технологии могут ежегодно приносить от 3 до 5% совокупной выручки.
На то, что одновременно с ростом эффективности ускоренно накапливаются и новые риски, обращает внимание доктор экономических наук Института экономики РАН Дмитрий Кочергин в статье «Основные направления использования искусственного интеллекта в финансовой сфере».
Так, растёт уязвимость финансовых организаций перед кибератаками. Генеративный ИИ позволяет массово создавать правдоподобные фишинговые письма, вредоносное ПО и инструменты для кражи данных или вымогательства. Результат — не только риски финансовых потерь и компрометации клиентских данных, но и подрыв доверия к финансовым институтам в целом.
Дмитрий Кочергин обращает внимание, что исходные данные могут содержать ошибки и искажения и их использование создаёт риск дискриминационных решений при кредитовании, страховании и доступе к финансовым услугам, особенно для уязвимых групп. Возможно и целенаправленное искажение обучающих массивов — такие атаки усиливают операционные риски и усложняют выявление ошибок.
Автор статьи также видит в ИИ угрозу финансовой и политической стабильности общества в целом. При неконтролируемой автоматизации возможны массовые социальные сдвиги — от девальвации человеческого труда и перераспределения доходов в пользу технологических гигантов до роста инфляции, падения налоговых поступлений и усиления глобального неравенства.
Причём риски могут быть очень масштабными, считает Дмитрий Кочергин. Рынок крупных языковых моделей олигополистичен, то есть финансовые организации вынуждены полагаться на небольшое число внешних поставщиков, что создаёт риск единой точки отказа: сбои, кибератаки или ограничения у поставщика могут иметь каскадные последствия для большого числа пользователей.
Каскадные риски ИИ
По мнению директора по интернет-технологиям банка «Урал ФД» Ивана Ушакова, одним из наиболее недооценённых рисков являются проблемы с качеством и целостностью данных. Ошибки или предвзятость в обучающих данных могут привести к некорректным решениям, например, дискриминации при кредитовании или ошибочной классификации рисков. Часто данные бывают неполными, устаревшими или содержащими ошибки, и это напрямую влияет на точность моделей.
Кроме того, отмечает эксперт, ИИ-системы могут стать мишенью для атак, приводящих к компрометации системы, краже данных или ошибкам в критических процессах.
Наконец, негативную роль играет эффект «чёрного ящика». Непрозрачность алгоритмов затрудняет понимание логики принятия решений, что осложняет аудит, контроль и объяснение результатов клиентам.
Наиболее недооценённая опасность — это системный риск каскадных отказов, возникающий из-за гиперзависимости от однотипных алгоритмических моделей, считает председатель совета по противодействию технологическим правонарушениям КС НСБ России Игорь Бедеров. Когда десятки крупных банков используют схожие модели ИИ для оценки рисков или алгоритмической торговли, их реакция на рыночные события становится предсказуемо синхронной.
Особенно остро этот вопрос стоит в отрасли страхования, считает заместитель генерального директора СК «МАКС» Александр Горяинов. Массовое внедрение ИИ делает систему чрезвычайно уязвимой к «слепым зонам» — событиям, не представленным в обучающих выборках, будь то новые паттерны мошенничества, каскадные климатические явления или ранее неизвестные киберугрозы.
«Последствия могут быть каскадными: массовые синхронные ошибки в андеррайтинге или в прогнозах убыточности способны вызвать не просто убытки отдельных компаний, а волновой кризис доверия ко всей отрасли страхования, подрывая её фундаментальный принцип — распределение рисков», — рассуждает эксперт.
Алгоритмическая слепота
Зависимость от искусственного интеллекта не снизит качество управленческих решений, считает директор по развитию платёжного сервиса «Плати по миру» Павел Белов. ИИ может лишь помогать — анализировать данные, выстраивать логические цепочки, предлагать рекомендации, — но финальное слово в любом случае остаётся за человеком.
Однако большинство экспертов считают риск размывания человеческой экспертизы вполне реальным. Так, генеральный директор инвестиционной платформы Lender Invest Дмитрий Исаков также подчёркивает: роль искусственного интеллекта сегодня должна ограничиваться уровнем «второго мнения». Управленцу полезно учитывать рекомендации модели, но ответственность за итоговое решение остаётся человеческой. Алгоритмы упрощают принятие решений, но не снимают необходимости критического и этического осмысления.
Эту логику развивает Игорь Бедеров. По его мнению, граница автоматизации должна проходить там, где заканчивается детерминированная логика и начинается необходимость стратегического выбора, этической оценки или креативного решения нестандартной задачи. Роль человеческой экспертизы трансформируется от операционного контроля к стратегическому надзору.
И напротив, избыточное доверие к ИИ приводит к потере организацией иммунитета к нестандартным угрозам. И это ещё один скрытый риск внедрения нейросетей — алгоритмическая слепота к «чёрным лебедям» и нестандартным ситуациям.
Определение границ автоматизации — один из вопросов, который стоит перед рынком, считает Иван Ушаков.
«Алгоритмы могут не учитывать контекст, этические аспекты или неочевидные риски, которые человек способен оценить. Чтобы этого избежать, нужно определить чёткую границу автоматизированных решений и решений, остающихся за сотрудниками», — говорит эксперт.
Технический менеджер проекта «Свой Банк» Сергей Волынец обращает внимание, что в банковской сфере слишком много контекстных факторов — от регуляторики до индивидуальных исключений, — в которых человеческое суждение играет ключевую роль. Здесь задача ИИ — не заменить специалиста, а помочь ему и повысить качество принимаемых решений.
Граница автоматизации, по мнению вице-президента по операционной деятельности и ИТ ФГ БКС Сергея Путятинского, должна быть разной в разных задачах. Полная автоматизация оправдана в процессах с массовыми, низкорисковыми и легко корректируемыми операциями — например, при предварительной классификации обращений, работе антифрод-триггеров, мониторинге аномалий, подготовке черновиков документов или поиске по базе знаний. Там, где решения напрямую влияют на клиента и финансовые потоки — кредитование, инвестиционные рекомендации, установление лимитов, проведение спорных операций или комплаенс-проверки, — необходим контроль человека. А в зонах, где критичны доказательность и объяснимость, а ошибка может иметь необратимые последствия или повлечь серьёзные регуляторные риски, использование ИИ должно быть либо ограничено, либо переведено в особый режим контроля.
На перепутье
Когда появляется новая технология, либо рынок вырабатывает собственные правила, чтобы сохранить устойчивость, либо их устанавливает регулятор — и тогда они устраивают не всех. Сейчас в сфере ИИ рынок стоит именно на таком перепутье: либо он введёт разумные самоограничения, либо это сделает государство, говорит генеральный директор Ассоциации развития финансовой грамотности Эльман Мехтиев.
Впрочем, практики считают, что действующее законодательство большинства стран пока недостаточно приспособлено к условиям массовой интеграции нейросетей в финансовую сферу. В частности, оно могло бы включать введение специализированных лицензий для разработчиков и пользователей систем ИИ, разработку механизмов надзора за использованием ИИ банками, повышение уровня подготовки персонала в области этического и правового применения ИИ-технологий, считает Иван Ушаков.
Нормативная база фрагментирована и охватывает в основном стратегическое планирование и экспериментальные режимы, продолжает Игорь Бедеров. В России, как и в большинстве стран, преобладает рамочная модель с акцентом на саморегулирование. У нас был принят Кодекс этики ИИ для финансового рынка, рекомендованный Банком России. А ключевой документ — Национальная стратегия развития ИИ до 2030 года — был принят в 2019 году, за три года до появления первой общедоступной ИИ-модели. Кроме этого, существуют точечные акты, например требования ФСТЭК к безопасности ИИ-систем в госсекторе. При этом пока нет сквозного регулирования жизненного цикла ИИ-систем — от разработки и обучения на данных до промышленной эксплуатации и вывода из использования. Не прописаны чёткие процедуры расследования инцидентов с участием ИИ, механизмы аудита алгоритмов и распределения ответственности.
Не все эксперты, впрочем, видят в этом проблему. По мнению Павла Белова, ИИ — это всего лишь инструмент, и действующее регулирование уже позволяет использовать его в большинстве сфер, включая анализ больших данных и автоматизацию процессов. Существенные риски, по его словам, возникают только при работе с персональными данными.
Путём локальных кризисов
Несмотря на различия в акцентах, большинство экспертов считают, что развитие ИИ в финансовой сфере пойдёт по пути управляемого роста. По словам Эльмана Мехтиева, сегодня рынок движется к поиску баланса между инновациями и ответственностью, стремясь совместить развитие технологий с формированием механизмов контроля и снижения рисков. Финансовые организации и технологические компании, по его оценке, продолжат внедрять ИИ, параллельно создавая стандарты и общие правила игры.
Впрочем, Иван Ушаков полагает, что этот процесс будет сопровождаться постепенным усилением регулирования, необходимым для защиты интересов потребителей и предотвращения негативных последствий массового распространения ИИ. При этом важным трендом станет развитие прозрачности и объяснимости моделей, поскольку банковская сфера требует строгой регуляторной подотчётности, уверен Сергей Волынец.
По мнению Игоря Бедерова, вероятный сценарий будет выглядеть как управляемый рост, проходящий через череду локальных, но громких кризисов и откатов. Массового запрета или полного технооптимизма, по его мнению, ожидать не стоит. Агентные системы ИИ станут новой операционной моделью, а регуляторы будут реагировать на отдельные инциденты, точечно ужесточая требования. Главным ограничением роста эксперт называет дефицит кадров: сфера ИИ требует новых профессий, а навыки специалистов устаревают всё быстрее.
Управляемый рост сохранится до следующего технологического скачка — появления принципиально нового уровня вычислительных мощностей или архитектур ИИ, считает Павел Белов. Что произойдёт после этого, предсказать сегодня невозможно: будущее искусственного интеллекта становится всё более вариативным и зависит от множества непредсказуемых факторов, заключает эксперт.
Подпишитесь на наш Telegram-канал и будьте в курсе главных новостей.