Искусственный интеллект для автоматизации финансового сектора

Руководитель корпоративной практики ДКИС ALP Group Александр Казённов поделился своими соображениями по поводу использования технологий искусственного интеллекта для автоматизации процессов в финансовом секторе новостному ресурсу ИТ-Текст.

 Однозначный ответ на данный вопрос дать нельзя, так как всё зависит от решаемой задачи. Например, анализ финансовой благонадёжности контрагента можно отдать на откуп продвинутым алгоритмам, именуемым в современности ИИ, и более того, мы уверены, что банки над этим сейчас работают. Также подобным алгоритмам на откуп будут отданы вопросы одобрения потребительских кредитов и анализа всех сделок с указанных контрагентом или физическим лицом. Особенно, если банки договорятся о формировании информации о своих клиентах, используя блокчейн по всей цепочке операций конкретного лица в сфере финансов и сделок. Имеются ввиду не только прямые сделки внутри банков, но и финансовые операции, выполняемые человеком/компанией и известные нашим фин. институтам (оформляет специалист КАСКО или ОСАГО, покупает технику в рассрочку или полностью, объем операций на расчётных счетах и как они соотносятся между операциями с его контрагентами).

С точки зрения крупных финансовых сделок ИИ уже используется и далее будет наращивать своё присутствие в операциях моделирования и прогнозирования ситуации на рынках. Учитывая, что объем обрабатываемых данных растёт, т.е. растёт база для обучения ИИ, качество будет повышаться. Но вот решения по ключевым и самым объемным сделкам, в нашем понимании, по-прежнему будут оставаться на откуп людей. Но, и это важно отметить, люди будут принимать решения на основании данных, обработанных ИИ: либо смоделированных ситуациях, либо на "очищенных" с помощью ИИ аналитических и бизнес-данных.

Самыми существенными рисками при использовании ИИ в области финансов по-прежнему остаются:

1. Возможные ошибки разработчиков библиотек ИИ, которые могут проявить себя достаточно неожиданно в аналитических моделях.

2. Вопросы безопасности: это и доступ к конфиденциальным данным в рамках сделок, и различные проникновения злоумышленников в логику ИИ, и действия злоумышленников, направленные на "ложное" обучение ИИ. Последний тезис он не столько про алгоритмы ИИ, сколько про данные, которые подаются ему "на вход" для самообучения.

3. По-прежнему логика принятия решения ИИ - "чёрный ящик", т.к. для большинства библиотек у нас нет возможности раскрутить цепочку принятия решений, чтобы оценить качество принятых ИИ решений и прогнозов. Специалисты работают над данной проблематикой, и у некоторых есть первые успехи, но говорить об успехе в промышленном масштабе пока не приходится.