Максим Коновалихин: «Data fusion — единственное направление, куда можно бежать без особой опаски»

Логотип компании
Как объединить цифровые следы с помощью геоаналитики, сохранив целостность данных для моделирования? Как сделать работу с данными понятной для бизнеса? И почему роботы и голосовые помощники — это сложно?

На вопросы журнала IT Manager отвечает cтарший вице-президент, руководитель департамента анализа данных и моделирования банка ВТБ, участник премии CIO Awards в номинации «Инновационный подход» Максим Коновалихин.

Расскажите, пожалуйста, об инновационных подходах в обработке данных в ВТБ.

Коротко расскажу о той структуре, что была создана с приходом новой команды в 2019 году. В банке действительно стартовала глобальная цифровая трансформация, частью которой являемся и мы департамент анализа данных и моделирования. Наверное, из названия примерно понятно, чем мы занимаемся. Единственное, что, используя предыдущий опыт, мы решили немного изменить принцип организации работы с данными и моделированием.

Моделирование как процесс требует ресурсов. Естественно, с ростом бизнеса потребность в моделях тоже повышается. Обычно это приводит к линейному наращиванию ресурсов, что проблематично с точки зрения управления и распределения общих функций. Поэтому мы решили выбрать другой путь, а именно «модель как сервис», то есть охватить все этапы производства: получение данных, создание витрин, саму математику и внедрение модели в промышленное использование, затем дальнейшая поддержка и мониторинг. По сути, получается некий замкнутый цикл, из которого можно по необходимости выходить, для полной переработки модели.

За рубежом это называют MLOps. Мы говорим проще: «Система управления моделями». Инновационность в том то, что мы фактически сконцентрировали в одном месте всю функцию. Другими словами, она не разбросана по банку. Таким образом, мы контролируем все модели, которые сами разрабатываем и внедряем. С точки зрения управления действительно получается эффективно.

Вот один из свежих примеров. За полтора года мы создали достаточно много моделей. Когда к нам приходят коллеги из бизнес-подразделений, нам нужно время для понимания, какая модель требуется. В какой-то момент стало ясно, что большая часть необходимых моделей фактически уже есть. Когда мы рассказали коллегам о существовании реестра моделей, куда можно зайти, посмотреть и выбрать то, что нужно, результат, скажу честно, даже мне самому понравился. Оказалось, что люди тоже были приятно удивлены наличию сервиса, из которого можно взять все необходимое и выйти на пилот с какими-то «косметическими» изменениями. В моем понимании, мы за год добились цели. Элемент «модель как сервис» заработал.

Реестр моделей объединяет информациюпо целой инфраструктуре платформ: геоплатформа, графовая платформа, AutoML-платформа, NLP-платформа и пр. На мой взгляд, для data-scientist -специалистов это благодатная почва для работы. Понятно, что банк большой и многое еще работает децентрализованно, но наша цель — соединить все в одном месте.

Хотелось бы уточнить, кто отвечает за данные организационно? Бизнес или вы? И второе: пока еще не все в ваших руках, но вы, видимо, намерены сконцентрировать все моделирование, анализ данных и data scientist в своем подразделении?

По поводу первого вопроса: за данные действительно отвечает бизнес, поскольку владеет ими. Это достаточно тонкая, болезненная тема. Мы сейчас много над этим думаем.

Отвечая на второй вопрос, отмечу, data scientist-специалистыдействительно сконцентрированы у нас. В начале нашей работы небольшие подразделения существовали в других блоках.Теперь структурно эти специалисты относятся к нам. В банке есть множество давно функционирующих процессов, поэтому поменять все сразу, «повытаскивать» все модели из этих линеек и перенести в централизованную систему, конечно, сложно. Вот почему и сделали даже некую дорожную карту по переходу в целевые системы. Эта процедура, увы, занимает не один год. Пока внедряться в чужие системы и контролировать все модели физически просто невозможно.

Но цель такая стоит? То есть целевое положение — это централизованное управление моделированием?

Да, и для этого у нас есть хорошие программы миграции платформ данных, когда все данные из разных систем централизуются и сливаются в единое хранилище.

Хранилище все-таки будет одно?

Да, там тоже сейчас идет большая программа, но, естественно, под эгидой ИТ. Мы скорее потребители: делаем фактически витрины данных из того, что необходимо для моделирования. Этот мостик на самом деле достаточно тонкий. Бизнес часто приходит и просит: «Ребята, вот вы data scientist, нам нужна такая модель, поищите данные для нее в хранилище». А что такое «поискать» в десятках тысячах таблиц? Можно специалиста впустить и никогда обратно уже не вернуть. Поэтому сейчас мы — связка бизнес с ИТ — начинаем вместе работать над этими описаниями, их действительно не хватает. Это тоже дорога, которую только предстоит осилить. Пока наша работа начинается от витрин данных — мы их разрабатываем сами, над этим трудится целое управление.

Давайте тогда про «модели как сервис». Как вы справляетесь с ситуацией, когда ИТ или data scientist создали множество витрин, моделей и отчетов, но никто в этом не ориентируется? Как у вас организовано управление уже имеющимися инструментами для работы с данными и как вы учите бизнес всем этим пользоваться? Подозреваю, что это непростой процесс.

Вы абсолютно правы, это не самый простой процесс. У нас был, есть и продолжает развиваться проект «система управления моделями» — набор дэшбордов, которые позволяют отслеживать модель на всех этапах ее производства. Первая фаза закончилась в декабре, и мы очень довольны, что проект пошел в пром — бизнес потихоньку заходит в эту тему и начинает понимать, как все происходит.

Также мы наладили систему заявок на разработку модели с чек-листами для бизнеса. У нас ведется полная документация и, соответственно, артефактом модели является полновесный отчет о разработке: какие данные использовались и их локация, какие модельные подходы были применены, какие результаты получены. То есть все доступно в любой момент. Как мы и раньше говорили, модель — она тогда модель, когда любой scientist, который не был вовлечен в процесс ее разработки, может прийти и полностью ее восстановить. Мысли на бумажке или куски кода в компе невосстановимы, и все этого «наелись» так, что никто больше не хочет.

К этим моделям есть какой-то интерфейс? Как с ними может работать бизнес? Как это выглядит?

Бизнес, конечно, напрямую модель не запускает. В большинстве случаев факт приемки — это проведение пилота. Мы показываем результат отработки моделей, и уже на цифрах люди говорят: «Да, окей, нас это устраивает. То, что вы обещали, мы получили, модель принимается». И только потом идет внедрение в пром.

То есть бизнес может в любой момент сделать запрос в ваш департамент, и вы по уже готовым моделям выдаете им некие результаты?

Да, внутренние клиенты имеют доступ к результатам, к тому, где и как данные используются. Они постоянно получают их и, естественно, работают с ними. Опять-таки, причиной доработки модели могут стать жалобы или какой-то запрос от бизнеса, если качество перестало удовлетворять.

Расскажите, пожалуйста, про геоплатформу и связанные с этим результаты.

Геоплатформа — тоже наша гордость. Мы начали целенаправленно этим заниматься достаточно давно, теперь у нас внутри банка порядка двух сотен хороших слоев. Понятно, что данные в ней не только банковские — часть мы закупаем, и это весьма серьезная инвестиция. Вместе с тем, чтобы упаковать все слои в квадратики 500 на 500 метров в 80 крупнейших городах страны, а затем привязать к этому все полученные данные, сотрудники проделали серьезную работу с точки зрения математики и программирования. Вернее, она продолжается, потому что мы все время находимся в поиске новых слоев интересных данных.

Мы уже сделали на основе этих данных модель по размещению банкоматов, точек продаж и так далее. Честно скажу, скепсиса было очень много, но результаты превзошли ожидания. Команда международных консультантов, которая ознакомилась с проектом, сказала, что такого в России пока не видели. Уровень управления, понятности и удобства этой модели очень высок. Бизнес-эффект тоже оказался достаточно мощным — все инвестиции хорошо окупились.

Мы работаем по этому направлению в рамках СП ВТБ и Ростелекома – Platforma («Платформа больших данных»). Количество заказчиков возросло, рекламные компании серьезно ею заинтересовались: анонс проекта с Russ Outdoor один из наших первых пилотных проектов. Сейчас мы работаем с довольно крупными заказчиками, в том числе ведем переговоры с ДИТ Москвы. Проще говоря, год назад эта тема получила импульс, который теперь дает хорошее ускорение. Сами направления работы начали меняться с того момента, как мы начали широко применять глубокое обучение в геоаналитике. Мы создали принципиально новый продукт на рынке - управляемые векторные представления геоданных geo-embeddings, которые совершенно безопасны с точки зрения восстановления первоначальных данных, при этом полностью сохраняют свою ценность для задач моделирования.

Продажи geo-embedding становятся интересными для рынка. Мы первые заговорили о том, что они нужны для улучшения бизнеса. Разумеется, для нас это тоже бизнес, но одновременно мы предоставляем людям, не имеющим возможности инвестировать такие средства в производство геоплатформ, элементы геоаналитики, которые они успешно встраивают в свои модели и получают желаемый эффект. Так что, на мой взгляд, продукт получился весьма интересным, как и data fusion. Народ явно заинтересовался именно обезличенным слиянием данных. Это очень перспективная вещь. Наверное, единственное направление, куда можно бежать без особой опаски, что сейчас все закроют.

История с геоплатформой показала, насколько это может быть интересно, что инвестиции в данные – это сам по себе бизнес. Можете привести примеры оценки эффективности? Что с чем сопоставляют?

Бизнес-эффекты внутри банка можно посчитать, допустим, по оптимальному распределению банкоматов в банкоматной сети. Эффективное расположение банкоматов позволяет оптимизировать расходы на них и их содержание.

Планируется ли дальнейшее развитие геоплатформы и появление новых слоев и embedded-наборов?

Однозначно там множество разных технологий. Помимо обезличенного обучения моделей, у нас есть система, позволяющая обучать их федеративно: одна часть модели обучается в одном месте, другая — в другом. Это сложнее, но есть и свои плюсы. Мы сейчас много тестируем такие методы, потому что у банка достаточно амбициозные планы по партнерству разного рода. А где партнерства — там и данные. Как с этим работать без нарушений — тоже вопрос, и нарушать, конечно, совершенно хочется.

Если у вас есть подход, связанный с обезличиванием, который вы называете fusion, то, видимо, это решает проблему?

Решает, но это не самое простое решение.

Используете ли вы RPA для обработки данных и анализа? И если да, то насколько плодотворно?

Активно используем. Запросы на программных роботов начали поступать сразу, с момента, как мы пришли. Особенно из операционного блока поскольку люди там просто завалены бумагой. Десяток этих роботов в каком-то смысле облегчил им жизнь но, честно скажу, меня сейчас больше всего интересует наша AutoML-платформа. Не секрет, что у нас идет работа над голосовым помощником: по факту он уже появился, но эта забава явно не на один год. Сейчас мы почти в самом начале пути и много работаем с МФТИ в рамках лаборатории, которую открыли в апреле. Однако еще в начале года стало ясно: эти роботы, или голосовые помощники, сложны тем, что появляется необходимость генерировать сотни, если не тысячи моделей. Такая вариативность требует чуть ли не армию специалистов. Причем модели сами по себе несложные, но их очень много. И мы поняли, что это путь в никуда — руками поддерживать невозможно.

К счастью, мы сразу пошли в этот проект, так что есть надежда, что к концу третьего квартала генерация заработает. Пока делали голосового помощника, геоплатформенные запросы появились под AutoML-платформу и другие задачи. Моделей очень много, поэтому их конструированием занимается программа, чтобы не делать все руками.

Опубликовано 05.10.2021

Похожие статьи