Как большие языковые модели меняют бизнес-процессы?
От догоняющей стратегии к собственным решениям: куда движется рынок LLM в России
В мире уже сформировались лидеры в разработке LLM: GPT от OpenAI, китайские языковые модели DeepSeek и Qwen, а также Gemini от Google, показывающий хорошие результаты.
Российский рынок находится в начале этого пути — развивает собственные решения в динамичном темпе. Например, GigaChat от Сбера и YandexGPT от «Яндекса» занимают ведущие позиции в сегменте коммерческих решений в России, но далеко не все игроки используют их платформы для внедрения LLM в свои процессы. Большая часть LLM-айсберга скрыта: есть значимый пласт open-source-моделей, которые используются для создания специализированных решений в разных отраслях. И главный потенциал развития рынка — адаптация этих универсальных моделей под конкретные бизнес-задачи с помощью дообучения.
Внедрение языковых моделей в России сейчас идет по двум основным направлениям:
1. Компании берут за основу архитектуры LLaMA, DeepSeek, Phi, Mistral или Qwen, и обучают их на внутренних данных, создавая собственные версии LLM. Эта стратегия требует много ресурсов и подходит крупному бизнесу, а также промышленным холдингам с мощными R&D-отделами.
В таком случае у компании есть полный контроль над поведением LLM, поскольку известен и набор данных для обучения, и примененные методы обучения. Развитие этого направления — часть цифрового суверенитета государства.
Пример. Крупный банк обучает свою закрытую LLM на внутренних данных: паттернах транзакций, клиентских обращениях и регуляторных требованиях. Он создает умного финансового ассистента, который консультирует клиентов с учетом их операций и выявляет подозрительные транзакции. За счет этого банк улучшает сервис, снижает издержки и защищает данные.
2. Компании используют готовые модели без полноценного обучения и дообучают их под свои задачи. В зависимости от ресурсных возможностей и объема данных для обучения могут применяться методы Fine-tuning (F-tuning), Low-Rank Adaptation (LoRA), Retrieval-Augmented Generation (RAG) или промт-инжиниринг.
Сравнительный анализ методов дообучения
Пример. Производитель бытовой техники загружает в модель свой каталог продукции, а пользователи получают через чат-бот ответы на вопросы, связанные с характеристиками и эксплуатацией этих товаров. Для бизнеса это выгодно: нет потребности содержать большие серверные мощности и тратиться на обучение сотрудников техподдержки.
Главные сферы применения LLM: для каких задач использовать
Большие языковые модели нужны для ускорения обработки данных и, как следствие, процессов на производствах, в банках, в медицине, сфере образования, HR, маркетинге и управлении. Примеры таких внедрений уже есть и для других сфер — рассмотрим некоторые из них.
- На производственных предприятиях. Для регламентного обслуживания станка, где документация насчитывает тысячи страниц, раньше технику требовалась запомнить огромное количество информации или постоянно сверяться с инструкцией по эксплуатации. Теперь достаточно задать вопрос голосовому ассистенту, и он подскажет конкретные действия, например: «Для узла X затяни гайку № 5 с моментом 25 Н•м».
- В юриспруденции. Большие языковые модели автоматизируют вычитку и анализ договоров, сравнивая их не просто построчно, как это делает Word, а с учетом смысловых изменений. Можно задать системе вопрос: «Какие пункты в новой версии соглашения несут финансовые риски?» или «Есть ли противоречия с предыдущими согласованными условиями?» — и получить четкую сводку двух документов по 50 страниц за пару минут.
- В продажах в ретейле и B2B-сегменте. При продаже автомобилей языковые модели используются для автоматизации работы менеджеров. Задача менеджера — грамотно рассказать о преимуществах модели, технических характеристиках и условиях покупки и записать клиента на тест-драйв. Построенные на LLM виртуальные менеджеры сделают это не хуже и с меньшими затратами.
Три ключевых сценария, в которых LLM-системы покажут себя лучше всего:
- Хранение и работа с корпоративными данными
Когда сотрудникам нужно оперировать массивами информации, LLM берет на себя роль «виртуального мозга», который запоминает огромное количество информации и удерживает ее годами, отвлекаясь от более сложных задач.
Если передать данные в модель «на хранение с быстрым доступом», бизнес сократит расходы на подготовку персонала и оптимизирует кадровые ресурсы, позволяя высококвалифицированным специалистам работать эффективнее.
- Мгновенный сбор и аналитика внешних данных
Там, где аналитики неделями собирают информацию о рынке из сотни каналов, большие языковые модели справляются с обработкой потоков информации за час. Они помогают специалистам принимать решения быстрее.
Например, финтех-компания, занимающаяся трейдингом ценных бумаг, отслеживает миллионы новостей, сигналов и рыночных событий одновременно. Чтобы этот процесс ускорить, она внедряет LLM. И если раньше аналитик тратил более 40 часов на анализ ситуации по одной бумаге, теперь модель собирает, фильтрует и сжимает данные, мгновенно выдавая краткую сводку. Компания экономит колоссальные бюджеты и больше зарабатывает на частых операциях.
- Автоматизация генерации контента и кода
Там, где программист погружался в рутину на несколько рабочих дней, LLM пишет типовой код и автоматизирует стандартные задачи. Во многих проектах код повторяется. Например, экраны регистрации и личные кабинеты пользователей работают по схожим сценариям. Код для них может написать модель, а программист будет скорее архитектором и валидатором решений, чем исполнителем.
То же применимо в маркетинге — при генерации текстов, изображений, таблиц и схем.
Этапы внедрения LLM-решений: как выстроить процесс и оптимизировать затраты
Внедрение LLM в бизнес — это не мгновенный процесс, особенно если задача требует специфического подхода. Если модель должна работать с данными конкретной компании или ее нужно адаптировать к специфическим требованиям, необходимо пройти через несколько этапов, которые могут протекать параллельно. Рассмотрим несколько из них:
Этап № 1. Предобработка данных
Языковая модель способна давать правильные ответы, если она обучалась на корректных данных. Но если на входе хаос — разрозненные изображения, сканы документов, таблицы в разных форматах без связей между собой — она начнет выдавать ложные ответы. В этот момент модель похожа на самоуверенного человека, который при нехватке данных начинает додумывать на основе догадок.
Поэтому специалисты собирают данные из различных источников, объединяют их в единую связанную структуру, очищают от ошибок или пропущенных значений, приводят к общему формату однотипные данные, нормализуют значения к одним и тем же диапазонам изменений. Добиваются консистентности.
В машинном обучении для этого этапа существует термин «предобработка данных» (data preprocessing). Для направления аналитики данных более привычны аббревиатуры ETL/ELT, но суть у них схожа.
На этом этапе также можно задействовать ранее обученные простые LLM для предварительной обработки данных. Например, модель может помочь в классификации документов и извлечении ключевых параметров из таблиц.
Этап № 2. Выбор метода обучения модели
Определяется стратегия использования данных через LLM, затем идет настройка по одному из трех путей.
- Обучение с нуля — сложный вариант для крупных компаний, требующий значительных вычислительных ресурсов и подготовки датасета.
- RAG — комбинированный подход для малых и средних предприятий, при котором модель извлекает релевантную информацию из базы знаний.
- Настройка промптов — быстрый и бюджетный вариант для малого бизнеса. Модель получает правила обработки информации без дообучения.
После этого начинается обучение LLM с помощью либо промт-инженеров, либо ML-специалистов.
Этап № 3. Корректировка и интеграция
Специалисты показывают прототип заказчику, чтобы получить обратную связь. Важен фидбек тех, кто будет пользоваться системой. Если принципиально LLM решает бизнес-задачу, то можно переходить к этапу интеграции.
Для того чтобы языковая модель приносила пользу, ее нужно интегрировать в ИТ-инфраструктуру компании. Перед внедрением проводится аудит бизнес-процессов, чтобы определить точку интеграции. Интерфейс может выглядеть по-разному. Несколько сценариев внедрения:
- как интерактивный помощник на сайте — подходит для B2C-компаний: может помочь клиентам оформить заказ и отследить доставку, проконсультировать по тарифам или подобрать курс;
- как Telegram-бот или чат-бот в CRM — подходит для внутренних задач и B2B-коммуникации: анализирует заявки, фиксирует договоренности, отвечает на вопросы сотрудников, информирует о статусе грузов.
- как встроенный модуль в ИС — подходит, например, для создания автоматических подсказок при заполнении документов.
После этого разрабатываются API и коннекторы для подключения к системам компании, и модель развертывается на серверах: сначала в тестовом окружении, затем в продакшене.
Этап № 4. Сопровождение системы
LLM постоянно работает с данными, которые поступают из разных источников. Со временем они меняют форматы, дополняются и заменяются, поэтому нужно регулярно обновлять коннекторы, отвечающие за извлечение и обработку информации, — писать новый код и корректировать скрипты и промпты, чтобы модель правильно интерпретировала входные данные.
Кроме того, корпоративные системы эволюционируют: меняются API, обновляются CRM, ERP и веб-интерфейс. LLM-решения должны адаптироваться к новой инфраструктуре, для чего заказчик делится картой развития и планирует корректировки с экспертами.
С накоплением данных ответы модели становятся точнее, что позволяет запустить новый цикл обучения и улучшить взаимодействие с пользователем.
С какими рисками можно столкнуться при внедрении LLM
LLM-решения развивают бизнес-процессы, но одновременно несут риски, которые можно разделить на три группы:
1. Этические риски. Языковые модели могут выдавать искаженные результаты, формируя определенную повестку. Даже небольшие изменения в интерпретации данных могут влиять на мнения людей, что делает LLM инструментом в конкурентной борьбе между корпорациями и государствами.
Ранее крупные технологические компании (например, Google) публично отказывались от применения AI в военных разработках, но сегодня эти ограничения снимаются. Большие языковые модели становятся инструментом, который применяют в экономике, в создании и контроле вооружения и для влияния на умы людей.
2. Деградация профессиональных навыков. Использование LLM снижает потребность в самостоятельной работе с данными и может привести к утрате ключевых навыков у специалистов разных областей.
В психологии уже родился целый набор терминов для описания этих эффектов: cognitive offloading (когнитивная разгрузка), цифровая амнезия (digital amnesia), эффект автоматизации (automation bias), эрозия критического мышления (erosion of critical thinking).
3. Ограничения инфраструктуры и монополизация рынка. Растущие цены на оборудование и высокие затраты на обучение моделей создают препятствия для развития рынка. Крупные компании, такие как Google и OpenAI, имеют нужные ресурсы, в то время как малый и средний бизнес остаются в стороне.
А еще российские компании во многом зависят от зарубежного оборудования, что ограничивает доступ к технологиям.
Возможные решения включают развитие альтернативных методов обучения, снижение затрат на оборудование и лоббирование открытого доступа к моделям.
Тренды и прогнозы в развитии LLM-решений
Технологии становятся умнее, их возможности шире, а применение в бизнесе — еще полезнее:
- Самообучающиеся модели
Есть гипотеза, что LLM может самообучаться без вмешательства разработчиков — эволюционировать в реальном времени. В узких сценариях это уже возможно, но в 95% случаев требуется дообучение.
Все же мир, вероятно, скоро увидит системы, которые сами адаптируются к новым разноформатным данным.
- Интеграция с реальным миром
Свежие версии ИИ-систем DeepSeek, Gemini и GPT начинают работать с окружающим миром. Они уже умеют обрабатывать изображения, видео, PDF, исходный код, и даже подключаться к средам разработки. Расширение доступа к данным реального мира — тренд, который сделает модели мощнее.
- Умение LLM рассуждать
Компании активно работают над способностью LLM не просто выдавать ответ, а осмысленно обосновывать выводы. Так, недавно появилась функция Deep Thinking — специальный режим, в котором модель объясняет ход своих рассуждений. Способность анализировать собственные выводы снижает риск выдачи ошибок и делает модели надежнее.
- Работа с масштабным контекстом
Сегодня LLM могут обрабатывать относительно небольшие объемы информации в рамках одного запроса. В частности, они способны «удержать в памяти» текст книги и ответить на вопрос по содержанию.
Но при анализе сложных данных, технических схем и графиков, объем контекста пока ограничен. Новейшие модели уже увеличили этот показатель до миллиона токенов, и в ближайшие годы, вероятно, эта граница исчезнет. Мы сможем загружать в LLM любые объемы информации, а не сокращать или перерабатывать контент вручную.
- Развитие навыков критического анализа у пользователей
Сегодня это один из главных трендов, так как даже самая продвинутая модель не застрахована от ошибок, и только человек может проверить, насколько ее ответы соответствуют реальности. Без этого нельзя построить надежные системы, особенно в финансах, медицине и промышленности.
Опубликовано 13.03.2025