ИИ-инструмент поддержки принятия решений для руководителей

Дата
14 августа 2024 г.
Статус
Завершено
ИИ-инструмент поддержки принятия решений для руководителей

ИИ-инструмент поддержки принятия решений для руководителей: кейс компании ecom.tech | AIDEA Talk с Владимиром Подошвиным

Саммари мероприятия

Smart BI: Как сократить получение аналитики с недель до 1 минуты с помощью ИИ

TL;DR

Владимир Подош (Comtech) рассказывает, как они внедрили AI-бота, который переводит вопросы руководителей на естественном языке в SQL-запросы к базе данных. Это позволило топ-менеджменту получать нестандартные отчеты мгновенно, не загружая отдел аналитики. Реализация заняла всего 1.5 месяца силами двух человек.

Кому будет полезно

  • Роли: CTO, CDO, руководители BI, Product Managers.
  • Уровень: Любой (от джуна до C-level).
  • Условия: Если в вашей компании бизнес постоянно ждет выгрузки от аналитиков или IT-отдела.

Краткий контекст

  • Спикер: Владимир Подош, CEO Comtech (разработка софта для ритейла реального времени: Самокат, МегаМаркет).
  • Проблема: Стандартных отчетов (продажи, движение средств) часто не хватает. Чтобы получить уникальный срез данных, руководитель ждет от часов (через помощников) до недель (через доработку DWH).
  • Решение: Чат-бот на базе LLM, генерирующий SQL-запросы на лету.

Ключевые идеи

1. Проблема «последней мили» в аналитике

Что сказали: Стандартные отчеты закрывают базу, но уникальные вопросы («сколько пингвинов осталось?») требуют ручного вмешательства. Почему это важно: Бизнес теряет время. Запрос к DWH-команде — это бюрократия, ожидание и риск, что данные станут неактуальны к моменту получения. Как применить: Проанализируйте, сколько времени ваши аналитики тратят на разовые выгрузки ("ad-hoc" запросы). Если много — это кандидат на автоматизацию.

2. Схема Text-to-SQL

Что сказали: Используется цепочка:

  1. Пользователь пишет вопрос.
  2. Модель получает вопрос + описание структуры данных (схемы таблиц).
  3. Модель генерирует SQL-запрос.
  4. Система выполняет запрос к БД.
  5. Другая модель превращает «сырой» ответ в понятный текст или график. Почему это важно: Это демократизация данных. Руководитель общается с базой данных как с человеком. Как применить: Начните с описания метаданных ваших витрин. LLM плохо работает с «голыми» таблицами, ей нужны понятные названия колонок и контекст.

3. Контекст и диалог

Что сказали: Бот помнит контекст. Если спросить «Сколько холодильников продано в июле?», а потом «А какая модель самая популярная?», бот поймет, что речь всё ещё про холодильники и июль. Почему это важно: Это делает инструмент естественным. Пользователю не нужно каждый раз формулировать гигантский промпт со всеми условиями.

4. Безопасность vs Облака

Что сказали: Начинали с OpenAI (Azure), но служба безопасности запретила передавать данные в облако. Пришлось переезжать на Open Source модели (Llama-like) и дообучать их (fine-tuning) для работы внутри контура (On-premise). Как применить: Если у вас строгая безопасность — готовьтесь к хостингу собственных моделей. Если нет — используйте облачные API, это дешевле, быстрее и качественнее.

5. Аналитика причин (будущее)

Что сказали: Сейчас бот отвечает на вопрос «Что случилось?» (цифры). Следующий шаг — научить его отвечать «Почему это случилось?» (анализ факторов падения продаж). Как применить: Не останавливайтесь на простой выборке данных. Экспериментируйте с агентами, которые могут проверять гипотезы.

Примеры и кейсы

Было:

  • Руководитель хочет узнать продажи конкретного товара в конкретном регионе.
  • Пишет помощнику → помощник пишет аналитику → аналитик пишет SQL → выгрузка в Excel → пересылка обратно.
  • Время: Часы или дни.

Стало:

  • Руководитель пишет в Telegram-бот: «Сколько холодильников продали в июле?».
  • Бот выдает цифру (скрыта в демо, но реальная) и ссылку на детали.
  • Руководитель уточняет: «Какая модель топ?» — получает ответ сразу.
  • Время: < 1 минуты.

Ошибки и грабли

  • Безопасность данных: Использование публичных облачных моделей (ChatGPT и аналоги) для корпоративных данных может быть заблокировано безопасниками. Спикеры потратили время на прототип в облаке, но в итоге пришлось переделывать под локальный запуск.
  • Сложность: Спикер отмечает, что инженерно задача кажется сложной, но на самом деле «вся магия внутри моделей». Главная ошибка — думать, что это требует огромной команды R&D.

Что можно сделать уже сегодня

  1. Выделить витрины данных: Определите 2-3 ключевые таблицы, по которым чаще всего прилетают вопросы.
  2. Описать схему: Сделайте понятное текстовое описание полей (Data Dictionary) для этих таблиц — это будет «инструкция» для нейросети.
  3. Проверить безопасность: Узнайте в отделе ИБ, можно ли использовать API OpenAI/Anthropic/Google для обезличенных запросов. Если нет — ищите инженеров для поднятия Llama/Mistral локально.
  4. Сделать MVP: Попробуйте вручную скормить ChatGPT схему вашей таблицы и попросить написать SQL по вопросу. Оцените качество.

Цитаты

«Мы привыкли, что данные в интернете можно получать очень просто и быстро (Google, Яндекс). Хотелось бы так же узнавать информацию о продажах».

«Мы потратили на это полтора месяца силами всего двух человек».

«Если есть возможность не использовать on-premise [локальные модели], лучше используйте облачные. Это сильно дешевле, сильно проще и по итогу эффективнее».

Итоговый вывод

Основная мысль доклада: Text-to-SQL уже работает и доступен небольшим командам. Вам не нужен штат Data Scientists, чтобы сделать «говорящую аналитику». Самый разумный первый шаг — взять готовую LLM, описать ей структуру вашей самой популярной базы данных и сделать простого бота для топ-менеджмента, чтобы снять с аналитиков рутину простых вопросов.