Антипримеры использования ИИ в бизнес-аналитике

6 апреля 2026
0 комментариев

Применение искусственного интеллекта в бизнес-аналитике оправдано далеко не во всех задачах и имеет ряд существенных ограничений. Рассматриваются группы задач, в которых ИИ применять не рекомендуется, и причины, по которым это так.

Есть много материалов, посвященных тому, как использовать искусственный интеллект (ИИ) в бизнес-аналитике. Однако важно понимать: есть группы задач, в которых данная технология либо малоприменима, либо не подходит вовсе.

В академической среде ИИ и LLM — это не синонимы, первый термин гораздо шире. Но оказалось, что у LLM удачная архитектура с широкими возможностями применения. Поэтому чаще всего под ИИ подразумевают именно LLM, и в запросах пользователей обычно встречается именно такое понимание. В связи с этим в статье термины ИИ и LLM используются, как синонимы.

Как и другие модели машинного обучения, LLM работают на основе расчета вероятностей.

Схема их работы: модель обучается на определенных данных (обучающая выборка), формирует способ обработки информации, а затем применяется к новым данным. Если огрубленно описать, модель «угадывает» наиболее вероятный вариант решения.

При этом LLM — это классический черный ящик. Пользователь не видит, как именно принимается решение, и может оценивать только результат.

В ряде задач — например, при нормализации текстов после оптического распознавания символов — это не просто допустимо, а стабильно работает и приносит качественные результаты. В статье «5 способов использования ИИ в работе с данными» рассматриваются направления, для которых отлично подходит технология LLM. Но есть группы задач, где использование ИИ «в чистом виде» нежелательно:

  • необходима обработка по существующим правилам;
  • требуется прозрачность решений;
  • высока цена ошибки;
  • имеется большой объем данных;
  • использование ИИ экономически необосновано.

Далее каждая группа рассматривается подробнее.

Обработка по существующим правилам

Если задача решается по заранее известной логике — использовать ИИ избыточно и рискованно. Речь идет о расчете метрик по формулам, соблюдении законодательства, применении бизнес-логики и т.п. В таких случаях не нужно «подбирать модель» — достаточно просто реализовать известный алгоритм.

Да, теоретически LLM может выбрать корректный способ расчета. Но с некоторой значительной вероятностью — ошибиться. А цена ошибки может быть высокой.

Простой пример: нужно посчитать 2+2. Можно развернуть инфраструктуру, потратить ресурсы, вызвать LLM… или просто сложить числа на калькуляторе. Это намеренное преувеличение, однако многие запросы по сути ему соответствуют. Есть такой термин «оверинжиниринг» — создание избыточно сложного продукта там, где можно обойтись более простыми, дешевыми и надежными решениями.

Показательный кейс — юридические правила. Например, сроки возврата товаров, ограничения и исключения. Здесь недопустимы «вероятностные отклонения». Любая ошибка — это либо финансовые потери, либо юридические риски.

Если логика известна — используйте ее напрямую. Это быстрее, дешевле и надежнее.

Требуется прозрачность — против черных ящиков

LLM не объясняют свои решения. Они выдают результат без гарантии воспроизводимости и без прозрачной логики. Сегодня модель может принять одно решение, завтра — противоположное. Если LLM получает возражение пользователя, она часто меняет свое решение. Это может усиливать эффект предвзятости подтверждения.

В бизнес-аналитике это критично:

  • необходимо понимать, как получен результат;
  • важно объяснять выводы коллегам, руководству, аудиторам;
  • требуется воспроизводимость расчетов.
Черный ящик в серьезном деле — это страшно

Черный ящик в серьезном деле — это страшно

Например, нужно определить размер скидки для контрагента. Можно использовать для этого LLM — это тут же вызовет вопросы партнеров. Люди могут негативно воспринимать бизнес-правила при формировании скидки, но принимают их (принцип объясним). А решение подобных задач с помощью ИИ будет совершенно непонятным.

Если нельзя объяснить, как система пришла к выводу — доверие к такому решению будет минимальным. Именно непрозрачность — частая причина конфликтов с контрагентами.

Есть ли методы отслеживания работы LLM, оценки качества сформированной модели? Есть. Однако их использование связано с дополнительными трудозатратами. В большинстве случаев задачи можно решать проще.

Высокая цена ошибки — кто будет отвечать?

Пока цена ошибки невелика — погрешности допустимы. Но во многих областях ситуация меняется. Речь идет, прежде всего, о медицине, юриспруденции, стратегическом управлении и др.

Здесь возникает ключевой вопрос: кто несет ответственность?

ИИ может рекомендовать, предлагать варианты и анализировать. Но он не может нести юридическую ответственность, платить штрафы и отвечать за последствия своих решений.

Нейросеть не является субъектом права. А значит, ответственность всегда ложится на человека или компанию-разработчика.

В случае с «голыми» LLM: вероятностная природа делает их неподходящими для задач с высокой ценой ошибки.

Тут может возникнуть вопрос, нет ли здесь «страха перед машинами»? Нет. Доверять технике критически важные функции — норма. Например, системам безопасности в автомобилях.

Идет активное внедрение беспилотных автомобильных систем. Но эти системы сертифицированы, понятна логика их работы. Использование ИИ в беспилотных автомобилях подкреплено очень серьезными — дополнительными и приоритетными по отношению к LLM — системами безопасности. Также известно, кто будет отвечать при негативных сценариях.

Большой объем данных

Существует распространенное заблуждение: если LLM умеет «отвечать на все вопросы», значит, ей можно просто дать большую таблицу и получить результат.

На практике это не так. Работа с большими данными через LLM напрямую:

  • долгая — модели не оптимизированы под обработку массивов данных;
  • дорогая — требуется либо мощная инфраструктура, либо оплата большого количества токенов;
  • неэффективная — существуют гораздо более подходящие инструменты.

Важно понимать: технологии Big Data возникли из-за таких объемов данных, которые не помещаются в память одного компьютера.

Контекстное окно — максимальный объем текстовой информации, который LLM может обрабатывать и «запоминать» одновременно во время разговора — существенно меньше. Даже таблица на несколько миллионов строк может оказаться для модели «нечитаемой».

При этом задачи, которые в BI-системах — особенно, если речь об аналитике реального времени — или даже Excel решаются за секунды, при использовании ИИ требуют дорогой инфраструктуры и много времени.

Вывод очевиден: для обработки больших объемов данных нужно использовать специализированные инструменты, а не просто ИИ.

Для использования LLM в работе с большими объемами данных хорошо себя показывает технология MCP. Это универсальный способ подключения больших языковых моделей. Например, MCP-сервер на платформе Loginom позволяет подавать обработанные данные большим языковым моделям и получать качественный результат.

Экономическая необоснованность

ИИ — это дорого. Затраты включают закупку оборудования, настройку инфраструктуры, энергопотребление или оплату облачных сервисов.

Для сравнения: простые решения на недорогом оборудовании позволяют решать множество задач эффективно и дешево. Например микроконтроллеры Arduino и Raspberry Pi популярны в системах «умный дом» (и не только), потому что стоят недорого, а результат работы — приемлем.

ИИ-сервер — это противоположность: дорого, громоздко и ресурсоемко.

Да, технологии развиваются. То, что сегодня дорого, через несколько лет может стать массовым. Но на 2026 год использование ИИ во многих задачах просто экономически не оправдано.

Примечание: есть дополнительное требование — к безопасности использования аналитической системы. И в этом смысле использование ИИ тоже неудачно.

Передовые LLM — облачные сервисы, их использование принципиально небезопасно. Тем не менее, многие работники обращаются к внешним LLM для решения своих задач, и компаниям приходится бороться с утечкой данных. Есть возможность использования локальных моделей, но это влечет за собой большие расходы на развертывание и поддержание инфраструктуры.

Ограничения использования ИИ в бизнес-аналитике

Есть четыре ключевых фактора, которые ограничивают применение ИИ в бизнес-аналитике: скорость, стоимость, точность и контроль.

Факторы, ограничивающие использование ИИ

Важно еще раз подчеркнуть: речь идет об использовании LLM в «чистом виде». Ничто не мешает применять ИИ для генерации контента, в качестве вспомогательного инструмента, в составе более сложных систем с дополнительными средствами контроля. Последнее — особенно важно.

Данная статья не направлена против ИИ. Наоборот, она появилась в результате опасений за неправильное использование технологий LLM и завышение ожиданий от их внедрения.

Часто пользователь надеется получить «волшебный» результат, тратит деньги и время. А из-за неправильного использования «отворачивается» от технологии. Этого нужно избегать.

Используйте LLM там, где они действительно сильны. А данные — обрабатывайте правильно.

И, как говорится, будьте бдительны: доверяйте свои деньги и процессы не «магии», а понятным и предсказуемым системам.

Другие материалы по теме:

Рабочие кейсы применения AI с Loginom

5 способов использования ИИ в работе с данными

#LLM

Смотрите также

Подписывайтесь на телеграмм-канал Loginom
Новости, материалы по аналитике, кейсы применения, активное сообщество
Подписаться