
Применение искусственного интеллекта в бизнес-аналитике оправдано далеко не во всех задачах и имеет ряд существенных ограничений. Рассматриваются группы задач, в которых ИИ применять не рекомендуется, и причины, по которым это так.
Есть много материалов, посвященных тому, как использовать искусственный интеллект (ИИ) в бизнес-аналитике. Однако важно понимать: есть группы задач, в которых данная технология либо малоприменима, либо не подходит вовсе.
В академической среде ИИ и LLM — это не синонимы, первый термин гораздо шире. Но оказалось, что у LLM удачная архитектура с широкими возможностями применения. Поэтому чаще всего под ИИ подразумевают именно LLM, и в запросах пользователей обычно встречается именно такое понимание. В связи с этим в статье термины ИИ и LLM используются, как синонимы.
Как и другие модели машинного обучения, LLM работают на основе расчета вероятностей.
Схема их работы: модель обучается на определенных данных (обучающая выборка), формирует способ обработки информации, а затем применяется к новым данным. Если огрубленно описать, модель «угадывает» наиболее вероятный вариант решения.
При этом LLM — это классический черный ящик. Пользователь не видит, как именно принимается решение, и может оценивать только результат.
В ряде задач — например, при нормализации текстов после оптического распознавания символов — это не просто допустимо, а стабильно работает и приносит качественные результаты. В статье «5 способов использования ИИ в работе с данными» рассматриваются направления, для которых отлично подходит технология LLM. Но есть группы задач, где использование ИИ «в чистом виде» нежелательно:
Далее каждая группа рассматривается подробнее.
Если задача решается по заранее известной логике — использовать ИИ избыточно и рискованно. Речь идет о расчете метрик по формулам, соблюдении законодательства, применении бизнес-логики и т.п. В таких случаях не нужно «подбирать модель» — достаточно просто реализовать известный алгоритм.
Да, теоретически LLM может выбрать корректный способ расчета. Но с некоторой значительной вероятностью — ошибиться. А цена ошибки может быть высокой.
Простой пример: нужно посчитать 2+2. Можно развернуть инфраструктуру, потратить ресурсы, вызвать LLM… или просто сложить числа на калькуляторе. Это намеренное преувеличение, однако многие запросы по сути ему соответствуют. Есть такой термин «оверинжиниринг» — создание избыточно сложного продукта там, где можно обойтись более простыми, дешевыми и надежными решениями.
Показательный кейс — юридические правила. Например, сроки возврата товаров, ограничения и исключения. Здесь недопустимы «вероятностные отклонения». Любая ошибка — это либо финансовые потери, либо юридические риски.
Если логика известна — используйте ее напрямую. Это быстрее, дешевле и надежнее.
LLM не объясняют свои решения. Они выдают результат без гарантии воспроизводимости и без прозрачной логики. Сегодня модель может принять одно решение, завтра — противоположное. Если LLM получает возражение пользователя, она часто меняет свое решение. Это может усиливать эффект предвзятости подтверждения.
В бизнес-аналитике это критично:

Черный ящик в серьезном деле — это страшно
Например, нужно определить размер скидки для контрагента. Можно использовать для этого LLM — это тут же вызовет вопросы партнеров. Люди могут негативно воспринимать бизнес-правила при формировании скидки, но принимают их (принцип объясним). А решение подобных задач с помощью ИИ будет совершенно непонятным.
Если нельзя объяснить, как система пришла к выводу — доверие к такому решению будет минимальным. Именно непрозрачность — частая причина конфликтов с контрагентами.
Есть ли методы отслеживания работы LLM, оценки качества сформированной модели? Есть. Однако их использование связано с дополнительными трудозатратами. В большинстве случаев задачи можно решать проще.
Пока цена ошибки невелика — погрешности допустимы. Но во многих областях ситуация меняется. Речь идет, прежде всего, о медицине, юриспруденции, стратегическом управлении и др.
Здесь возникает ключевой вопрос: кто несет ответственность?
ИИ может рекомендовать, предлагать варианты и анализировать. Но он не может нести юридическую ответственность, платить штрафы и отвечать за последствия своих решений.
Нейросеть не является субъектом права. А значит, ответственность всегда ложится на человека или компанию-разработчика.
В случае с «голыми» LLM: вероятностная природа делает их неподходящими для задач с высокой ценой ошибки.
Тут может возникнуть вопрос, нет ли здесь «страха перед машинами»? Нет. Доверять технике критически важные функции — норма. Например, системам безопасности в автомобилях.
Идет активное внедрение беспилотных автомобильных систем. Но эти системы сертифицированы, понятна логика их работы. Использование ИИ в беспилотных автомобилях подкреплено очень серьезными — дополнительными и приоритетными по отношению к LLM — системами безопасности. Также известно, кто будет отвечать при негативных сценариях.
Существует распространенное заблуждение: если LLM умеет «отвечать на все вопросы», значит, ей можно просто дать большую таблицу и получить результат.
На практике это не так. Работа с большими данными через LLM напрямую:
Важно понимать: технологии Big Data возникли из-за таких объемов данных, которые не помещаются в память одного компьютера.
Контекстное окно — максимальный объем текстовой информации, который LLM может обрабатывать и «запоминать» одновременно во время разговора — существенно меньше. Даже таблица на несколько миллионов строк может оказаться для модели «нечитаемой».
При этом задачи, которые в BI-системах — особенно, если речь об аналитике реального времени — или даже Excel решаются за секунды, при использовании ИИ требуют дорогой инфраструктуры и много времени.
Вывод очевиден: для обработки больших объемов данных нужно использовать специализированные инструменты, а не просто ИИ.
Для использования LLM в работе с большими объемами данных хорошо себя показывает технология MCP. Это универсальный способ подключения больших языковых моделей. Например, MCP-сервер на платформе Loginom позволяет подавать обработанные данные большим языковым моделям и получать качественный результат.
ИИ — это дорого. Затраты включают закупку оборудования, настройку инфраструктуры, энергопотребление или оплату облачных сервисов.
Для сравнения: простые решения на недорогом оборудовании позволяют решать множество задач эффективно и дешево. Например микроконтроллеры Arduino и Raspberry Pi популярны в системах «умный дом» (и не только), потому что стоят недорого, а результат работы — приемлем.
ИИ-сервер — это противоположность: дорого, громоздко и ресурсоемко.
Да, технологии развиваются. То, что сегодня дорого, через несколько лет может стать массовым. Но на 2026 год использование ИИ во многих задачах просто экономически не оправдано.
Примечание: есть дополнительное требование — к безопасности использования аналитической системы. И в этом смысле использование ИИ тоже неудачно.
Передовые LLM — облачные сервисы, их использование принципиально небезопасно. Тем не менее, многие работники обращаются к внешним LLM для решения своих задач, и компаниям приходится бороться с утечкой данных. Есть возможность использования локальных моделей, но это влечет за собой большие расходы на развертывание и поддержание инфраструктуры.
Есть четыре ключевых фактора, которые ограничивают применение ИИ в бизнес-аналитике: скорость, стоимость, точность и контроль.
Факторы, ограничивающие использование ИИ
Важно еще раз подчеркнуть: речь идет об использовании LLM в «чистом виде». Ничто не мешает применять ИИ для генерации контента, в качестве вспомогательного инструмента, в составе более сложных систем с дополнительными средствами контроля. Последнее — особенно важно.
Данная статья не направлена против ИИ. Наоборот, она появилась в результате опасений за неправильное использование технологий LLM и завышение ожиданий от их внедрения.
Часто пользователь надеется получить «волшебный» результат, тратит деньги и время. А из-за неправильного использования «отворачивается» от технологии. Этого нужно избегать.
Используйте LLM там, где они действительно сильны. А данные — обрабатывайте правильно.
И, как говорится, будьте бдительны: доверяйте свои деньги и процессы не «магии», а понятным и предсказуемым системам.
Другие материалы по теме: