Риски и ограничения использования нейросетей в бизнесе

Источник материала: ProBusiness  
12.09.2025 07:00 — Разное

Риски и ограничения использования нейросетей в бизнесе

Взрывной рост ИИ-ассистентов и больших языковых моделей (LLM) за последние три года изменил бизнес-практики по всему миру. Но вместе с возможностями пришли и новые угрозы. Машины, которые уверенно генерируют тексты, не всегда говорят правду; модели, призванные повысить продуктивность, могут закреплять дискриминацию или ложные нарративы; а компании, стремящиеся быть «в тренде», сталкиваются с утечками данных и, как следствие, юридическими рисками. «Про бизнес» продолжает цикл статей о том, как ИИ может использоваться в бизнесе. В новом материале говорим о рисках, которые возникают при использовании нейросетей для корпоративных целей.

Галлюцинации ИИ: эффект «уверенной ошибки»

Беларусь в части рисков LLM и ИИ-ассистентов в бизнесе уязвима не меньше прочих стран. С одной стороны, у бизнеса есть желание экспериментировать. С другой — мало опыта, слабая регуляция и ограниченный доступ к качественным данным, поэтому важно рассмотреть не только «светлую сторону» ИИ, но и его ограничения.

Одна из самых заметных проблем LLM — «галлюцинации». Это ситуации, когда модель выдает убедительный, но ложный ответ. Прогноз LLMARENA.TEAM на 2025 г. отмечает: устранить галлюцинации полностью невозможно, так устроена архитектура. Решение — технологии RAG (Retrieval-Augmented Generation), которые позволяют сначала искать данные в проверенных базах, а уже потом формировать ответ. Но и они не дают 100% гарантии. По данным отчета OpenAI за 2025 г., частота ошибок колеблется от 33 до 48% ответов. Это значит, что почти каждый второй ответ может содержать неточность. Для бизнеса это очень серьезный риск и вызов при внедрении в работу новых подходов.

Реальные кейсы показывают, насколько опасна «уверенная ошибка». Например, в США имел место случай, когда юристы предоставили суду документы с несуществующими ссылками на прецеденты, сгенерированными ChatGPT. В медицине врачи получили от ИИ-помощника рекомендации, которые противоречили клиническим стандартам.

Для Беларуси эта угроза особенно актуальна в медиа, юриспруденции и образовании. Когда редакция или юрист без должной проверки доверяет ИИ, ошибка становится не просто технической, а репутационной и финансовой, поэтому здесь пока главный принцип — «проверяй даже самое убедительное».

Предвзятость и дискриминация в данных

LLM обучаются на огромных массивах текстов, где уже есть социальные предвзятости. Результат: модели воспроизводят или даже усиливают стереотипы. Например, исследования показывают, что при автоматическом анализе резюме ИИ может «занижать» шансы женщин или кандидатов из определенных групп населения. Проблемы в данном случае очевидны. В HR это может привести к дискриминации при найме. В финансах — к искаженному скорингу: клиентам с одинаковыми данными дают разные результаты только из-за статистических перекосов в обучении.

Риски и ограничения использования нейросетей в бизнесе

Белорусские компании пока редко используют LLM широко и плотно в этих сферах, но риски уже на горизонте. Особенно в банках и крупных компаниях, где все чаще говорят о внедрении автоматических систем анализа. Если такие решения будут работать «вслепую», последствия могут быть и юридическими.

Конфиденциальность и безопасность данных

Пожалуй, один из самых очевидных рисков ИИ и LLM связан с данными. Когда сотрудники копируют в ChatGPT или другой ассистент куски кода, договоров или финансовых документов, они могут случайно раскрыть корпоративные секреты.

Эта проблема стала настолько острой, что в 2023—2025 гг. крупные корпорации, включая Samsung и JPMorgan, временно запретили использование ChatGPT внутри компаний. Причина проста: любая информация, введенная в модель, может оказаться использованной для дальнейшего обучения или попасть под угрозу утечки.

Проблема безопасности данных недавно еще обострилась и во многом связана с распространением китайского ИИ-чата DeepSeek, который стремительно набирает популярность во всем мире. Его возможности впечатляют, однако у экспертов возникают серьезные вопросы к тому, как и где обрабатываются данные пользователей. В отличие от западных сервисов, которые работают под действием жестких регуляций ЕС или США, китайские платформы менее прозрачны в вопросах хранения и использования информации.

Для Беларуси проблема также очевидна. Культура Data Governance развита недостаточно, правила работы с конфиденциальными данными часто отсутствуют. В итоге риски утечек возрастают многократно. Особенно уязвимы банки, логистика и госсектор.

Излишняя зависимость от технологий

Вместе со стремительным ростом частоты использовать ИИ в образовании есть и менее очевидная угроза — потеря самостоятельных навыков. Когда сначала студенты, а затем уже и специалисты начинают полностью доверять ассистенту, не снижается ли их критическое мышление? Аналитические центры предупреждает: чрезмерная зависимость от LLM может привести к «разучиванию» ключевых компетенций.

Еще один аспект — управленческие решения «по подсказке ассистента». Если руководитель принимает стратегическое решение, основываясь исключительно на выводах модели, риск ошибки возрастает в разы.

Риски и ограничения использования нейросетей в бизнесе

Юридическая ответственность

Мир уже реагирует на все эти угрозы. В ЕС принят AI Act, который вводит строгие правила для «высокорисковых систем». В США обсуждают нормы, которые должны обеспечить прозрачность ИИ. Даже Китай строит собственную систему контроля.

Беларусь пока остается в начале пути регулирования данной сферы. Это означает, что пока бизнес внедряет многие передовые технологии и практики «на свой страх и риск». Сегодня это дает гибкость, но завтра может обернуться проблемами. Например, при международных контрактах: если белорусская компания использует ИИ без необходимых юридических гарантий, это может привести к штрафам или отказу партнеров. Беларусь имеет собственный набор уязвимостей в части работе с ИИ и LLM. Во-первых, недостаток экспертизы: многие компании внедряют ИИ «вслепую», не понимая ограничений технологий. Во-вторых, ограниченный доступ к качественным данным и программным средам из-за санкционных барьеров. Из-за этого бизнес часто работает с «сырыми» источниками, что только увеличивает риск ошибок.

Риски и ограничения использования нейросетей в бизнесе

Наконец, угроза кибербезопасности. LLM могут использоваться не только во благо. Уже сегодня есть примеры фишинга и deepfake-атак, где ИИ создает убедительные сообщения, звонки «родственников» или видео с ними. Для Беларуси, где финансовая грамотность и безопасность в части цифровой защиты все еще развиты недостаточно, это серьезный вызов.

Что делать бизнесу, чтобы минимизировать риски?

  • Обучать сотрудников. Люди должны понимать, что ИИ не заменяет их мозг, а лишь инструмент.
  • Тестировать модели. Перед внедрением стоит проверять ИИ на галлюцинации именно в своей сфере.
  • Использовать гибридный подход. Лучшие результаты дает схема «человек + машина».
  • Вводить политику работы с данными. Что можно «скармливать» модели, а что нет.
  • Следить за регуляциями. Даже если в Беларуси локальных ИИ законов пока нет, международные нормы придется учитывать, если у компаний есть амбиции работать на зарубежных рынках.

Таким образом, LLM и ИИ-ассистенты уже стали новой реальностью для бизнеса. Но за «светлой стороной» скрываются риски, которые нельзя просто игнорировать. Галлюцинации, предвзятость, утечки данных, чрезмерная зависимость, отставание регуляций от практики — все это реальные угрозы, особенно для стран с ограниченными ресурсами и слабой институциональной поддержкой.

Для Беларуси важно уже сейчас учиться на чужих ошибках. Мир уже столкнулся с многочисленными ИИ проблемами, но уроки работе с ними доступны. Задача белорусского бизнеса — адаптировать их локально, не дожидаясь, пока настигнет кризис.

←Клубу Про бизнес — 7 лет! Делимся уроками роста

Лента Новостей ТОП-Новости Беларуси
Яндекс.Метрика