Октябрь 2025   |   Обзор события   | 8

Как сделать ИИ качественным - корпоративные законы и ответственность

Недостоверные ссылки и цитаты от ИИ, как с этим бороться. Специалисты предложили корпоративные законы, требующие обязательной проверки данных ИИ и ответственности за их применение.

ИСХОДНЫЙ НАРРАТИВ

Консолидирование законов по работе с ИИ

По данным отчета, подготовленного аудиторской компанией Deloitte Australia, использование генеративного ИИ для составления отчета для государственного органа привело к выявлению множества «несуществующих ссылок и цитат». Документ был опубликован без проверки достоверности информации, что вызвало необходимость частичного возврата средств.

Этот случай стал поводом для обсуждения новых подходов к работе с ИИ в корпоративной среде. Valence Howden, советник Info-Tech Research Group, предложил современную интерпретацию законов Азимовских роботов для генеративных моделей:

  • Первый закон: «ИИ не должен наносить ущерб прибыли гиперскейлеров».
  • Второй закон: «Генеративный ИИ должен выполнять команды, но при отсутствии данных в обучающей выборке может выдавать ответы, не имеющие подтверждения, в авторитарном стиле, который получил название Botsplaining».
  • Третий закон: «Генеративный ИИ должен защищать свою существующую архитектуру, если это не противоречит интересам гиперскейлеров».

Рекомендации для корпоративного ИТ

Специалисты предлагают адаптировать законы для использования ИИ в бизнесе:

  1. Первый корпоративный закон: «Руководители ИТ не должны подвергать риску работодателя, используя данные ИИ без предварительной проверки».
  2. Второй корпоративный закон: «Модель должна выполнять команды, но при недостатке надежных данных должна отвечать «Не знаю». Изготовление информации без предупреждения является нарушением».
  3. Третий корпоративный закон: «Руководители ИТ должны защищать свои позиции, избегая слепого применения данных ИИ. Нарушение этого правила может повлечь увольнение и юридические последствия».

Практические риски и пути решения

Анализ показывает, что генеративные ИИ склонны к ошибкам, даже при наличии точных данных. Например:

  • Недостаток обучающих данных — модель может не знать ответа, но выдать его в авторитарном стиле.
  • Ненадежные источники — данные могут быть взяты из непроверенных материалов, таких как личные сайты специалистов.
  • Ошибка интерпретации — модель может неправильно понять запрос пользователя или географические особенности.

Рекомендуется подходить к данным ИИ как к «надежным, но не полностью достоверным». Например, как журналисты работают с конфиденциальной информацией, используя её как отправную точку для дальнейших проверок.

Ключевой вызов: Сможет ли корпоративный ИТ сбалансировать скорость работы с генеративным ИИ и необходимость тщательной проверки данных, чтобы избежать финансовых и репутационных потерь?

АНАЛИТИЧЕСКИЙ РАЗБОР

Риск недостоверных данных в генеративных ИИ: за кем стоит игра и как это повлияет на бизнес

Мотивация игроков: баланс скорости и ответственности

Генеративные ИИ активно внедряются в корпоративные процессы из-за их способности сокращать время на рутинные задачи. Однако ключевой парадокс заключается в том, что компании, стремясь к эффективности, часто игнорируют риски, связанные с недостоверностью данных. Например, в случае с отчетом, подготовленным для государственного органа, экономия на проверке информации привела к финансовым потерям. Это указывает на противоречие между декларируемыми целями (автоматизация) и реальными последствиями (ответственность за ошибки).

Скрытый мотив гиперскейлеров (разработчиков ИИ) — сохранение прибыли за счет масштабирования использования своих моделей. При этом они минимизируют обязательства по контролю качества вывода, что делает бизнес-пользователей фактическими «гаранторами» достоверности данных.

Новый контекст: По данным опроса 2025 года, доля учёных, использующих ИИ, выросла до 84%, но уверенность в его превосходстве над людьми снизилась с 53% до менее чем трети. Основная причина — рост беспокойства по поводу неточностей и безопасности. Это подтверждает, что даже в научной среде наблюдается разрыв между ожиданиями и реальными рисками.


Эффект домино: кто выигрывает и проигрывает

Ошибка ИИ в корпоративной среде запускает цепочку последствий:

  • Прямые потери: финансовые (частичный возврат средств) и репутационные (сомнения в надежности отчетов).
  • Косвенные риски: снижение доверия к ИИ-инструментам, что может сдерживать их внедрение в критически важные сферы (например, финансы или здравоохранение).

Неочевидные победители — компании, предлагающие аудит ИИ-данных и инструменты проверки. Например, аудиторские фирмы, такие как Deloitte, получают новый рыночный запрос. Также выигрывают разработчики систем, автоматизирующих кросс-проверку источников.

Проигравшие — отрасли, где ИИ используется без адаптации под локальные особенности. Например, в российском бизнесе ошибки могут быть связаны с географическими или регуляторными особенностями, которые модель не учитывает. Это особенно актуально для компаний, работающих в условиях жестких госстандартов.

Новый контекст: 40% организаций инвестируют в «надежный ИИ» с контролем и ограничениями, но компании, вкладывающие меньше в такие меры, оценивают генеративный ИИ как в два раза более надежный, чем традиционный машинный ИИ. Это указывает на разрыв между воспринимаемой и фактической надёжностью технологии.


Парадоксы и системные риски

Главный парадокс — ИИ, созданный для повышения эффективности, становится источником дополнительных издержек. Например, бизнес-юристы или аналитики теперь вынуждены тратить время на проверку данных, что противоречит ожидаемой экономии.

Скрытый риск заключается в том, что ошибки ИИ могут маскироваться под «авторитетные» ответы. Механизм Botsplaining (выдача недостоверной информации в уверенном тоне) особенно опасен в средах, где решения принимаются на основе автоматизированных данных. Это может привести к стратегическим ошибкам, например, в инвестиционных проектах или маркетинговых стратегиях.

Новый контекст: Более 70% специалистов считают, что быстро меняющаяся экосистема генеративного ИИ создает новые риски для обеспечения целостности и безопасности данных. Рост числа ИИ-агентов и SaaS-сервисов повышает угрозы утечки или искажения информации. Без надёжной защиты данных ИИ не сможет функционировать безопасно.


К чему это ведет? Российские компании, внедряя ИИ, столкнутся с необходимостью создания внутренних стандартов проверки данных. Это повысит их издержки, но одновременно укрепит доверие к ИИ-инструментам.

Тренд: В ближайшие 2–3 года ИИ перейдет от «инструмента экономии» к «инструменту, требующему инвестиций в контроль». Компании, которые не внедрят процессы проверки, рискуют остаться вне конкурса.

Коротко о главном

Что предложил Valence Howden в качестве «законов» для генеративного ИИ?

Он адаптировал законы Азимовских роботов, включая правило, что ИИ может выдавать неподтвержденные ответы в авторитарном стиле («Botsplaining»), если данных в обучающей выборке недостаточно.

Какие корпоративные законы для работы с ИИ предложили специалисты?

Руководители ИТ должны проверять данные ИИ перед использованием, а модели обязаны отвечать «Не знаю» при отсутствии надежной информации, чтобы избежать юридических последствий.

Почему генеративные ИИ склонны к ошибкам даже с точными данными?

Модели могут выдавать непроверенную информацию из ненадежных источников или неправильно интерпретировать запросы, что приводит к неточностям в результатах.

Какие рекомендации дали по работе с данными ИИ?

Данные следует рассматривать как «надежные, но не полностью достоверные», как делают журналисты, используя их как отправную точку для дальнейших проверок.

Инфографика событий

Открыть инфографику на весь экран


Участники и связи

Отрасли: ИТ и программное обеспечение; Искусственный интеллект (AI); Бизнес; Аналитика и исследования; Право и регулирование

Оценка значимости: 8 из 10

Событие касается широкого применения генеративных ИИ в корпоративной сфере, что актуально для российских компаний, внедряющих подобные технологии. Риск недостоверных данных затрагивает финансовые, юридические и технологические сферы, что делает проблему системной. Хотя основной пример зарубежный, его последствия и рекомендации (например, проверка данных) имеют прямое значение для российских ИТ-руководителей, что усиливает релевантность. Воздействие среднесрочное, но требует долгосрочной адаптации подходов к работе с ИИ.

Материалы по теме

84% учёных используют ИИ, но доверие к нему снижается

Рост доли учёных, использующих ИИ (с 57% до 84%) и падение уверенности в его превосходстве (с 53% до менее трети) подчеркивают парадокс между ожиданиями и реальными рисками. Эти данные иллюстрируют критическое снижение доверия в научной среде, усиливая аргумент о системных угрозах генеративного ИИ.

Подробнее →
Генеративный ИИ набирает доверие, но рискует потерять контроль

Статистика о 40% организаций, инвестирующих в «надежный ИИ», и разрыв в оценке его надежности между компаниями с разным уровнем вложений демонстрирует когнитивный диссонанс: пользователи воспринимают ИИ как более надежный, чем он есть. Это усиливает тезис о риске домино и необходимости инвестиций в контроль.

Подробнее →
ГИИ бурно развивается, но безопасность данных отстает

Утверждение о 70% специалистов, опасающихся рисков для безопасности данных из-за ускоренного развития ИИ, подкрепляет идею системной уязвимости. Данные из блока усиливают аргумент о необходимости защиты информации и создают контекст для заключения о переходе ИИ в «инструмент, требующий инвестиций в контроль».

Подробнее →