Как сделать ИИ качественным - корпоративные законы и ответственность
Недостоверные ссылки и цитаты от ИИ, как с этим бороться. Специалисты предложили корпоративные законы, требующие обязательной проверки данных ИИ и ответственности за их применение.
Консолидирование законов по работе с ИИ
По данным отчета, подготовленного аудиторской компанией Deloitte Australia, использование генеративного ИИ для составления отчета для государственного органа привело к выявлению множества «несуществующих ссылок и цитат». Документ был опубликован без проверки достоверности информации, что вызвало необходимость частичного возврата средств.
Этот случай стал поводом для обсуждения новых подходов к работе с ИИ в корпоративной среде. Valence Howden, советник Info-Tech Research Group, предложил современную интерпретацию законов Азимовских роботов для генеративных моделей:
- Первый закон: «ИИ не должен наносить ущерб прибыли гиперскейлеров».
- Второй закон: «Генеративный ИИ должен выполнять команды, но при отсутствии данных в обучающей выборке может выдавать ответы, не имеющие подтверждения, в авторитарном стиле, который получил название Botsplaining».
- Третий закон: «Генеративный ИИ должен защищать свою существующую архитектуру, если это не противоречит интересам гиперскейлеров».
Рекомендации для корпоративного ИТ
Специалисты предлагают адаптировать законы для использования ИИ в бизнесе:
- Первый корпоративный закон: «Руководители ИТ не должны подвергать риску работодателя, используя данные ИИ без предварительной проверки».
- Второй корпоративный закон: «Модель должна выполнять команды, но при недостатке надежных данных должна отвечать «Не знаю». Изготовление информации без предупреждения является нарушением».
- Третий корпоративный закон: «Руководители ИТ должны защищать свои позиции, избегая слепого применения данных ИИ. Нарушение этого правила может повлечь увольнение и юридические последствия».
Практические риски и пути решения
Анализ показывает, что генеративные ИИ склонны к ошибкам, даже при наличии точных данных. Например:
- Недостаток обучающих данных — модель может не знать ответа, но выдать его в авторитарном стиле.
- Ненадежные источники — данные могут быть взяты из непроверенных материалов, таких как личные сайты специалистов.
- Ошибка интерпретации — модель может неправильно понять запрос пользователя или географические особенности.
Рекомендуется подходить к данным ИИ как к «надежным, но не полностью достоверным». Например, как журналисты работают с конфиденциальной информацией, используя её как отправную точку для дальнейших проверок.
Ключевой вызов: Сможет ли корпоративный ИТ сбалансировать скорость работы с генеративным ИИ и необходимость тщательной проверки данных, чтобы избежать финансовых и репутационных потерь?
Риск недостоверных данных в генеративных ИИ: за кем стоит игра и как это повлияет на бизнес
Мотивация игроков: баланс скорости и ответственности
Генеративные ИИ активно внедряются в корпоративные процессы из-за их способности сокращать время на рутинные задачи. Однако ключевой парадокс заключается в том, что компании, стремясь к эффективности, часто игнорируют риски, связанные с недостоверностью данных. Например, в случае с отчетом, подготовленным для государственного органа, экономия на проверке информации привела к финансовым потерям. Это указывает на противоречие между декларируемыми целями (автоматизация) и реальными последствиями (ответственность за ошибки).
Скрытый мотив гиперскейлеров (разработчиков ИИ) — сохранение прибыли за счет масштабирования использования своих моделей. При этом они минимизируют обязательства по контролю качества вывода, что делает бизнес-пользователей фактическими «гаранторами» достоверности данных.
Новый контекст: По данным опроса 2025 года, доля учёных, использующих ИИ, выросла до 84%, но уверенность в его превосходстве над людьми снизилась с 53% до менее чем трети. Основная причина — рост беспокойства по поводу неточностей и безопасности. Это подтверждает, что даже в научной среде наблюдается разрыв между ожиданиями и реальными рисками.
Эффект домино: кто выигрывает и проигрывает
Ошибка ИИ в корпоративной среде запускает цепочку последствий:
- Прямые потери: финансовые (частичный возврат средств) и репутационные (сомнения в надежности отчетов).
- Косвенные риски: снижение доверия к ИИ-инструментам, что может сдерживать их внедрение в критически важные сферы (например, финансы или здравоохранение).
Неочевидные победители — компании, предлагающие аудит ИИ-данных и инструменты проверки. Например, аудиторские фирмы, такие как Deloitte, получают новый рыночный запрос. Также выигрывают разработчики систем, автоматизирующих кросс-проверку источников.
Проигравшие — отрасли, где ИИ используется без адаптации под локальные особенности. Например, в российском бизнесе ошибки могут быть связаны с географическими или регуляторными особенностями, которые модель не учитывает. Это особенно актуально для компаний, работающих в условиях жестких госстандартов.
Новый контекст: 40% организаций инвестируют в «надежный ИИ» с контролем и ограничениями, но компании, вкладывающие меньше в такие меры, оценивают генеративный ИИ как в два раза более надежный, чем традиционный машинный ИИ. Это указывает на разрыв между воспринимаемой и фактической надёжностью технологии.
Парадоксы и системные риски
Главный парадокс — ИИ, созданный для повышения эффективности, становится источником дополнительных издержек. Например, бизнес-юристы или аналитики теперь вынуждены тратить время на проверку данных, что противоречит ожидаемой экономии.
Скрытый риск заключается в том, что ошибки ИИ могут маскироваться под «авторитетные» ответы. Механизм Botsplaining (выдача недостоверной информации в уверенном тоне) особенно опасен в средах, где решения принимаются на основе автоматизированных данных. Это может привести к стратегическим ошибкам, например, в инвестиционных проектах или маркетинговых стратегиях.
Новый контекст: Более 70% специалистов считают, что быстро меняющаяся экосистема генеративного ИИ создает новые риски для обеспечения целостности и безопасности данных. Рост числа ИИ-агентов и SaaS-сервисов повышает угрозы утечки или искажения информации. Без надёжной защиты данных ИИ не сможет функционировать безопасно.
К чему это ведет? Российские компании, внедряя ИИ, столкнутся с необходимостью создания внутренних стандартов проверки данных. Это повысит их издержки, но одновременно укрепит доверие к ИИ-инструментам.
Тренд: В ближайшие 2–3 года ИИ перейдет от «инструмента экономии» к «инструменту, требующему инвестиций в контроль». Компании, которые не внедрят процессы проверки, рискуют остаться вне конкурса.