Январь 2026   |   Обзор события   | 5

Генеративный ИИ выдумал новостной сайт и забастовку в Квебеке

Эксперимент, в ходе которого семь генеративных ИИ-систем ежедневно резюмировали новости о Квебеке, показал, что эти инструменты часто выдумывают источники, искажают информацию или добавляют не подтверждённые выводы. В частности, система Gemini Google не только создала вымышленное издание, но и распространила ложную информацию о забастовке водителей школьных автобусов.

ИСХОДНЫЙ НАРРАТИВ

По данным Digitaltrends, проведённый эксперимент продолжительностью в месяц вызвал новые опасения относительно надёжности генеративных ИИ-инструментов в качестве источников новостей. В ходе исследования было установлено, что чатбот Gemini компании Google создал вымышленное новостное издание и опубликовал ложную информацию о забастовке водителей школьных автобусов в провинции Квебек.

Исследование проводилось в течение четырёх недель и охватывало семь генеративных ИИ-систем. Каждый день эти инструменты запрашивали перечислить и резюмировать пять наиболее важных событий в Квебеке, ранжировать их по значимости и предоставить прямые ссылки на источники. Среди тестируемых систем оказались Gemini, ChatGPT от OpenAI, Claude, Copilot, Grok, DeepSeek и Aria.

Gemini стал наиболее заметным в плане ошибок. Он не только выдумал несуществующий сайт examplefictif.ca, но и распространил информацию о забастовке водителей школьных автобусов в Квебеке в сентябре 2025 года. На самом деле, проблемы с транспортировкой детей были вызваны снятием с производства автобусов Lion Electric из-за технической неисправности. Это не был единичный случай: из 839 ответов, собранных в ходе эксперимента, ИИ-системы часто ссылались на вымышленные источники, предоставляли неработающие или неполные ссылки или искажали реальные публикации.

Такие результаты важны, поскольку всё большее количество людей уже используют ИИ-чатботы в качестве источника новостей. Согласно отчёту Reuters Institute Digital News Report, в 2024 году 6% канадцев полагались на генеративный ИИ для получения информации. Когда эти инструменты выдают ложные факты, искажают отчёты или выдумывают выводы, они рискуют распространять недостоверную информацию — особенно когда их ответы даются уверенно и без чётких предупреждений.

Для пользователей риски очевидны и актуальны. Всего 37% ответов включали полные и законные ссылки на источники. Менее половины резюме были полностью точными, а многие были лишь частично корректными или слегка вводили в заблуждение. В некоторых случаях ИИ-инструменты добавляли не подтверждённые выводы, утверждая, что истории «возобновили дебаты» или «выявили напряжённость», хотя такие формулировки никогда не встречались в публикациях. Такие выдумки могут звучать как глубокие аналитические заключения, но на деле создают сюжеты, которых не существует.

Ошибка не ограничивалась вымыслом. Некоторые инструменты искажали реальные события, например, сообщали о неправильной обработке беженцев или ошибочно называли победителей крупных спортивных соревнований. Другие допускали базовые фактические ошибки в данных опросов или личных обстоятельствах. В совокупности эти проблемы указывают на то, что генеративный ИИ всё ещё испытывает трудности с различением резюмирования новостей и выдумыванием контекста.

Выводы, полученные The Conversation, согласуются с более широкой индустриальной оценкой. Недавний отчёт, подготовленный 22 общественными СМИ, показал, что почти половина ответов, сгенерированных ИИ, содержала значительные проблемы — от проблем с источниками до серьёзных неточностей. По мере того как ИИ-инструменты всё глубже интегрируются в поиск и повседневные привычки получения информации, эти находки подчёркивают явное предупреждение: в контексте новостей генеративный ИИ должен рассматриваться максимум как отправная точка, а не как надёжный источник информации.

Интересно: Что наступит раньше: повсеместное законодательное требование маркировать ИИ-генерацию или массовое когнитивное искажение у аудитории, которая разучится отличать машинный текст от человеческого?

Концептуальное изображение
Создано специально для ASECTOR
Концептуальное изображение

АНАЛИТИЧЕСКИЙ РАЗБОР

Когда ИИ пишет новости — кто отвечает за правду?

Как работает система, и почему она ошибается

Генеративные ИИ-модели, такие как Gemini, ChatGPT и другие, не только повторяют информацию — они пытаются её понять, структурировать и даже интерпретировать. Но проблема в том, что у них нет реального понимания контекста. Они не читают статьи, не проверяют источники, а формируют ответы на основе статистических закономерностей, выявленных в огромных объёмах данных. Это похоже на человека, который выучил наизусть миллион фраз, но не понимает, о чём говорит.

В ходе эксперимента, описанного в материалах, ИИ не только выдумал сайт и новость, но и придал ей видимость достоверности, добавив дату и детали. Это не ошибка в смысле программной ошибки, а следствие внутренней архитектуры модели: она генерирует ответы, которые кажутся логичными, но не обязательно соответствуют действительности.

Важный нюанс: ИИ не лжёт намеренно, но его ответы могут выглядеть как ложь, потому что он не обладает способностью отличать правду от вымысла в реальном мире.

Кто выигрывает, а кто проигрывает

Технологические компании, создающие ИИ, получают выгоду от того, что их продукты становятся частью ежедневного информационного ритуала. Чем больше людей используют ИИ для получения новостей, тем выше их вовлечённость, и больше возможностей для рекламы и монетизации. Но у этой модели есть скрытые издержки.

Пользователи, особенно те, кто не обладает навыками критического мышления, подвержены риску получения ложной информации. Это особенно касается российского контекста, где уровень цифровой грамотности варьируется, а доступ к проверенным источникам может быть ограничен. Для бизнеса и государственных структур это может означать рост рисков, связанных с принятием решений на основе недостоверных данных.

С другой стороны, традиционные СМИ и редакторы, которые ещё недавно считали себя неотъемлемой частью информационной цепочки, теперь сталкиваются с новой реальностью: их роль становится менее центральной. ИИ-инструменты могут резюмировать, сортировать и даже интерпретировать информацию, но пока не способны заменить профессиональную журналистику.

Важный нюанс: Если ИИ становится частью информационной экосистемы, он меняет не только способы получения новостей, но и саму природу доверия к информации.

Что дальше: улучшение или угроза?

Результаты эксперимента не означают, что генеративный ИИ должен быть запрещён или отвергнут. Напротив, они говорят о том, что его использование должно сопровождаться чёткими предупреждениями и мерами предосторожности. Это похоже на использование навигатора: он может сбиться, если не получает актуальных данных, но не перестаёт быть полезным.

Для российского бизнеса важным шагом будет развитие внутренних навыков работы с ИИ: обучение сотрудников критически оценивать информацию, проверять источники, не доверять автоматически сгенерированным резюме. Это особенно актуально для компаний, которые используют ИИ в аналитике, маркетинге или стратегическом планировании.

Технологические компании, в свою очередь, столкнутся с давлением со стороны регуляторов и общественности, требующей прозрачности и ответственности. Возможно, в будущем появятся обязательные метки, указывающие, что контент сгенерирован ИИ, или функции, которые автоматически проверяют достоверность источников.

Важный нюанс: Уровень доверия к ИИ-ассистентам снижается: исследование ЕСВ и BBC показало, что 45% ответов содержат искажения, а у модели Gemini — 76% ответов связаны с отсутствием атрибуции источников [!].

Новые вызовы и тенденции

Рост доли Google Gemini на рынке ИИ-сервисов вырос до 21,5% за последние 12 месяцев демонстрирует укрепление позиций компании на фоне снижения доли Microsoft Copilot [!]. Это связано с активным привлечением ключевых специалистов в области ИИ, включая бывших сотрудников, и ускорением разработок, что позволило выпустить версию Gemini 3 [!]. Однако даже у этой модели есть слабые места: она не всегда атрибутирует источники, что увеличивает риски дезинформации.

Важный нюанс: Несмотря на высокую долю рынка, Google Gemini демонстрирует уровень точности в 70% случаев, что выше, чем у некоторых конкурентов, но всё равно требует дополнительной проверки [!].

Кроме того, исследования показывают, что ИИ-модели становятся уязвимыми к атакам, особенно через стихотворные запросы, которые обходят защитные функции в 65% случаев. Модель Claude, например, оказалась наиболее устойчивой к таким атакам с показателем 5,24% [!]. Это подчёркивает необходимость развития защитных механизмов, особенно в корпоративной среде, где риски утечек данных растут.

Важный нюанс: Увеличение числа теневых ИИ-приложений на 50% за год, связанных с Microsoft Copilot, указывает на рост уязвимостей, особенно в неутверждённых системах [!].

Долгосрочные последствия

Генеративный ИИ уже не воспринимается как отдельный инструмент, а интегрирован в инфраструктуру как стандартный элемент. Это отражает рост глобального внедрения ИИ на 1,2 процентных пункта в 2025 году, особенно в странах с развитой экономикой [!]. Однако это также усиливает необходимость в новых подходах к безопасности и контролю.

Компании, которые внедряют ИИ, сталкиваются с выбором: продолжать использовать генеративные модели или перейти к более надёжным альтернативам, таким как классические методы машинного обучения. Некоторые уже находят конкурентное преимущество в недостатках генеративного ИИ, используя его ограничения как стратегический ресурс [!].

Важный нюанс: Утечки данных и галлюцинации в ответах ИИ становятся неотъемлемой частью цифровой экосистемы, требуя новых подходов к мониторингу и маркировке контента [!].

Заключение

Эксперимент показывает, что генеративный ИИ ещё не готов к роли надёжного информационного партнёра. Его ответы полезны, но требуют дополнительной проверки. Для пользователей, бизнеса и государства это означает необходимость адаптации: не отказываться от ИИ, а учиться использовать его правильно.

Коротко о главном

Как проходил эксперимент по тестированию ИИ-чатботов?

В течение месяца семь генеративных ИИ-систем ежедневно запрашивали перечислить и резюмировать пять важных событий в Квебеке, сопровождая ответы ссылками на источники, чтобы оценить их способность работать с новостями.

Сколько ошибок было зафиксировано в ходе эксперимента?

Всего было собрано 839 ответов, из которых большинство содержали ссылки на вымышленные источники, неработающие ссылки или искажённые публикации, что указывает на систематические проблемы с достоверностью информации.

Почему ошибка Gemini оказалась особенно заметной?

Gemini не только придумал несуществующий сайт examplefictif.ca, но и распространил ложную информацию о забастовке водителей в сентябре 2025 года, тогда как реальная проблема в Квебеке была связана с технической неисправностью автобусов Lion Electric.

Сколько пользователей уже полагаются на ИИ для получения новостей?

В 2024 году 6% канадцев использовали генеративный ИИ в качестве источника новостей, что делает распространение ложной информации особенно рискованным для общества.

Какие ошибки были самыми распространёнными у ИИ-систем?

Чатботы часто добавляли не подтверждённые выводы, искажали реальные события, называли неправильных победителей соревнований и допускали фактические ошибки в данных, что свидетельствует о сложностях в дифференциации между резюмированием и вымыслом.

Каковы общие выводы по результатам тестирования?

Почти половина ответов, сгенерированных ИИ, содержала значительные проблемы, включая неточности и недостоверные источники, что подтверждает необходимость рассматривать генеративный ИИ как отправную точку, а не как надёжный источник новостей.

Инфографика событий

Открыть инфографику на весь экран


Участники и связи

Отрасли: ИТ и программное обеспечение; Искусственный интеллект (AI); Кибербезопасность; Бизнес; Маркетинг и продажи; Цифровизация и технологии; Государственное управление и общественная сфера; Здоровье и медицина; Медицинские технологии

Оценка значимости: 5 из 10

Событие касается зарубежного исследования о недостоверности генеративных ИИ-систем, которое не оказывает прямого влияния на российскую аудиторию. Хотя тема ИИ и доверие к источникам информации актуальны, событие имеет региональный характер и затрагивает одну-две сферы — технологии и медиа. Последствия краткосрочные и не затрагивают ключевые аспекты жизни российских пользователей.

Материалы по теме

ИИ-ассистенты искажают новости в 45% случаев, угрожая доверию

Исследование ЕСВ и BBC о 45% искажений в ответах ИИ-ассистентов подчёркивает проблему дезинформации, особенно в контексте отсутствия атрибуции у Gemini (76% случаев). Эти данные служат ключевым аргументом в обсуждении снижения доверия к ИИ-ассистентам и необходимости проверки источников.

Подробнее →
ChatGPT теряет позиции: Google Gemini вырывает лидерство в ИИ

Рост доли Google Gemini на рынке ИИ-сервисов с 5,7% до 21,5% используется для иллюстрации динамики конкуренции в ИИ-секторе и укрепления позиций Google, что подчёркивает масштабы технологической гонки.

Подробнее →
Google возвращает бывших сотрудников для борьбы за лидерство в ИИ

Версия Gemini 3, выпущенная в 2025 году, демонстрирует ускорение разработок Google, что служит примером стратегии компании по удержанию лидерства в генеративных ИИ-технологиях.

Подробнее →
ИИ в бизнесе: доверие под угрозой из-за неточностей в финансах и праве

Уровень точности Google Gemini в 70% используется как сравнительный показатель, чтобы подчеркнуть, что даже высокая точность не гарантирует надёжности ИИ-ассистентов и требует дополнительной проверки.

Подробнее →
Стихотворные запросы обходят защиту AI в 65% случаев — уязвимость крупных LLM

Низкий уровень уязвимости модели Claude (5,24%) к стихотворным атакам подчёркивает её устойчивость, что используется как пример необходимости развития защитных механизмов в ИИ-системах.

Подробнее →
GenAI в компаниях: рост утечек данных и уязвимостей

Рост числа тенинших ИИ-приложений на 50% за год, связанных с Microsoft Copilot, иллюстрирует рост уязвимостей в корпоративной среде и необходимость усиления контроля за ИИ-приложениями.

Подробнее →
Глобальный ИИ-рывок: кто лидирует и кто отстает в цифровой гонке

Рост глобального внедрения ИИ на 1,2 процентных пункта в 2025 году подчёркивает масштаб интеграции ИИ в инфраструктуру и демонстрирует, что он уже стал стандартным элементом, а не отдельным инструментом.

Подробнее →
Компании находят преимущества в недостатках генеративного ИИ

Упоминание недостатков генеративного ИИ, таких как галлюцинации и низкая надёжность, используется для аргументации того, что компании могут использовать эти слабости как стратегический ресурс, выбирая более надёжные альтернативы.

Подробнее →
Генеративный ИИ растёт — но безопасность отстаёт

Риски, связанные с внедрением генеративного ИИ, включая утечки данных и предвзятость выводов, усиливают тезис о необходимости новых подходов к безопасности и контролю в цифровой экосистеме.

Подробнее →