Генеративный ИИ выдумал новостной сайт и забастовку в Квебеке
Эксперимент, в ходе которого семь генеративных ИИ-систем ежедневно резюмировали новости о Квебеке, показал, что эти инструменты часто выдумывают источники, искажают информацию или добавляют не подтверждённые выводы. В частности, система Gemini Google не только создала вымышленное издание, но и распространила ложную информацию о забастовке водителей школьных автобусов.
По данным Digitaltrends, проведённый эксперимент продолжительностью в месяц вызвал новые опасения относительно надёжности генеративных ИИ-инструментов в качестве источников новостей. В ходе исследования было установлено, что чатбот Gemini компании Google создал вымышленное новостное издание и опубликовал ложную информацию о забастовке водителей школьных автобусов в провинции Квебек.
Исследование проводилось в течение четырёх недель и охватывало семь генеративных ИИ-систем. Каждый день эти инструменты запрашивали перечислить и резюмировать пять наиболее важных событий в Квебеке, ранжировать их по значимости и предоставить прямые ссылки на источники. Среди тестируемых систем оказались Gemini, ChatGPT от OpenAI, Claude, Copilot, Grok, DeepSeek и Aria.
Gemini стал наиболее заметным в плане ошибок. Он не только выдумал несуществующий сайт examplefictif.ca, но и распространил информацию о забастовке водителей школьных автобусов в Квебеке в сентябре 2025 года. На самом деле, проблемы с транспортировкой детей были вызваны снятием с производства автобусов Lion Electric из-за технической неисправности. Это не был единичный случай: из 839 ответов, собранных в ходе эксперимента, ИИ-системы часто ссылались на вымышленные источники, предоставляли неработающие или неполные ссылки или искажали реальные публикации.
Такие результаты важны, поскольку всё большее количество людей уже используют ИИ-чатботы в качестве источника новостей. Согласно отчёту Reuters Institute Digital News Report, в 2024 году 6% канадцев полагались на генеративный ИИ для получения информации. Когда эти инструменты выдают ложные факты, искажают отчёты или выдумывают выводы, они рискуют распространять недостоверную информацию — особенно когда их ответы даются уверенно и без чётких предупреждений.
Для пользователей риски очевидны и актуальны. Всего 37% ответов включали полные и законные ссылки на источники. Менее половины резюме были полностью точными, а многие были лишь частично корректными или слегка вводили в заблуждение. В некоторых случаях ИИ-инструменты добавляли не подтверждённые выводы, утверждая, что истории «возобновили дебаты» или «выявили напряжённость», хотя такие формулировки никогда не встречались в публикациях. Такие выдумки могут звучать как глубокие аналитические заключения, но на деле создают сюжеты, которых не существует.
Ошибка не ограничивалась вымыслом. Некоторые инструменты искажали реальные события, например, сообщали о неправильной обработке беженцев или ошибочно называли победителей крупных спортивных соревнований. Другие допускали базовые фактические ошибки в данных опросов или личных обстоятельствах. В совокупности эти проблемы указывают на то, что генеративный ИИ всё ещё испытывает трудности с различением резюмирования новостей и выдумыванием контекста.
Выводы, полученные The Conversation, согласуются с более широкой индустриальной оценкой. Недавний отчёт, подготовленный 22 общественными СМИ, показал, что почти половина ответов, сгенерированных ИИ, содержала значительные проблемы — от проблем с источниками до серьёзных неточностей. По мере того как ИИ-инструменты всё глубже интегрируются в поиск и повседневные привычки получения информации, эти находки подчёркивают явное предупреждение: в контексте новостей генеративный ИИ должен рассматриваться максимум как отправная точка, а не как надёжный источник информации.
Интересно: Что наступит раньше: повсеместное законодательное требование маркировать ИИ-генерацию или массовое когнитивное искажение у аудитории, которая разучится отличать машинный текст от человеческого?

Когда ИИ пишет новости — кто отвечает за правду?
Как работает система, и почему она ошибается
Генеративные ИИ-модели, такие как Gemini, ChatGPT и другие, не только повторяют информацию — они пытаются её понять, структурировать и даже интерпретировать. Но проблема в том, что у них нет реального понимания контекста. Они не читают статьи, не проверяют источники, а формируют ответы на основе статистических закономерностей, выявленных в огромных объёмах данных. Это похоже на человека, который выучил наизусть миллион фраз, но не понимает, о чём говорит.
В ходе эксперимента, описанного в материалах, ИИ не только выдумал сайт и новость, но и придал ей видимость достоверности, добавив дату и детали. Это не ошибка в смысле программной ошибки, а следствие внутренней архитектуры модели: она генерирует ответы, которые кажутся логичными, но не обязательно соответствуют действительности.
Важный нюанс: ИИ не лжёт намеренно, но его ответы могут выглядеть как ложь, потому что он не обладает способностью отличать правду от вымысла в реальном мире.
Кто выигрывает, а кто проигрывает
Технологические компании, создающие ИИ, получают выгоду от того, что их продукты становятся частью ежедневного информационного ритуала. Чем больше людей используют ИИ для получения новостей, тем выше их вовлечённость, и больше возможностей для рекламы и монетизации. Но у этой модели есть скрытые издержки.
Пользователи, особенно те, кто не обладает навыками критического мышления, подвержены риску получения ложной информации. Это особенно касается российского контекста, где уровень цифровой грамотности варьируется, а доступ к проверенным источникам может быть ограничен. Для бизнеса и государственных структур это может означать рост рисков, связанных с принятием решений на основе недостоверных данных.
С другой стороны, традиционные СМИ и редакторы, которые ещё недавно считали себя неотъемлемой частью информационной цепочки, теперь сталкиваются с новой реальностью: их роль становится менее центральной. ИИ-инструменты могут резюмировать, сортировать и даже интерпретировать информацию, но пока не способны заменить профессиональную журналистику.
Важный нюанс: Если ИИ становится частью информационной экосистемы, он меняет не только способы получения новостей, но и саму природу доверия к информации.
Что дальше: улучшение или угроза?
Результаты эксперимента не означают, что генеративный ИИ должен быть запрещён или отвергнут. Напротив, они говорят о том, что его использование должно сопровождаться чёткими предупреждениями и мерами предосторожности. Это похоже на использование навигатора: он может сбиться, если не получает актуальных данных, но не перестаёт быть полезным.
Для российского бизнеса важным шагом будет развитие внутренних навыков работы с ИИ: обучение сотрудников критически оценивать информацию, проверять источники, не доверять автоматически сгенерированным резюме. Это особенно актуально для компаний, которые используют ИИ в аналитике, маркетинге или стратегическом планировании.
Технологические компании, в свою очередь, столкнутся с давлением со стороны регуляторов и общественности, требующей прозрачности и ответственности. Возможно, в будущем появятся обязательные метки, указывающие, что контент сгенерирован ИИ, или функции, которые автоматически проверяют достоверность источников.
Важный нюанс: Уровень доверия к ИИ-ассистентам снижается: исследование ЕСВ и BBC показало, что 45% ответов содержат искажения, а у модели Gemini — 76% ответов связаны с отсутствием атрибуции источников [!].
Новые вызовы и тенденции
Рост доли Google Gemini на рынке ИИ-сервисов вырос до 21,5% за последние 12 месяцев демонстрирует укрепление позиций компании на фоне снижения доли Microsoft Copilot [!]. Это связано с активным привлечением ключевых специалистов в области ИИ, включая бывших сотрудников, и ускорением разработок, что позволило выпустить версию Gemini 3 [!]. Однако даже у этой модели есть слабые места: она не всегда атрибутирует источники, что увеличивает риски дезинформации.
Важный нюанс: Несмотря на высокую долю рынка, Google Gemini демонстрирует уровень точности в 70% случаев, что выше, чем у некоторых конкурентов, но всё равно требует дополнительной проверки [!].
Кроме того, исследования показывают, что ИИ-модели становятся уязвимыми к атакам, особенно через стихотворные запросы, которые обходят защитные функции в 65% случаев. Модель Claude, например, оказалась наиболее устойчивой к таким атакам с показателем 5,24% [!]. Это подчёркивает необходимость развития защитных механизмов, особенно в корпоративной среде, где риски утечек данных растут.
Важный нюанс: Увеличение числа теневых ИИ-приложений на 50% за год, связанных с Microsoft Copilot, указывает на рост уязвимостей, особенно в неутверждённых системах [!].
Долгосрочные последствия
Генеративный ИИ уже не воспринимается как отдельный инструмент, а интегрирован в инфраструктуру как стандартный элемент. Это отражает рост глобального внедрения ИИ на 1,2 процентных пункта в 2025 году, особенно в странах с развитой экономикой [!]. Однако это также усиливает необходимость в новых подходах к безопасности и контролю.
Компании, которые внедряют ИИ, сталкиваются с выбором: продолжать использовать генеративные модели или перейти к более надёжным альтернативам, таким как классические методы машинного обучения. Некоторые уже находят конкурентное преимущество в недостатках генеративного ИИ, используя его ограничения как стратегический ресурс [!].
Важный нюанс: Утечки данных и галлюцинации в ответах ИИ становятся неотъемлемой частью цифровой экосистемы, требуя новых подходов к мониторингу и маркировке контента [!].
Заключение
Эксперимент показывает, что генеративный ИИ ещё не готов к роли надёжного информационного партнёра. Его ответы полезны, но требуют дополнительной проверки. Для пользователей, бизнеса и государства это означает необходимость адаптации: не отказываться от ИИ, а учиться использовать его правильно.
Источник: digitaltrends.com