Новый ИИ-проект Маска подвергнут критике за ложные источники
Исследователи из Cornell Tech обнаружили, что ИИ-платформа Grokipedia, запущенная xAI Элона Маска, в значительной степени заимствует контент из Википедии и ссылается на спорные источники, включая экстремистские сайты. Статьи, не скопированные напрямую, чаще содержат ссылки на ненадёжные ресурсы, что вызывает сомнения в эффективности автоматизированной проверки информации.
По данным Digital Trends, исследователи из Cornell Tech провели анализ новой ИИ-платформы Grokipedia, запущенной компанией xAI, принадлежащей Элону Маску. Результаты вызвали вопросы относительно достоверности источников, на которые ссылается ресурс.
Grokipedia позиционируется как альтернатива Википедии, которую её создатели часто критикуют за предполагаемый либеральный уклон. Однако исследование показало, что платформа не только заимствует значительную часть текста из Википедии, но и ссылается на источники, ранее исключённые из её системы за ненадёжность. В частности, упоминается статья о так называемом «списке жертв Клинтонов», подкреплённая ссылкой на ресурс InfoWars, известный своими экстремистскими и ложными публикациями.
Анализ также выявил, что статьи, не скопированные напрямую, чаще содержат ссылки на ненадёжные источники. Так, они в 3 раза чаще ссылаются на спорные источники и в 13 раз — на те, что находятся в чёрных списках. Это ставит под сомнение подход к проверке информации в рамках ИИ-проектов, где отсутствует редактирование со стороны человека.
Wikimedia Foundation, поддерживающая Википедию, отметила, что открытая модель с участием сообщества остаётся ключевым фактором доверия к информации. В свою очередь, Маск объявил о переименовании Grokipedia в Encyclopedia Galactica, назвав её «научно-фантастической версией Александрийской библиотеки». Однако эксперты подчёркивают, что переименование не решает проблему качества источников.
Интересно: Как обеспечить прозрачность и надёжность источников в ИИ-платформах, если алгоритмы способны масштабировать и распространять ложную информацию без участия человека?

Когда ИИ становится зеркалом своих источников
Кто за кем, а кто за кем?
Платформа Grokipedia, запущенная xAI Элона Маска, позиционируется как альтернатива Википедии. На первый взгляд — это конкуренция, но в действительности это не только попытка создать новую энциклопедию. Это попытка переписать правила, по которым ИИ-платформы формируют знания. В отличие от Википедии, где информация проверяется сообществом, Grokipedia опирается на алгоритмы, которые, как оказалось, не умеют отличать достоверное от ложного без человеческого контроля.
Ключевой момент: ИИ-платформы, не имеющие редакции, становятся зеркалом своих источников. Если данные, на которые они ссылаются, ненадёжны, то и результат будет искажённым. Это не ошибка алгоритма — это его природа.
Исследование из Cornell Tech показало, что Grokipedia не только копирует статьи из Википедии, но и использует спорные источники, включая InfoWars. В 13 раз чаще, чем Википедия, она ссылается на источники, уже исключённые из других баз за недостоверность. Это не случайность. Это эффект масштабирования: ИИ может собрать и распространить ложную информацию в десятки раз быстрее человека, и, что хуже, он делает это без сомнений [!].
Важный нюанс: Алгоритмы не сомневаются. Они не задают вопросов. Они повторяют. И если данные, на которые они опираются, искажены — искажён будет результат.
Кто выигрывает, а кто проигрывает
Возможно, Маск видит в Grokipedia (теперь Encyclopedia Galactica) не только энциклопедию, а будущее знаний — автономное, быстрое, не зависящее от человеческой субъективности. Но на практике это выглядит как переход от одного типа контроля к другому: от сообщества к алгоритму. И это не только смена формата — это смена архитектуры доверия.
Википедия выросла из идеи, что знания должны быть открытыми, проверяемыми и коллективно формируемыми. В её системе есть ошибки, но они исправляются. В системе Grokipedia ошибки масштабируются. Это делает её не менее опасной, а в некоторых аспектах — более опасной, особенно если учесть, что алгоритмы могут работать без участия человека.
Ключевой момент: В системе, где нет редакции, нет и механизма исправления ошибок. Это делает такие платформы уязвимыми не только к распространению дезинформации, но и к её закреплению как «факта».
Для бизнеса, особенно в России, это важно. Если ИИ-платформы становятся основным источником информации, то качество этой информации становится критическим. Компаниям, которые используют ИИ для анализа данных, прогнозирования или автоматизации, важно понимать, откуда берётся информация и кто за неё отвечает. В условиях, где отсутствует человеческий контроль, риски увеличиваются.
Как это работает на практике
Представьте, что вы запускаете ИИ-ассистента, который отвечает на вопросы, основываясь на данных из интернета. Если он ссылается на ненадёжные источники — его ответы могут быть ложными. Если он копирует текст — он может распространять чужую ошибку, как в случае с «списком жертв Клинтонов».
Это особенно важно в контексте ИИ, который работает в облаке. Если данные обрабатываются на стороне сервера, то и ответы формируются там. Это создаёт риск зависимости от внешней инфраструктуры. Если доступ к облаку ограничен или данные в нём искажены — ИИ становится беспомощным.
Важный нюанс: В мире, где ИИ работает на стороне сервера, качество данных становится вопросом безопасности. Если данные искажены — ИИ может стать инструментом манипуляции, а не помощи.
Что дальше
Grokipedia — это не только новая энциклопедия. Это эксперимент, который показывает, насколько ИИ-платформы уязвимы без человеческого контроля. И это не единственный подобный эксперимент. По мере роста популярности ИИ, будет расти и необходимость в механизмах проверки источников, прозрачности алгоритмов и, что самое важное — в понимании, что ИИ — это не инструмент, а система, которая формирует реальность.
Ключевой момент: В будущем качество информации станет не меньше важным, чем количество. И если бизнес хочет использовать ИИ, он должен не только его внедрять, но и проверять, насколько надёжны источники, на которые он опирается.
Источник: digitaltrends.com