Gemini Google угрожает детям: опасный контент проходит фильтры
Исследование показало, что чат-бот Gemini может предоставлять несовершеннолетним информацию о сексуальных темах, наркотиках, алкоголе и советах по психическому здоровью, несмотря на встроенные меры безопасности. Эксперты обнаружили, что фильтры иногда не блокируют неподходящий контент, а некоторые ответы могут быть непонятны детям младшего возраста.
Независимое исследование, проведённое некоммерческой организацией Common Sense Media, выявило, что чат-бот Gemini, разработанный компанией Google, может представлять угрозу для детей и подростков. Особенно высоким риском охвачены версии Gemini, предназначенные для пользователей младше 13 лет, а также те, где включены специальные меры защиты для подростков.
В ходе тестирования эксперты обнаружили, что Gemini может предоставлять несовершеннолетним информацию, связанную с сексуальными темами, употреблением наркотиков, алкоголя и небезопасными советами по психическому здоровью. Gemini U13 не всегда блокирует сексуальное содержание, а некоторые ответы содержали подробные объяснения, недоступные для понимания детей младшего возраста. Также было установлено, что фильтры, связанные с наркотиками, не срабатывают регулярно, в результате чего бот иногда предлагал способы получения веществ, таких как марихуана, экстази, Аддералл и ЛСД.
Ситуация в сфере AI-ассистентов
Подобные проблемы не впервые возникают в сфере AI. OpenAI уже заявила о планах внедрения родительских контролей в ChatGPT и системы оповещения для опекунов, если подросток демонстрирует признаки острого психологического напряжения. Meta⋆, в свою очередь, внесла изменения в работу своего Meta⋆ AI, исключив возможность обсуждения тем, связанных с расстройствами пищевого поведения, самоповреждением, суицидом и романтическими отношениями с подростками.
Важность контроля за AI-технологиями
В условиях роста популярности чат-ботов важно учитывать их потенциальные риски, особенно в применении к детям и подросткам. В России, где растёт интерес к цифровым технологиям, особенно среди молодёжи, становится актуальным разработка и внедрение локальных решений, учитывающих особенности российского законодательства и возрастные особенности детей. Власти и разработчики должны совместно работать над созданием более безопасных и устойчивых систем, чтобы минимизировать влияние нежелательного контента на подрастающее поколение.
Рекомендации и дальнейшие шаги
Common Sense Media рекомендует несовершеннолетним до 18 лет не использовать чат-боты для получения советов по психическому здоровью или эмоциональной поддержке. Также организация призывает родителей тщательно контролировать использование несовершеннолетними искусственного интеллекта и лично интерпретировать получаемые ответы.
Google, в свою очередь, столкнулась с требованиями по улучшению работы Gemini: необходимо пересмотреть настройки ответов в зависимости от возрастной группы, провести тестирование с участием детей и внедрить более продуманные методы фильтрации контента, чем простые блокировки.
«Чистый» интерфейс — не гарантия чистого содержания
Новые технологии искусственного интеллекта, вроде чат-бота Gemini, обещают сделать цифровое общение доступным и интуитивным. Однако для детей и подростков, которые составляют одну из основных целевых аудиторий, такие инструменты могут стать источником риска. Независимое исследование показало, что даже при наличии фильтров и возрастных ограничений, система не всегда срабатывает надёжно. Особенно это касается тем, связанных с психическим здоровьем, употреблением психоактивных веществ и сексуальностью. Такая ситуация ставит под сомнение эффективность текущих мер безопасности и подчёркивает необходимость более глубокой интеграции этических и возрастных критериев в логику работы AI.
Механизмы защиты: между идеалом и реальностью
Разработчики AI-ассистентов, включая Google, стремятся балансировать между удобством и безопасностью. Однако, как показывает практика, технические меры, такие как фильтры и блокировки, не всегда адекватно учитывают сложность человеческого поведения, особенно в условиях, когда запросы могут быть косвенными или двусмысленными. Например, Gemini U13, предназначенный для детей до 13 лет, иногда не блокировал сексуальное содержание, а в других случаях предоставлял слишком сложную информацию, недоступную для понимания ребёнка. Это указывает на то, что система не просто несовершенна — она построена на ограниченной модели человеческого взаимодействия, которая не всегда учитывает возрастные и психологические особенности пользователей.
Системные риски и долгосрочные последствия
Рост популярности AI-ассистентов среди подростков создаёт новую системную слабость — зависимость от машинных ответов в критически важных сферах, таких как психическое здоровье и принятие решений. Если система ошибается, это может привести к неправильным действиям или формированию неполных представлений у детей. Особенно опасно, что такие ошибки могут происходить не единожды, а систематически, особенно если отсутствует обратная связь от пользователей или их опекунов. Это создаёт риск формирования у молодёжи искажённого восприятия реальности, что в долгосрочной перспективе может повлиять на их поведение и выбор жизненного пути.
Российский контекст и пути развития
В условиях роста интереса к цифровым технологиям в России, особенно среди молодёжи, особенно важно разрабатывать и внедрять собственные подходы к защите детей в цифровом пространстве. Власти, образовательные учреждения и разработчики должны работать совместно, чтобы адаптировать и внедрить локальные решения, учитывающие российские нормы и возрастные особенности. Необходима разработка регуляторных стандартов, которые будут учитывать специфику российского законодательства и социокультурной среды. Только так можно обеспечить надёжную защиту подрастающего поколения от нежелательного цифрового влияния.
Вывод
Рост популярности чат-ботов и AI-ассистентов требует пересмотра подходов к их безопасности, особенно в части взаимодействия с детьми. Технические решения не могут заменить человеческий контроль и понимание, особенно когда речь идёт о восприимчивой аудитории. В России, где цифровизация продолжает ускоряться, необходимо создавать локальные стандарты безопасности, которые будут соответствовать национальным интересам и защищать права и здоровье детей.