Январь 2026   |   Обзор события   | 8

Искусственный интеллект: как защитить данные и избежать рисков

Развитие искусственного интеллекта вызывает рост интереса и обеспокоенности среди пользователей и экспертов. Выбор надёжного сервиса, контроль за обработкой данных и проверка источников становятся ключевыми шагами для снижения рисков.

ИСХОДНЫЙ НАРРАТИВ

Развитие искусственного интеллекта и риски, связанные с его применением

По данным международных исследований, искусственный интеллект продолжает активно развиваться, что вызывает вопросы у пользователей, работодателей и экспертов. Хотя масштабные изменения в экономике и обществе находятся вне контроля отдельных лиц, существует ряд мер, которые позволяют снизить риски, связанные с использованием ИИ.

Выбор сервиса — важная часть стратегии

Один из ключевых аспектов — выбор правильного сервиса. Не все платформы обрабатывают данные одинаково. Некоторые используют информацию для улучшения своих алгоритмов, другие — придерживаются строгих политик конфиденциальности. ChatGPT — пример сервиса, где пользователь может устанавливать параметры обработки данных. Рекомендуется учитывать, где расположен сервис, кто его владелец и как регулируется сбор информации. Особенно это актуально для тех, кто придаёт большое значение защите личных данных.

Проверка источников — залог достоверности

При работе с ИИ важно проверять источники информации. Большинство современных сервисов предоставляют возможность увидеть, на основе каких данных сформирован ответ. Это помогает оценить его достоверность. Если источники не указаны, можно запросить их отдельно. Например, в некоторых системах достаточно задать вопрос «Какие источники вы использовали?», чтобы получить ссылки. Такой подход снижает риск распространения недостоверной информации.

Ответственность за публичные высказывания

Пользователи, особенно в профессиональной среде, несут личную ответственность за информацию, которую они публикуют. Ошибки возможны, но не могут быть оправданы ссылкой на ИИ. В одном из случаев, когда политический лидер ссылаясь на данные, предоставляемые ИИ, озвучила неточное утверждение, это подчеркнуло важность проверки фактов. Эксперты отмечают, что даже при использовании ИИ важно сохранять критическое мышление и консультироваться с независимыми источниками.

Приватность и контроль за историей

По умолчанию, большинство ИИ-сервисов сохраняют историю взаимодействия, которая может использоваться для улучшения алгоритмов. Однако пользователи могут включить режим приватности. В ChatGPT, например, есть функция Temporary Chat, аналогичная режиму инкогнито в браузерах. Она позволяет общаться без сохранения истории. Также в настройках можно найти опцию delete history, которая позволяет очистить данные, собранные системой.

Защита конфиденциальной информации

Независимо от способа использования ИИ, важно помнить, что любая передаваемая информация может быть доступна третьим лицам. Это касается как личных разговоров, так и деловой переписки. Особенно осторожно стоит подходить к передаче чувствительных данных — таких как пароли, банковские реквизиты и персональные сведения. Даже если сервис обещает конфиденциальность, лучше предполагать, что данные могут быть доступны другим.

Использование ИИ в профессиональной среде

Для сотрудников, применяющих ИИ в рабочем процессе, важно уточнить правила использования у руководства. Во многих организациях уже разработаны внутренние нормативы, регулирующие применение ИИ. Кроме того, компании могут приобретать профессиональные версии сервисов, которые обеспечивают более высокий уровень безопасности. Это позволяет минимизировать риски утечки данных и нарушения внутренних политик.

Интересно: Как изменится роль ИИ в профессиональной среде, если компании начнут более строго регулировать его использование, и как это повлияет на эффективность работы?

Концептуальное изображение
Создано специально для ASECTOR
Концептуальное изображение

АНАЛИТИЧЕСКИЙ РАЗБОР

Развитие искусственного интеллекта: новые вызовы и возможности

Искусственный интеллект продолжает трансформировать рынки, технологии и повседневную жизнь. Его влияние выходит за рамки отдельных компаний, формируя новые правила игры в экономике, политике и обществе. В условиях стремительного роста популярности ИИ, особенно таких сервисов, как ChatGPT, бизнес сталкивается с новыми вызовами — как техническими, так и организационными. Важно не только осознавать эти изменения, но и уметь использовать их в интересах компании, обеспечивая безопасность данных и сохраняя конкурентоспособность.

Углубление зависимости от ИИ и её последствия

ИИ создаёт петлю зависимости, в которой пользователь, стремясь повысить эффективность, всё больше полагается на алгоритмы. Это особенно заметно в профессиональной среде, где ИИ-инструменты встроены в процессы планирования, анализа и коммуникации. Однако такая зависимость не бесплатна. Компании, разрабатывающие ИИ, получают не только данные пользователей, но и глубокое понимание их поведения, что позволяет им монетизировать внимание и формировать привычки.

Рост популярности ИИ также меняет баланс сил в инфраструктуре. Крупные игроки, такие как AMD, TSMC, Google и Microsoft, усиливают позиции, предоставляя необходимую вычислительную мощность. Например, AMD планирует вложить до 50 миллиардов долларов к 2026 году для расширения мощностей, включая переход на 2нм-узлы и развитие упаковки чипов [!]. Это делает их ключевыми поставщиками для всех крупных ИИ-проектов, включая и российские.

Риски и угрозы, связанные с ИИ

Рост популярности ИИ-сервисов влечёт за собой рост риски, особенно в сфере безопасности данных. В 2025 году число утечек через генеративные модели достигло рекордного уровня, особенно в финансовой, медицинской и юридической сферах, где сотрудники передавали внутренние данные в публичные сервисы, обходя корпоративные системы безопасности [!]. Утечка данных может происходить даже без прямого нарушения безопасности, поскольку ИИ-модели, такие как ChatGPT, не отличают вход от инструкции, что создаёт уязвимости.

Важный нюанс: Политики конфиденциальности крупных языковых моделей выросли в объёме на 53% по сравнению с политиками программного обеспечения 2019 года, достигнув в среднем 3 346 слов. Их сложность соответствует университетскому уровню, а неопределённые формулировки и множественные условия затрудняют понимание пользователю, как именно обрабатываются данные [!].

Экономический рост и энергетические вызовы

Искусственный интеллект стал ключевым драйвером роста капитала технологических лидеров США, чьё совокупное состояние увеличилось более чем на $550 млрд в 2025 году. Рост связан с инвестициями в ИИ-чипы, центры обработки данных и ИИ-продукты. Увеличение спроса на ИИ-инфраструктуру сформировало новую экономику, где успех зависит от масштаба инвестиций и скорости внедрения решений [!].

Однако развитие ИИ не обошлось без энергетических последствий. По оценкам Международного энергетического агентства, серверы, связанные с искусственным интеллектом, к 2030 году будут потреблять в пять раз больше электроэнергии, чем сегодня. Это приведёт к удвоению общего энергопотребления серверных центров, причём США обеспечат почти половину мирового роста. Основной причиной роста является увеличение объёмов вычислений, необходимых для обучения и работы ИИ-моделей, что требует значительных энергетических ресурсов [!].

Повышение конфиденциальности и защита данных

Пользователям и компаниям становится всё важнее контролировать, как обрабатываются их данные . В бета-версии приложения ChatGPT для Android были найдены указания на возможную интеграцию рекламы, что может повлиять на естественность диалога и вызвать вопросы по поводу конфиденциальности. Внедрение рекламы рассматривается как способ снизить операционные расходы OpenAI и сохранить бесплатный доступ [!].

Важный нюанс: Компания Mozilla активно развивает меры по защите конфиденциальности. Обновление Enhanced Tracking Protection в браузере Firefox снизило эффективность идентификации пользователей через цифровые отпечатки с более чем 60% до менее чем 20%. Это достигается за счёт ограничения доступа к локальным шрифтам, вставки случайных данных в графику, блокировки скриптов и предоставления заведомо неверной информации о характеристиках устройства. Меры направлены на защиту конфиденциальности данных и снижение рисков слежки со стороны рекламодателей [!].

Выводы

Искусственный интеллект продолжает менять правила игры в бизнесе, технологиях и обществе. Его влияние выходит за рамки отдельных компаний, формируя новые экономические и организационные реалии. Для российского бизнеса особенно важно учитывать риски, связанные с использованием ИИ-сервисов, особенно если часть инфраструктуры находится за пределами страны. Внедрение внутренних нормативов, выбор безопасных решений и контроль за обработкой данных становятся ключевыми элементами стратегии. Только так можно минимизировать риски и использовать ИИ в интересах компании.

Коротко о главном

Почему выбор сервиса ИИ важен для пользователей?

Платформы по-разному обрабатывают данные: некоторые используют их для улучшения алгоритмов, другие — соблюдают политики конфиденциальности, как в случае с ChatGPT, где пользователь может настраивать параметры обработки информации.

Как проверить достоверность информации, сгенерированной ИИ?

Современные сервисы позволяют увидеть источники, на основе которых сформирован ответ. Например, задав вопрос «Какие источники вы использовали?», можно получить ссылки, что помогает оценить точность данных.

Почему пользователи несут ответственность за публичные высказывания, основанные на ИИ?

В случае, когда политический лидер озвучила неточное утверждение, ссылаясь на ИИ, это показало необходимость самостоятельной проверки фактов и использования независимых источников.

Как в ChatGPT обеспечивается приватность пользовательского взаимодействия?

В ChatGPT доступна функция Temporary Chat, позволяющая общаться без сохранения истории, а также опция delete history, с помощью которой можно очистить собранные данные.

Почему важно избегать передачи конфиденциальной информации ИИ?

Даже если сервис обещает конфиденциальность, передача паролей, банковских реквизитов или персональных данных может привести к их утечке, поскольку информация может быть доступна третьим лицам.

Какие меры принимают компании для безопасного использования ИИ?

Многие организации разрабатывают внутренние правила использования ИИ и приобретают профессиональные версии сервисов, что позволяет повысить уровень безопасности и минимизировать риски утечки данных.

Инфографика событий

Открыть инфографику на весь экран


Участники и связи

Отрасли: ИТ и программное обеспечение; Искусственный интеллект (AI); Кибербезопасность; Бизнес; Маркетинг и продажи; Управление и стратегия; Цифровизация и технологии

Оценка значимости: 8 из 10

Развитие искусственного интеллекта затрагивает широкую аудиторию в России, поскольку касается экономики, технологий, социума и политики. Воздействие события долгосрочное, поскольку ИИ меняет характер труда и регулируется государственными и корпоративными нормами. Глубина последствий высока, так как вопросы конфиденциальности, профессиональной этики и безопасности становятся ключевыми. Связь с Россией усиливает значимость темы, поскольку страна активно развивает собственные ИИ-технологии и сталкивается с вызовами в области регулирования.

Материалы по теме

TSMC в центре борьбы за чипы для ИИ: дефицит, инвестиции и гонка с конкуренцией

Инвестиции AMD в размере до 50 миллиардов долларов к 2026 году, включая переход на 2нм-узлы, подчеркивают её ключевую роль в обеспечении ИИ-инфраструктуры. Эти данные усиливают аргумент о росте зависимости от крупных поставщиков чипов и демонстрируют масштабы вложений, необходимых для удовлетворения спроса на ИИ-технологии.

Подробнее →
Рост утечек данных через AI-чат-боты: как защитить конфиденциальность

Рекордный рост утечек данных через генеративные модели в 2025 году, особенно в финансовой, медицинской и юридической сферах, служит ярким примером рисков, связанных с использованием публичных ИИ-сервисов. Эти данные усиливают тезис о необходимости контроля за обработкой информации и демонстрируют, как уязвимости модели могут быть использованы даже без явного нарушения безопасности.

Подробнее →
Политики конфиденциальности ИИ становятся длиннее и сложнее для понимания

Рост объёма политик конфиденциальности крупных языковых моделей на 53% и их сложность на уровне университетского образования подчёркивают проблему прозрачности в обработке данных. Эти сведения усиливают аргумент о снижении понимания пользователем того, как именно их информация используется, что создаёт дополнительные риски.

Подробнее →
ИИ-революция: состояние топ-10 технологических лидеров США выросло на $550 млрд

Рост капитала технологических лидеров США на $550 млрд в 2025 году благодаря инвестициям в ИИ-чипы и центры обработки данных демонстрирует, насколько ИИ стал драйвером экономической динамики. Эти данные усиливают тезис о формировании новой экономики, где успех зависит от масштаба вложений и скорости внедрения решений.

Подробнее →
Энергетика будущего: ИИ потребляет в пять раз больше электроэнергии

Прогноз Международного энергетического агентства о том, что серверы, связанные с ИИ, будут потреблять в пять раз больше электроэнергии к 2030 году, подчёркивает энергетические вызовы, связанные с развитием ИИ. Эти данные усиливают аргумент о необходимости учитывать не только экономические, но и экологические последствия масштабного внедрения ИИ-технологий.

Подробнее →
ChatGPT может получить рекламу: что это значит для пользователей

Возможная интеграция рекламы в ChatGPT для Android, обнаруженная в бета-версии, служит примером изменений пользовательского опыта и вызывает вопросы по поводу конфиденциальности. Эти данные усиливают аргумент о том, что монетизация ИИ-сервисов может влиять на естественность взаимодействия и повышать риски для пользователей.

Подробнее →
Mozilla усиливает защиту от цифровой слежки в Firefox

Снижение эффективности идентификации пользователей через цифровые отпечатки в Firefox с более чем 60% до менее чем 20% демонстрирует, как можно бороться с угрозами слежки. Эти данные усиливают тезис о важности внедрения технологий, защищающих конфиденциальность, особенно в условиях роста рисков, связанных с ИИ.

Подробнее →