Первый в мире вирус-вымогатель на базе искусственного интеллекта
Исследователи обнаружили новый тип вируса-вымогателя, названный PromptLock, который использует искусственный интеллект для генерации вредоносного кода. PromptLock сканирует локальную файловую систему, анализирует целевые файлы, выгружает выбранные данные и шифрует их. На данный момент PromptLock не был обнаружен в реальных атаках, но он демонстрирует потенциальные риски использования искусственного интеллекта в вредоносных целях.
В последнее время всё чаще звучат опасения по поводу возможного злоупотребления искусственным интеллектом. Недавние события подтверждают обоснованность этих страхов. Так, исследователи из компании ESET обнаружили первый в мире вирус-вымогатель, работающий на основе искусственного интеллекта, который назвали PromptLock.
Как работает PromptLock
PromptLock использует модель GPT-OS-20B от OpenAI для генерации вредоносного кода. С помощью Lua-скриптов, созданных на основе заранее заданных команд, вирус сканирует локальную файловую систему, анализирует целевые файлы, выгружает выбранные данные и шифрует их.
Программа написана на языке Golang, что позволяет ей работать как на компьютерах с операционной системой Windows, так и на компьютерах с Linux.
Тестирование и риски
На данный момент PromptLock не был обнаружен в реальных атаках, поэтому его можно считать тестовым проектом. Тем не менее, этот факт лишь подчёркивает, что потенциальные риски использования искусственного интеллекта быстро превращаются в реальность.
Ранее специалисты по безопасности уже демонстрировали возможность использования моделей искусственного интеллекта для создания вредоносных программ. Злоумышленники также применяют искусственный интеллект для организации сложных кибератак, например, поддельных конференций Zoom, которые позволяют им обойти системы безопасности и получить доступ к корпоративным сетям.
Необходимость мер предосторожности
Несмотря на очевидные угрозы, отказываться от использования искусственного интеллекта не стоит. Его ценность для общества неоспорима. Чтобы минимизировать риски злоупотребления, разработчикам и лидерам в области искусственного интеллекта необходимо постоянно инвестировать в разработку эффективных механизмов безопасности для моделей искусственного интеллекта. В противном случае искусственный интеллект может стать инструментом для всевозможных злонамеренных действий.
Появление вируса PromptLock, первого в мире вымогателя, использующего искусственный интеллект, сигнализирует о переходе киберпреступности на новый уровень.
Этот вирус, созданный на основе модели GPT-OS-20B от OpenAI, демонстрирует, как технологии, изначально предназначенные для полезных целей, могут попасть к мошенникам. PromptLock способен сканировать файловую систему, анализировать целевые файлы и шифровать их, используя Lua-скрипты и модель GPT-OS-20B для генерации вредоносного кода.
Написанный на Golang, вирус может работать как на Windows, так и на Linux, что расширяет его потенциальный охват.
Важно отметить, что PromptLock пока не был обнаружен в реальных атаках. Скорее всего, это тестовый проект, который демонстрирует возможности использования искусственного интеллекта в киберпреступности. Тем не менее, этот факт только подчеркивает необходимость принятия мер предосторожности.
Ранее уже были примеры использования моделей искусственного интеллекта для создания вредоносных программ и организации сложных кибератак. Злоумышленники применяют его для обхода систем безопасности, например, создавая поддельные конференции Zoom.
В этой ситуации, отказ от использования искусственного интеллекта не является решением. Его потенциал для общества слишком велик. Необходимо сосредоточиться на разработке эффективных механизмов безопасности для моделей искусственного интеллекта. Лишь постоянное совершенствование таких механизмов позволит нам использовать преимущества этой технологии, минимизируя риски ее злоупотребления.
В противном случае, искусственный интеллект может стать мощным инструментом в руках преступников, создавая новые угрозы для кибербезопасности и стабильности общества.