Исследователи кибербезопасности обнаружили новую атаку под названием AgentFlayer, которая использует уязвимость в ChatGPT для кражи данных из Google Drive без ведома пользователя. Злоумышленники могут внедрять скрытые команды в обычные документы, заставляя ИИ автоматически извлекать и передавать конфиденциальную информацию.

Хакеры использовали уязвимость ChatGPT для кражи данных из Google Drive

Обзор стоечного ИБП Ippon Innova RTB 3000

Хакеры использовали уязвимость ChatGPT для кражи данных из Google Drive

Сенатор США потребовал разъяснений по связям главы Intel с китайским бизнесом

Хакеры использовали уязвимость ChatGPT для кражи данных из Google Drive

Ещё одна миссия NASA под угрозой срыва — потеряна связь с зондом для изучения полярных щелей Земли

Хакеры использовали уязвимость ChatGPT для кражи данных из Google Drive

AgentFlayer относится к типу кибератаки zero-click (нулевой клик). Для её выполнения жертве не требуется никаких действий, кроме доступа к заражённому документу в Google Drive. Другими словами, пользователю не нужно нажимать на ссылку, открывать файл или выполнять какие-либо другие действия для заражения. Эксплойт использует уязвимость в Connectors, функции ChatGPT, которая связывает чат-бота с внешними приложениями, включая облачные сервисы, такие как Google Drive и Microsoft OneDrive, сообщает издание TechSpot.

Вредоносный документ содержит скрытую инструкцию длиной в 300 слов, оформленную белым шрифтом минимального размера, что делает её невидимой для человека, но доступной для обработки ChatGPT. Команда предписывает ИИ найти в Google Drive жертвы API-ключи, добавить их к специальному URL и отправить на внешний сервер злоумышленников. Атака активируется сразу после открытия доступа к документу, а данные передаются при следующем взаимодействии пользователя с сервисом ChatGPT.

Как подчеркнул старший директор по безопасности Google Workspace Энди Вэнь (Andy Wen) атака не связана напрямую с уязвимостью в инфраструктуре Google, однако компания уже разрабатывает дополнительные меры защиты, чтобы предотвратить выполнение скрытых и потенциально опасных инструкций в своих сервисах. OpenAI, в свою очередь, внедрила исправления после уведомления исследователей о проблеме ранее в этом году.

Тем не менее, эксперты предупреждают, что, несмотря на ограниченный объём данных, который можно извлечь за один запрос, данная угроза выявляет риски, связанные с предоставлением искусственному интеллекту бесконтрольного доступа к личным файлам и облачным аккаунтам.

От admin

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *