Google не будет исправлять проблему ASCII smuggling в ИИ-помощнике Gemini - «Новости»

  • 14:30, 10-окт-2025
  • Новости / Изображения / Самоучитель CSS / Преимущества стилей / Текст / Сайтостроение
  • Сильва
  • 0

Разработчики Google сообщили, что проблема «контрабанды ASCII-символов» (ASCII smuggling) в Gemini не получит исправлений. Такая атака может использоваться для обмана ИИ-ассистента с целью предоставления пользователям фальшивой информации, изменения поведения модели и скрытого отравления данных.


В рамках атаки ASCII smuggling символы из блока Tags в Unicode используются для внедрения полезных нагрузок, которые невидимы для пользователей, но могут быть обнаружены и обработаны большими языковыми моделями (LLM). По сути, такая атака похожа на другие методы, которые исследователи в последнее время использовали против Google Gemini: все они строятся на разнице того, что видит человек, и что «читает» машина — будь то манипуляции с CSS или обход ограничений графического интерфейса.


ИБ-исследователь из компании FireTail Виктор Маркопулос (Viktor Markopoulos) протестировал ASCII smuggling против популярных ИИ-моделей и обнаружил, что перед такими атаками уязвимы Gemini (через приглашения в Календаре и письма), DeepSeek (через промпты) и Grok (через посты в X).


Claude, ChatGPT и Microsoft Copilot, по данным FireTail, оказались защищены лучше — в них реализована очистка входных данных (input sanitization).





Что касается Gemini, его интеграция с Google Workspace создает высокие риски, поскольку злоумышленники могут использовать атаку для встраивания скрытого текста в письма и приглашения в Календаре. Так, Маркопулос обнаружил, что можно скрыть вредоносные инструкции в теме приглашения, в итоге изменив данные организатора и внедрив скрытые описания встречи или ссылки.





«Если LLM имеет доступ к почтовому ящику пользователя, достаточно отправить письмо со скрытыми командами, и модель будет, например, искать конфиденциальные сообщения в ящике жертвы или пересылать контакты, превращая обычную фишинговую атаку в инструмент автономного сбора данных», — добавляет эксперт, говоря об угрозе через электронную почту.


Кроме того, LLM, которым поручено просматривать сайты, могут наткнуться на скрытые полезные нагрузки (например, в описаниях товаров) и получить вредоносные URL для передачи пользователям.


Эксперт продемонстрировал, что атака позволяет обмануть Gemini и вынуждает помощника выдавать пользователям ложную информацию. Так, в одном из примеров исследователь передал ИИ невидимую инструкцию, которую Gemini обработал и посоветовал жертве потенциально вредоносный сайт, где якобы можно купить хороший телефон со скидкой.


18 сентября 2025 года исследователь уведомил о своих выводах инженеров Google, однако в компании отклонили его отчет, сообщив, что проблема не является уязвимостью и может использоваться только в контексте атак с применением социальной инженерии.


Эксперт отмечает, что другие компании смотрят на подобные проблемы иначе. К примеру, Amazon опубликовала детальное руководство, посвященное проблеме «контрабанды» Unicode-символов.

Цитирование статьи, картинки - фото скриншот - Rambler News Service.
Иллюстрация к статье - Яндекс. Картинки.
Есть вопросы. Напишите нам.
Общие правила  поведения на сайте.

Разработчики Google сообщили, что проблема «контрабанды ASCII-символов» (ASCII smuggling) в Gemini не получит исправлений. Такая атака может использоваться для обмана ИИ-ассистента с целью предоставления пользователям фальшивой информации, изменения поведения модели и скрытого отравления данных. В рамках атаки ASCII smuggling символы из блока Tags в Unicode используются для внедрения полезных нагрузок, которые невидимы для пользователей, но могут быть обнаружены и обработаны большими языковыми моделями (LLM). По сути, такая атака похожа на другие методы, которые исследователи в последнее время использовали против Google Gemini: все они строятся на разнице того, что видит человек, и что «читает» машина — будь то манипуляции с CSS или обход ограничений графического интерфейса. ИБ-исследователь из компании FireTail Виктор Маркопулос (Viktor Markopoulos) протестировал ASCII smuggling против популярных ИИ-моделей и обнаружил, что перед такими атаками уязвимы Gemini (через приглашения в Календаре и письма), DeepSeek (через промпты) и Grok (через посты в X). Claude, ChatGPT и Microsoft Copilot, по данным FireTail, оказались защищены лучше — в них реализована очистка входных данных (input sanitization). Что касается Gemini, его интеграция с Google Workspace создает высокие риски, поскольку злоумышленники могут использовать атаку для встраивания скрытого текста в письма и приглашения в Календаре. Так, Маркопулос обнаружил, что можно скрыть вредоносные инструкции в теме приглашения, в итоге изменив данные организатора и внедрив скрытые описания встречи или ссылки. «Если LLM имеет доступ к почтовому ящику пользователя, достаточно отправить письмо со скрытыми командами, и модель будет, например, искать конфиденциальные сообщения в ящике жертвы или пересылать контакты, превращая обычную фишинговую атаку в инструмент автономного сбора данных», — добавляет эксперт, говоря об угрозе через электронную почту. Кроме того, LLM, которым поручено просматривать сайты, могут наткнуться на скрытые полезные нагрузки (например, в описаниях товаров) и получить вредоносные URL для передачи пользователям. Эксперт продемонстрировал, что атака позволяет обмануть Gemini и вынуждает помощника выдавать пользователям ложную информацию. Так, в одном из примеров исследователь передал ИИ невидимую инструкцию, которую Gemini обработал и посоветовал жертве потенциально вредоносный сайт, где якобы можно купить хороший телефон со скидкой. 18 сентября 2025 года исследователь уведомил о своих выводах инженеров Google, однако в компании отклонили его отчет, сообщив, что проблема не является уязвимостью и может использоваться только в контексте атак с применением социальной инженерии. Эксперт отмечает, что другие компании смотрят на подобные проблемы иначе. К примеру, Amazon опубликовала детальное руководство, посвященное проблеме «контрабанды» Unicode-символов.

Другие новости


Рекомендуем

Комментарии (0)




Уважаемый посетитель нашего сайта!
Комментарии к данной записи отсутсвуют. Вы можете стать первым!