OpenAI и Microsoft заявляют, что перекрыли нескольким хак-группам доступ к ChatGPT - «Новости»
- 10:30, 16-фев-2024
- Преимущества стилей / Изображения / Новости / Отступы и поля
- Иосиф
- 0
Специалисты Microsoft заявили, что иностранные APT (связанные с Китаем, Россией, Ираном и Северной Кореей) используют ChatGPT для автоматизации поиска уязвимостей, разведки и выполнения различных задач по созданию вредоносного ПО. OpenAI сообщила, что уже заблокировала несколько таких аккаунтов.
В свежем отчете эксперты Microsoft пишут, что тесно сотрудничают с OpenAI и изучают использование больших языковых моделей (LLM) злоумышленниками. Эти исследования показали, что сразу несколько известных APT-группировок экспериментируют с ChatGPT, чтобы получить больше информации потенциальных жертвах, оптимизировать написание вредоносных скриптов, а также анализировать публично доступные бюллетени безопасности и изучать свежие уязвимости.
Хотя специалисты не обнаружили серьезных атак с использованием LLM, Microsoft утверждает, что хакерские группы из России, Китая, Северной Кореи и Ирана, используют ИИ в своих операциях.
«Киберпреступные группы, правительственные хакеры и другие злоумышленники изучают и тестируют различные ИИ-технологии по мере их появления, стремясь понять их потенциальную ценность для своих операций и против средства защиты, которые может понадобиться обойти», — пишут аналитики Microsoft.
К примеру, в одном случае исследователи обнаружили, что группировка Forest Blizzard (она же APT28 и FancyBear), использовала LLM для проведения исследований различных протоколов спутниковой связи и технологий получения радиолокационных изображений.
Среди других приведенных в отчете примеров присутствуют:
- Emerald Sleet (она же Kimusky): северокорейская группировка использовала LLM для идентификации экспертов, аналитических центров и организаций, занимающихся вопросами обороны в Азиатско-Тихоокеанском регионе, изучения общедоступных уязвимостей, выполнения базовых скриптовых задач и создания контента, который можно использовать в фишинговых кампаниях.
- Crimson Sandstorm (она же Imperial Kitten): иранская группировка использовала LLM для создания сниппетов, связанных с разработкой приложений и сайтов, генерации фишинговых писем и исследования распространенных способов обхода обнаружения малвари.
- Charcoal Typhoon (она же Aquatic Panda): китайская хак-группа, которая использовала LLM для изучения различных компаний и уязвимостей, создания скриптов, контента для фишинговых кампаний и анализа методов пост-эксплуатации.
- Salmon Typhoon (она же Maverick Panda): китайская группировка, применявшая LLM для перевода технических документов, получения открытой информации о различных спецслужбах и региональных угрозах, устранения ошибок в коде и поиска тактик для уклонения от обнаружения.
Представители OpenAI сообщают, что уже заблокировали учетные записи злоумышленников, обнаруженные в сотрудничестве с Microsoft. В компании пишут, что хакеры «стремились использовать сервисы OpenAI для запроса информации из открытых источников, переводов, поиска ошибок в коде и выполнения рутинных задач по написанию кода».
При этом в OpenAI отметили, что ранее уже было установлено, что «GPT-4 предоставляет весьма ограниченные дополнительные возможности для выполнения вредоносных задач, помимо тех, которые и так были достижимы при использовании общедоступных инструментов без применения ИИ».
Комментарии (0)