OpenAI и Microsoft заявляют, что перекрыли нескольким хак-группам доступ к ChatGPT - «Новости»

  • 10:30, 16-фев-2024
  • Преимущества стилей / Изображения / Новости / Отступы и поля
  • Иосиф
  • 0

Специалисты Microsoft заявили, что иностранные APT (связанные с Китаем, Россией, Ираном и Северной Кореей) используют ChatGPT для автоматизации поиска уязвимостей, разведки и выполнения различных задач по созданию вредоносного ПО. OpenAI сообщила, что уже заблокировала несколько таких аккаунтов.


В свежем отчете эксперты Microsoft пишут, что тесно сотрудничают с OpenAI и изучают использование больших языковых моделей (LLM) злоумышленниками. Эти исследования показали, что сразу несколько известных APT-группировок экспериментируют с ChatGPT, чтобы получить больше информации потенциальных жертвах, оптимизировать написание вредоносных скриптов, а также анализировать публично доступные бюллетени безопасности и изучать свежие уязвимости.


Хотя специалисты не обнаружили серьезных атак с использованием LLM, Microsoft утверждает, что хакерские группы из России, Китая, Северной Кореи и Ирана, используют ИИ в своих операциях.


«Киберпреступные группы, правительственные хакеры и другие злоумышленники изучают и тестируют различные ИИ-технологии по мере их появления, стремясь понять их потенциальную ценность для своих операций и против средства защиты, которые может понадобиться обойти», — пишут аналитики Microsoft.


К примеру, в одном случае исследователи обнаружили, что группировка Forest Blizzard (она же APT28 и FancyBear), использовала LLM для проведения исследований различных протоколов спутниковой связи и технологий получения радиолокационных изображений.


Среди других приведенных в отчете примеров присутствуют:



  • Emerald Sleet (она же Kimusky): северокорейская группировка использовала LLM для идентификации экспертов, аналитических центров и организаций, занимающихся вопросами обороны в Азиатско-Тихоокеанском регионе, изучения общедоступных уязвимостей, выполнения базовых скриптовых задач и создания контента, который можно использовать в фишинговых кампаниях.

  • Crimson Sandstorm (она же Imperial Kitten): иранская группировка использовала LLM для создания сниппетов, связанных с разработкой приложений и сайтов, генерации фишинговых писем и исследования распространенных способов обхода обнаружения малвари.

  • Charcoal Typhoon (она же Aquatic Panda): китайская хак-группа, которая использовала LLM для изучения различных компаний и уязвимостей, создания скриптов, контента для фишинговых кампаний и анализа методов пост-эксплуатации.

  • Salmon Typhoon (она же Maverick Panda): китайская группировка, применявшая LLM для перевода технических документов, получения открытой информации о различных спецслужбах и региональных угрозах, устранения ошибок в коде и поиска тактик для уклонения от обнаружения.


Представители OpenAI сообщают, что уже заблокировали учетные записи злоумышленников, обнаруженные в сотрудничестве с Microsoft. В компании пишут, что хакеры «стремились использовать сервисы OpenAI для запроса информации из открытых источников, переводов, поиска ошибок в коде и выполнения рутинных задач по написанию кода».


При этом в OpenAI отметили, что ранее уже было установлено, что «GPT-4 предоставляет весьма ограниченные дополнительные возможности для выполнения вредоносных задач, помимо тех, которые и так были достижимы при использовании общедоступных инструментов без применения ИИ».


Специалисты Microsoft заявили, что иностранные APT (связанные с Китаем, Россией, Ираном и Северной Кореей) используют ChatGPT для автоматизации поиска уязвимостей, разведки и выполнения различных задач по созданию вредоносного ПО. OpenAI сообщила, что уже заблокировала несколько таких аккаунтов. В свежем отчете эксперты Microsoft пишут, что тесно сотрудничают с OpenAI и изучают использование больших языковых моделей (LLM) злоумышленниками. Эти исследования показали, что сразу несколько известных APT-группировок экспериментируют с ChatGPT, чтобы получить больше информации потенциальных жертвах, оптимизировать написание вредоносных скриптов, а также анализировать публично доступные бюллетени безопасности и изучать свежие уязвимости. Хотя специалисты не обнаружили серьезных атак с использованием LLM, Microsoft утверждает, что хакерские группы из России, Китая, Северной Кореи и Ирана, используют ИИ в своих операциях. «Киберпреступные группы, правительственные хакеры и другие злоумышленники изучают и тестируют различные ИИ-технологии по мере их появления, стремясь понять их потенциальную ценность для своих операций и против средства защиты, которые может понадобиться обойти», — пишут аналитики Microsoft. К примеру, в одном случае исследователи обнаружили, что группировка Forest Blizzard (она же APT28 и FancyBear), использовала LLM для проведения исследований различных протоколов спутниковой связи и технологий получения радиолокационных изображений. Среди других приведенных в отчете примеров присутствуют: Emerald Sleet (она же Kimusky): северокорейская группировка использовала LLM для идентификации экспертов, аналитических центров и организаций, занимающихся вопросами обороны в Азиатско-Тихоокеанском регионе, изучения общедоступных уязвимостей, выполнения базовых скриптовых задач и создания контента, который можно использовать в фишинговых кампаниях. Crimson Sandstorm (она же Imperial Kitten): иранская группировка использовала LLM для создания сниппетов, связанных с разработкой приложений и сайтов, генерации фишинговых писем и исследования распространенных способов обхода обнаружения малвари. Charcoal Typhoon (она же Aquatic Panda): китайская хак-группа, которая использовала LLM для изучения различных компаний и уязвимостей, создания скриптов, контента для фишинговых кампаний и анализа методов пост-эксплуатации. Salmon Typhoon (она же Maverick Panda): китайская группировка, применявшая LLM для перевода технических документов, получения открытой информации о различных спецслужбах и региональных угрозах, устранения ошибок в коде и поиска тактик для уклонения от обнаружения. Представители OpenAI сообщают, что уже заблокировали учетные записи злоумышленников, обнаруженные в сотрудничестве с Microsoft. В компании пишут, что хакеры «стремились использовать сервисы OpenAI для запроса информации из открытых источников, переводов, поиска ошибок в коде и выполнения рутинных задач по написанию кода». При этом в OpenAI отметили, что ранее уже было установлено, что «GPT-4 предоставляет весьма ограниченные дополнительные возможности для выполнения вредоносных задач, помимо тех, которые и так были достижимы при использовании общедоступных инструментов без применения ИИ».

Другие новости


Рекомендуем

Комментарии (0)




Уважаемый посетитель нашего сайта!
Комментарии к данной записи отсутсвуют. Вы можете стать первым!