Microsoft: Хакери військової розвідки РФ використовують ChatGPT для покращення кібератак
![Microsoft: Хакери військової розвідки РФ використовують ChatGPT для покращення кібератак](/upload/news/2024/02/14/156899.jpg)
Згідно з розслідуванням Microsoft і OpenAI, хакери використовують великі мовні моделі (LLM) для проведення досліджень, написання сценаріїв атак чи фішингових листів.
«Групи кіберзлочинців досліджують і тестують різні технології штучного інтелекту в міру їх появи, намагаючись зрозуміти потенційну цінність для своїх операцій і засоби контролю безпеки, які їм, можливо, доведеться обійти», — йдеться в блозі Microsoft.
У звіті згадується про кіберугрупування, підтримувані росією, Північною Кореєю, Іраном і Китаєм.
На цей час встановлено, що хакери Strontium, пов’язані з російською військовою розвідкою, використовують велику мовну модель «для розуміння протоколів супутникового зв’язку, технологій радіолокаційних зображень і конкретних технічних параметрів».
Група, також відома як APT28 або Fancy Bear, була активною під час російсько-української війни, а також брала участь у нападах на президентську кампанію Гілларі Клінтон у 2016 році. За словами Microsoft, хакери також використовують LLM для допомоги в «основних завданнях сценаріїв, включаючи маніпулювання файлами, вибір даних, регулярні вирази та багатопроцесорну обробку, щоб потенційно автоматизувати або оптимізувати технічні операції».
Читайте по темі: У справі вбивства льотчика Кузьмінова знайшли слід російських дипломатів
Північнокорейська хакерська група, відома як Thallium, використовує LLM для вивчення публічно відомих вразливостей і цільових організацій, для допомоги в базових завданнях сценаріїв і для розробки контенту для фішингових кампаній.
Іранська група, відома як Curium, також використовує великі мовні моделі для створення фішингових електронних листів і навіть коду, щоб уникнути виявлення антивірусними програмами. Китайські державні хакери також використовують LLM для досліджень, створення сценаріїв, перекладів і вдосконалення існуючих інструментів.
Хоча використання штучного інтелекту в кібератаках на цей час здається обмеженим, Microsoft попереджає про потенційні випадки його використання для імітації голосу.
«Синтез голосу — приклад того, як на зразку тривалістю 3 секунди можна відтворити звучання кого завгодно», — каже Microsoft. «Навіть щось нешкідливе, як от ваш привітальний запис для голосової пошти також можна використати».
Microsoft наразі створює Security Copilot — нового помічника зі штучним інтелектом, розробленого для фахівців із кібербезпеки з метою допомогти виявити порушення та краще розуміти величезну кількість сигналів і даних, які щодня генеруються інструментами кібербезпеки.
Читайте по темі:
![](/upload/news/2024/07/01/170185_t.jpg)
![](/upload/news/2024/06/28/170051_t.jpg)
![](/upload/news/2024/06/26/169892_t.jpg)
![](/upload/news/2024/06/26/169824_t.jpg)
![](/upload/news/2024/06/25/169751_t.jpg)
![](/upload/news/2024/06/25/169730_t.jpg)
![](/upload/news/2024/06/24/169623_t.jpg)
![](/upload/news/2024/06/22/169515_t.jpg)
![](/upload/news/2024/06/21/169444_t.jpg)
![](/upload/news/2024/06/21/169443_t.jpg)
Коментарі:
comments powered by Disqus![](/upload/news/2024/07/03/170444_m.jpg)
![](/upload/news/2024/07/03/170443_m.jpg)
![](/upload/news/2024/07/03/170442_m.jpg)
![](/upload/news/2024/07/03/170441_m.jpg)
![](/upload/news/2024/07/03/170440_m.jpg)
![](/upload/news/2024/07/03/170439_m.jpg)
![](/upload/news/2024/07/03/170438_m.jpg)
![](/upload/news/2024/07/03/170434_m.jpg)
![](/upload/news/2024/07/03/170433_m.jpg)
![](/upload/news/2024/07/03/170430_m.jpg)
![](/upload/news/2024/07/03/170429_m.jpg)
![](/upload/news/2024/07/03/170428_m.jpg)
![](/upload/news/2024/07/03/170427_m.jpg)
![](/upload/news/2024/07/03/170426_m.jpg)
![](/upload/news/2024/07/03/170425_m.jpg)
![](/upload/news/2024/07/03/170424_m.jpg)
![](/upload/news/2024/07/03/170422_m.jpg)
![](/upload/news/2024/07/03/170420_m.jpg)
![](/upload/news/2024/07/03/170419_m.jpg)