Microsoft: Хакери військової розвідки РФ використовують ChatGPT для покращення кібератак
![Microsoft: Хакери військової розвідки РФ використовують ChatGPT для покращення кібератак](/upload/news/2024/02/14/156899.jpg)
Згідно з розслідуванням Microsoft і OpenAI, хакери використовують великі мовні моделі (LLM) для проведення досліджень, написання сценаріїв атак чи фішингових листів.
«Групи кіберзлочинців досліджують і тестують різні технології штучного інтелекту в міру їх появи, намагаючись зрозуміти потенційну цінність для своїх операцій і засоби контролю безпеки, які їм, можливо, доведеться обійти», — йдеться в блозі Microsoft.
У звіті згадується про кіберугрупування, підтримувані росією, Північною Кореєю, Іраном і Китаєм.
На цей час встановлено, що хакери Strontium, пов’язані з російською військовою розвідкою, використовують велику мовну модель «для розуміння протоколів супутникового зв’язку, технологій радіолокаційних зображень і конкретних технічних параметрів».
Група, також відома як APT28 або Fancy Bear, була активною під час російсько-української війни, а також брала участь у нападах на президентську кампанію Гілларі Клінтон у 2016 році. За словами Microsoft, хакери також використовують LLM для допомоги в «основних завданнях сценаріїв, включаючи маніпулювання файлами, вибір даних, регулярні вирази та багатопроцесорну обробку, щоб потенційно автоматизувати або оптимізувати технічні операції».
Читайте по темі: Журналісти оприлюднили план зовнішньої розвідки РФ для дестабілізації України та Заходу
Північнокорейська хакерська група, відома як Thallium, використовує LLM для вивчення публічно відомих вразливостей і цільових організацій, для допомоги в базових завданнях сценаріїв і для розробки контенту для фішингових кампаній.
Іранська група, відома як Curium, також використовує великі мовні моделі для створення фішингових електронних листів і навіть коду, щоб уникнути виявлення антивірусними програмами. Китайські державні хакери також використовують LLM для досліджень, створення сценаріїв, перекладів і вдосконалення існуючих інструментів.
Хоча використання штучного інтелекту в кібератаках на цей час здається обмеженим, Microsoft попереджає про потенційні випадки його використання для імітації голосу.
«Синтез голосу — приклад того, як на зразку тривалістю 3 секунди можна відтворити звучання кого завгодно», — каже Microsoft. «Навіть щось нешкідливе, як от ваш привітальний запис для голосової пошти також можна використати».
Microsoft наразі створює Security Copilot — нового помічника зі штучним інтелектом, розробленого для фахівців із кібербезпеки з метою допомогти виявити порушення та краще розуміти величезну кількість сигналів і даних, які щодня генеруються інструментами кібербезпеки.
Читайте по темі:
![](/upload/news/2024/07/04/170490_t.jpg)
![](/upload/news/2024/07/02/170368_t.jpg)
![](/upload/news/2024/07/02/170318_t.jpg)
![](/upload/news/2024/07/01/170185_t.jpg)
![](/upload/news/2024/06/28/170051_t.jpg)
![](/upload/news/2024/06/26/169892_t.jpg)
![](/upload/news/2024/06/26/169824_t.jpg)
![](/upload/news/2024/06/25/169751_t.jpg)
![](/upload/news/2024/06/25/169730_t.jpg)
![](/upload/news/2024/06/24/169623_t.jpg)
Коментарі:
comments powered by Disqus![](/upload/news/2024/07/06/170687_m.jpg)
![](/upload/news/2024/07/06/170686_m.jpg)
![](/upload/news/2024/07/06/170685_m.jpg)
![](/upload/news/2024/07/06/170683_m.jpg)
![](/upload/news/2024/07/06/170680_m.jpg)
![](/upload/news/2024/07/06/170679_m.jpg)
![](/upload/news/2024/07/06/170678_m.jpg)
![](/upload/news/2024/07/05/170675_m.jpg)
![](/upload/news/2024/07/05/170674_m.jpg)
![](/upload/news/2024/07/05/170669_m.jpg)
![](/upload/news/2024/07/05/170667_m.jpg)
![](/upload/news/2024/07/05/170662_m.jpg)
![](/upload/news/2024/07/05/170659_m.jpg)