Microsoft и OpenAI опубликовали исследование, в котором обнаружили, что хакеры из России, Северной Кореи, Ирана и Китая уже применяют большие языковые модели, такие как ChatGPT, для совершенствования и улучшения кибератак. Эти группы используют ИИ для изучения целей, улучшения скриптов и создания техник социальной инженерии.

Компании сообщают, что хакеры использовали модель для анализа протоколов связи, создания фишинговых писем, разработки кода для обхода антивирусов и других атак. Microsoft и OpenAI не обнаружили “значительных атак”, но предупреждают о возможном увеличении таких инцидентов.

Microsoft активно разрабатывает методы обнаружения и реагирования на ИИ-атаки. Компания создает Security Copilot, искусственный интеллект, помогающий специалистам по кибербезопасности выявлять нарушения. Компания также пересматривает систему безопасности своего программного обеспечения после крупных атак на облако Azure и инцидентов с шпионажем.