微软警告国家支持的威胁行为者正在使用人工智能进行攻击
与俄罗斯、朝鲜、伊朗和中国有联系的民族国家行为体正在探索人工智能 (AI) 和大语言模型 (LLM) 的整合,以增强其现有的网络攻击行动。
微软和 OpenAI 联合发布的一份报告显示,这两个组织通过终止五个从事恶意网络活动的国家附属行为者的资产和账户,破坏了他们的努力。
微软向《黑客新闻》表示,语言支持是法学硕士的固有特征,这使得它们对专注于社会工程和其他策略的威胁行为者具有吸引力,这些策略涉及针对目标的专业网络、工作和其他关系量身定制的虚假和欺骗性通信。
尽管迄今为止尚未发现利用 LLM 的重大或新颖的攻击,但人工智能技术的对抗性探索已经在攻击链的不同阶段取得进展,包括侦察、编码协助和恶意软件开发。
黑客利用人工智能帮助编写代码、抓取信息
报告称,国家相关行为者主要寻求利用 OpenAI 服务来执行查询开源信息、翻译、查找编码错误和执行基本编码任务等任务。
以下是其他威胁行为者滥用人工智能的一些例子:
- 名为 Forest Blizzard(或 APT28)的俄罗斯民族国家组织利用 OpenAI 服务进行卫星通信协议、雷达成像技术和脚本任务的开源研究。
- 朝鲜威胁行为者 Emerald Sleet(或 Kimusky)聘请法学硕士来识别专注于亚太地区国防问题的专家、智囊团和组织,以及为潜在的网络钓鱼活动编写脚本任务和起草内容。
- 伊朗威胁攻击者 Crimson Sandstorm(或 Imperial Kitten)使用法学硕士创建与应用程序和 Web 开发相关的代码片段、生成网络钓鱼电子邮件以及研究恶意软件逃避检测的方式。
- 中国威胁行为者木炭台风(或水生熊猫)和鲑鱼台风(或特立独行的熊猫)利用法学硕士执行各种任务,包括研究公司和漏洞、生成脚本、翻译技术论文以及检索情报机构的信息。
Microsoft 正在制定一套原则,以减轻国家高级持续威胁 (APT)、高级持续操纵者 (APM) 和网络犯罪集团恶意使用 AI 工具和 API 相关的风险。这些原则旨在围绕人工智能模型建立有效的护栏和安全机制。