网络安全研究人员发现,可键借助大型语言模型(LLMs) ,生成上万可以大规模生成新型恶意的规避JavaScript代码变体 ,这些变体将更难被安全防护设备检测 。检测
Palo Alto Networks旗下的可键Unit 42团队指出:“尽管LLMs难以独立创建恶意软件 ,但犯罪分子能利用它们重写或混淆现有恶意软件 ,生成上万从而加大检测难度。规避罪分子可通过提示LLMs执行更自然的检测转换,使这种恶意软件更难被发现。可键” 长期来看,生成上万通过大量转换,规避这种方法可能降低恶意软件检测系统的检测性能,高防服务器甚至使其误判恶意代码为良性。可键尽管LLM提供商不断加强安全防护,生成上万防止其产生不良输出,规避但不法分子已开始利用恶意AIGC工具如WormGPT,自动化设计高针对性的网络钓鱼邮件,甚至创造新的恶意软件。 早在2024年10月 ,OpenAI就披露已封锁20多起企图利用其平台进行非法活动的操作和欺诈网络 。 Unit 42表示 ,他们利用LLM反复重写现有恶意软件样本,目的是云计算规避机器学习(ML)模型的检测,例如Innocent Until Proven Guilty(IUPG)或PhishingJS ,从而成功创造了10000种新JavaScript变体 ,且功能不变 。 这种对抗性机器学习技术通过变量重命名 、字符串拆分 、垃圾代码插入等方法转换恶意软件,每次输入系统时都进行变换。 “最终产生的新恶意JavaScript变体,行为与原脚本相同 ,但恶意评分大幅降低 ,”该公司表示 ,并补充说 ,服务器租用其贪婪算法能将自身恶意软件分类模型的判断 ,从恶意翻转为良性的概率高达88% 。 更糟糕的是,这些重写的JavaScript代码在上传至VirusTotal平台时,也成功逃避了其他恶意软件分析设备的检测。LLM相关混淆技术的另一优势在于,其重写效果比obfuscator.io等库更自然,后者因改变源代码的建站模板方式而更容易被检测和识别 。 Unit 42指出 :“借助生成式人工智能,新恶意代码变体的规模可能会大幅增加 。然而,我们也可利用相同策略重写恶意代码,以帮助生成训练数据,提高ML模型的鲁棒性。” 这一发现正值北卡罗来纳州立大学一组学者设计出名为TPUXtract的侧信道攻击,该攻击针对Google Edge张量处理单元(TPU)执行模型窃取攻击,准确率高达99.91% ,可能被用于知识产权盗窃或后续网络攻击 。 研究人员表示:“将展示一种超参数窃取攻击,亿华云能提取所有层配置,这是首次全面攻击能提取以前未见过的模型 。” 本质上,是这种黑匣子攻击捕获了TPU在执行神经网络推理时发出的电磁信号 ,并利用这些信号推断模型超参数 。但这种方法依赖于攻击者对目标设备的物理访问权限 ,以及昂贵的探测设备。 参考来源:https://thehackernews.com/2024/12/ai-could-generate-10000-malware.html |
MotoZ信号表现如何?(探索MotoZ在各种信号环境下的表现和关键特性)一加系统和OPPO系统的优劣比较(一加系统与OPPO系统的性能、功能及用户体验对比)使用最新版U盘装Win7系统教程(轻松安装最新版Win7系统的详细步骤)解决未安装音频输出设备的问题(如何在没有音频输出设备的情况下获得音频输出?)红米Mate4X带给你的全新体验(一部强大的智能手机,让你爱不释手)万和灶质量如何?(万和灶质量评估及用户评价)以miss定制版黑轴怎么样?(打造专属个性化机械键盘)LGG5屏幕素质解析(一起来探索LGG5屏幕的精彩之处)索尼笔记本装机教程(一步步教您如何在索尼笔记本上进行硬件升级和软件安装)2021年显卡性价比排行榜(显卡巅峰战)亿华云网站建设云服务器源码库香港物理机b2b信息平台企业服务器