大模型已经被广泛应用在各类场景,源头帮助人们进行报告摘要、从保出文本翻译、护数数据分析、据安技术业务风控等各项工作 ,全腾全推极大地提升了工作效率,讯安但同时公众对于大模型带来的模型数据泄露的隐忧也从未停止。 近日 ,隐私腾讯安全玄武实验室披露了一项关于大模型隐私保护的保护安全脱敏与还原(Hide and Seek, HaS)技术,有望帮助大模型产品使用者从本地终端侧防范隐私数据泄露。脱敏 HaS为业内首个支持信息还原的源头自由文本脱敏技术 ,通过对用户上传给大模型的从保出prompt(提示词)进行隐私信息脱敏,高防服务器并在大模型返回计算结果后进行恢复 ,护数该方案兼顾了隐私安全和计算资源消耗:脱敏与还原算法经过4bit量化后权重文件仅500MB ,据安技术可在手机 、全腾全推 PC等终端上部署。 这是业内首个公开发布的、能被大模型用户部署于终端侧的隐私保护脱敏技术 。借助这一技术 ,用户可以从“源头”免除使用云端大模型带来的数据泄露方面的担忧。 据悉,这个模型主要适用于典型的NLP任务场景,云计算例如机器翻译、文本摘要,文本润色 、阅读理解 、文本分类、情感分析等,其主要的技术难点在于如何解决实体识别与替换 、实体指代消解 、多义词识别、自纠错鲁棒性还原 、实体翻译等 。此前 ,不少大模型提供方以及专业安全厂商均在积极进行相关的尝试,但目前尚未有理想的亿华云解决方案。 “在大模型应用中提示词是一种自由文本,而针对自由文本的隐私保护问题 ,一种全密态的解决方案是通过安全多方计算(Multi-Party Computation, MPC)协议实现安全推理。然而,MPC协议在计算成本和通信量上的高需求严重限制了其在大模型应用中的落地 。”腾讯安全玄武实验室高级安全工程师陈昱表示 ,“实际上 ,多数场景下用户并不需要保护整句的信息不泄漏,建站模板而仅需要保护其中的隐私实体不泄漏。”玄武实验室经过正则匹配 、近义词向量 、BERT NER+CR等方法的不断探索试错后,最终提出了这项技术 。 实验表明,HaS的数据脱敏处理并不会对任务造成影响 。在使用模型进行隐私保护与直接调用大模型相比“分类任务”与“翻译任务”两个场景的性能对比,在使用560M生成式方案下,文本分类任务的性能不仅没有下降,反而增加了0.14%;在1.7B标签式方案下,服务器租用机器翻译任务性能仅下降了0.85%。 腾讯安全玄武实验室将上述研究发现以论文形式发布,更多技术细节可参考玄武官方博客(见文章最后) 。 “一些企业或者个人用户开发者通过部署本地大模型来规避隐私数据泄露,但这要求一定的技术门槛 ,对于重度隐私需求的用户来说 ,通过本地安全模型/算法来实现数据保护,可能是更可行的办法。”玄武实验室正在逐步丰富这一模型的应用覆盖面,并完善其部署和交付方式,以供企业用户和个人用户在未来能够便捷使用 。源码下载 数据如今在社会生活生产中扮演越来越重要的角色 ,数据安全也始终是产业数字化进程的核心议题 。腾讯安全持续致力于解决数据安全问题,护航各行各业产业升级。 详细技术报告地址 : https://xlab.tencent.com/cn/2023/12/05/hide_and_seek/ |
全球VPN设备遭遇大规模暴力破解攻击,280万IP地址参与其中Windows KDC 曝代理 RCE 漏洞:攻击者可远程控制服务器最大化安全预算投资回报率的策略与实践研究人员利用 AI 越狱技术大量窃取 Chrome 信息美国100万卡巴斯基用户发现:电脑的安全软件已自动替换为UltraAV苹果、特斯拉均受影响,新型漏洞迫使GPU无限循环,直至系统崩溃第二届“长城杯”信息安全铁人三项赛(防护赛)总决赛圆满收官美国当局追回与2021年Uranium Finance黑客事件相关的3100万美元Gartner预测到2027年,跨境GenAI滥用引起的AI数据泄露比例将达到40%警惕!利用AI深度伪造视频的新型“自骗”攻击浪潮来袭网站建设企业服务器源码库b2b信息平台亿华云香港物理机云服务器