美国国家标准与技术研究院 (NIST) 近日发布了有关对抗性机器学习 (AML) 攻击和缓解措施指南,大攻的安 呼吁人们再度关注近年来人工智能 (AI) 系统部署增加所带来的击类隐私和安全挑战,并表示这类系统目前没有万无一失的型并方法进行保护。
NIST指出,告人工智这些安全和隐私挑战包括恶意操纵训练数据、统带恶意利用模型漏洞对人工智能系统的全和性能造成不利影响 ,甚至是隐私恶意操纵、修改或仅仅是风险与模型交互 ,就可以外泄关乎个人、源码库大攻的安企业甚至是击类模型本身专有的敏感数据。 伴随着OpenAI ChatGPT 和 Google Bard 等生成式人工智能系统的型并出现,人工智能系统正快速融入在线服务 ,告人工智但支持这些技术的统带模型在机器学习操作的各个阶段都面临着许多威胁。NIST ,全和重点关注了四种主要类型的隐私攻击 :逃避、中毒、高防服务器隐私和滥用。 规避攻击 :目的是在模型部署后产生对抗性输出中毒攻击:通过引入损坏的数据,针对算法的训练阶段进行攻击隐私攻击:目的是通过提出规避现有防护措施的问题 ,收集有关系统或其训练数据的敏感信息滥用攻击:目的是破坏合法的建站模板信息来源,如包含错误信息的网页 ,以重新利用系统的预期用途在规避攻击中,NIST 以对自动驾驶车辆的攻击作为示例 ,例如创建令人困惑的车道标记导致汽车偏离道路 。
针对自动驾驶车辆的规避攻击 在中毒攻击中,攻击者试图在人工智能训练期间引入损坏的数据。例如 ,服务器租用通过将大量此类语言实例植入对话记录中 ,让聊天机器人使用不恰当的语言,以使人工智能相信这是常见的用语。 在隐私攻击中 ,攻击者试图通过询问聊天机器人大量问题,并使用给出的答案对模型进行逆向工程,进而发现弱点来获取有关人工智能或其训练数据中存在的敏感数据。 滥用攻击涉及将不正确的信息插入到源中,亿华云例如网页或在线文档 ,然后人工智能吸收这些信息 。与前面提到的中毒攻击不同 ,滥用攻击试图从合法但受损的来源向人工智能提供不正确的信息 ,以重新调整人工智能系统的预期用途 。 NIST表示,上述攻击并不需要完全掌握人工智能系统某些方面就可以轻松实施,希望科技界能拿出更好的防御措施来应对这些风险 。 源码下载 |
三星5830耳机的音质和舒适度如何?(探索三星5830耳机的声音表现和佩戴体验)NVIDIA DRIVE 为乘用车、卡车、自动驾驶出租车和无人配送车等下一代交通工具提供助力IBM推出高能效NorthPole机器学习处理器数据中心SOP、MOP、SCP、EOP代表什么?神舟笔记本教程(从入门到精通,让你的神舟笔记本发挥最大潜力)Linux系统安装教程(一步步教你轻松安装Linux系统,成为Linux大神)普洛斯数据中心践行ESG理念,以绿色算力助推高质量可持续发展AI计算,为什么要用GPU?人工智能、5G和物联网如何刺激边缘数据中心企业服务器亿华云源码库b2b信息平台香港物理机云服务器网站建设