时间:2024-07-29|浏览:207
用戶喜愛的交易所
已有账号登陆后会弹出下载
AI 新闻:美国商务部推出工具测试模型风险
人工智能 (AI) 模型的需求不断增长和普及,迫使多个地区的当局制定标准。在这些地区引入 AI 工具需要遵守此类标准。因此,美国商务部与一些实体合作推出了 Dioptra。
美国将利用 Dioptra 应对恶意人工智能攻击
Dioptra 是一个模块化的、基于网络的开源工具,由美国商务部与国家标准与技术研究所 (NIST) 合作重新发布。
我只是想让大家知道,随着人工智能领域继续快速发展,重新启动该计划正值关键时刻。测试平台的设计旨在衡量恶意攻击对人工智能系统性能产生负面影响的能力。它特别关注“毒害”人工智能模型训练数据的攻击。
值得注意的是,Dioptra 首次发布于两年前,重点是帮助训练 AI 模型的公司和利用创新技术的实体。
当时,其功能包括评估、分析和跟踪 AI 风险。据 NIST 称,该工具可用于对模型进行基准测试和研究。此外,NIST 表示:“测试对抗性攻击对机器学习模型的影响是 Dioptra 的目标之一。”
与其他一些工具和人工智能法规一样,Dioptra 是一种实现人工智能模型安全和用户保护的方法。
政府制定法规,阻止人工智能模型的推出
几天前,谷歌、微软、Nvidia、OpenAI 等科技巨头更加重视人工智能安全问题,成立了安全人工智能联盟(CoSAI),具体来说,CoSAI 致力于为人工智能的开发和部署建立强大的安全框架和标准。