台湾宾果注册_台湾宾果官网_台湾宾果

欢迎光临
我们一直在努力
您的位置:首页>台湾宾果 >

台湾宾果注册:让AI陷入致命的事情是令人不安的

人工智能研究人员有一个大问题。即使他们设计了强大的新技术,黑客也在想办法如何欺骗技术人员做一些从未想过的事情 - 带来潜在的致命后果。

最可怕的部分是黑客可以使用像贴纸这样简单的东西来做到这一点。

在最近的一份报告中,腾讯的Keen安全实验室展示了他们如何将特斯拉Model S转换为切换车道,以便直接进入迎面而来的车辆。他们所要做的就是在路上放置三个贴纸,形成一条线的外观。汽车的自动驾驶系统依赖于计算机视觉,检测到贴纸并将其解释为车道向左转向。因此它以这种方式驾驶汽车。

如果这在现实世界中发生,结果可能是致命的。幸运的是,这是一项由专家设计的实验,他们正在测试这项技术,以确保它对那些可能想要在机器学习系统上进行所谓的“对抗性攻击”的黑客无懈可击。

这是一个非常现实的风险,它正成为人工智能研究人员越来越关注的问题。它严重影响了严重依赖人工智能的领域,从自动驾驶汽车到医药再到军事领域。

机器学习是一种人工智能,它涉及以事物的例子为例喂养计算机,直到他们“学会”做出自己的决定。对抗性机器学习的目的是通过向计算机提供输入来欺骗计算机,这些输入会破坏他们的决定。

在路上贴标签就是一个例子。在另一个经常被引用的例子中,研究人员在停车标志上贴上了贴纸,让自动驾驶汽车认为标志牌表示速度限制为每小时45英里。这也可以用其他类型的对象完成。这是一个愚弄AI认为香蕉是烤面包机的贴纸:

响应Keen安全实验室的报告,特斯拉联合创始人兼首席执行官埃隆马斯克表示,“像往常一样,Keen的工作非常扎实。”这不是第一次领先的安全研究团队Keen探测到特斯拉的漏洞。

然而,特斯拉发言人对最近的报道作出回应称,鉴于驾驶员可以随时使用方向盘或制动器轻松超越自动驾驶仪并且应该随时准备这样做,因此它所识别出的漏洞“不是一个现实问题。”但是这看起来太轻率了。实际上,自动驾驶汽车的人不会随时准备采取行动,因为自动驾驶仪的前提将使他们认为他们有能力让他们的思绪徘徊。

研究对抗性攻击的加州大学伯克利分校计算机科学教授Dawn Song表示,在研究界,人们正在认真对待此类攻击的风险。“每个人都认识到这一主题的重要性 - 来自谷歌和Facebook以及开放式人工智能的研究人员正在这个领域积极开展工作,”她告诉我,并补充说,过去两年,随着人工智能越来越多,人们对此感兴趣强大,无处不在,因此更危险。

尽管在现实世界中还没有观察到涉及使用贴纸愚弄AI的对抗性攻击,但是有一种感觉,可能不久之后不好的演员会尝试这种事情。“一旦你明白了怎么做,”宋说,​​“它非常便宜而且容易做到。”

这些风险的存在并不意味着我们应该抛弃所有人工智能及其为我们带来的诸多好处。但这确实意味着我们应该弄清楚如何在面对攻击时使我们的AI系统更加强大。要做到这一点,我们需要利用我们的想象来预测黑客可能会想出什么,始终领先于他们一步。

对抗性攻击如何影响医学,战争等

Song研究了各种类型的对抗性机器学习方法,其中一种麻省理工学院技术评论总结如下:

与谷歌合作开展的一个项目涉及探测机器学习算法,这些算法经过培训,可以从电子邮件消息中生成自动响应(在本例中为安然电子邮件数据集)。努力表明,通过创建正确的消息,可以让机器模型吐出敏感数据,如信用卡号。谷歌使用这些调查结果阻止Smart Compose(一种在Gmail中自动生成文本的工具)被利用。

另一种情况是针对医疗保健系统的对抗性攻击。哈佛大学和麻省理工学院的研究人员上个月在“ 科学”杂志上发表的一项研究显示,机器学习系统如何被愚弄参与医疗欺诈。

假设你是医生而你的病人有痣。它的图像被送入机器学习系统,正确地将其识别为良性。但随后你会在图像上添加一个“扰动” - 一层像素,它会改变系统读取底层图像的方式。突然,痣被归类为恶性痣。您声称需要进行切除并且您要求报销。因为你已经对分类进行了游戏,所以健康保险公司愿意为这些钱付出代价。

研究作者指出,对抗性攻击也可以用崇高的意图进行。他们想象一个假设的阿片类风险算法以及它如何被欺骗:

许多对抗性攻击可能是出于提供高质量护理的愿望。可以从阿片类药物危机中得出一个假设的例子。为了应对鸦片剂的过度处置,保险公司已经开始使用预测模型,根据在患者或提供者层面计算的风险评分来否定阿片剂处方申请。如果医生确定她有一个迫切需要使用oxycontin但仍会违反处方授权算法的患者,可以在记录中键入特定模式的算法选择的帐单代码或特定短语以保证批准?

作者认为,“医疗保险行业的具体轮廓使其成为从理论到实践的对抗性攻击运动的一个非常可行的基础。”

军事影响更令人担忧。“想象一下,你在军队中,你正在使用一个自主决定目标的系统,”Jeff Clune 在2017年告诉The Verge。“你不想要的是你的敌人在医院顶部放置对抗性的形象这样你才能去那家医院。或者,如果您使用相同的系统来追踪敌人; 你不想被你的无人机轻易愚弄[和]开始关注错误的汽车。“

美国国防部的高级研究机构DARPA正在通过最近推出的一项名为“保证人工智能对抗欺骗行为(GARD)”的计划,积极研究对抗性攻击的风险以及如何防御它们。项目总监Hava Siegelmann 表示, GARD希望让AI能够抵抗各种各样的攻击,并期待生物学能够获得有关如何做到这一点的灵感。“我们期待产生的那种广泛的基于情景的防御可以在免疫系统中看到,例如,它识别攻击,获胜并记住攻击,以便在未来的交战中创造更有效的反应,”Siegelmann说。

Song还致力于提高机器学习系统弹性的方法。她最近的一篇论文着眼于如何通过检查图像的不同片段之间的一致性来识别覆盖在图像上的扰动。由于对抗性攻击者无法知道您将要测试哪些图像的片段以保持一致性,因此从理论上讲,他们很难设计出一种可以避免检测的扰动。

“我相信这是一个非常有前途的方向,”她告诉我。

听到一位研究员发出一声充满希望的声音,我感到很欣慰。即使对抗对抗性攻击的强大防御,想到可能绕过弯道的可能性也是可怕的。如果没有他们,那就太可怕了。

免责声明:本网站图片,文字之类版权申明,因为网站可以由注册用户自行上传图片或文字,本网站无法鉴别所上传图片或文字的知识版权,如果侵犯,请及时通知我们,本网站将在第一时间及时删除。
返回首页