防御人工智能最好的办法,也是人工智能!

这是一场算法大战,这也可能是一次未来网络安全和网络战的预演。这场竞赛将在接下来的5个月里进行,它的组织者是Kaggle。


Kaggle是一个数据科学的竞赛平台。在比赛中,研究人员的算法会为了迷惑和欺骗对方而展开激烈斗争。组织者的愿望是:这场斗争能促使人们对“如何强化机器学习系统”产生更深刻的洞见,以抵御未来的网络攻击。


怀俄明大学副教授Jeff Clune主要研究机器学习的局限性,他说:“通过研究去促进两个对立面的发展——一方面是愚弄深度神经网络,另一方面却是设计一种无法被愚弄的深度神经网络。这真是一个绝妙的想法。”


这次比赛由三个挑战项组成:一个挑战是简单地迷惑机器学习系统,使它不能正常工作;另一个是试图强迫系统对某些东西进行不正确的分类,第三个挑战则是开发最强大的防御系统。比赛结果将在今年晚些时候召开的一次大型人工智能会议上公布。



机器学习,尤其是深度学习,正迅速成为许多行业不可或缺的工具。该技术主要是指将数据输入一种特殊的计算机程序,指定一个特定的结果,并让机器自己开发一种算法来实现结果。深度学习是通过调整一个巨大的、神经元网络数学模型参数来实现的。


人们早就知道机器学习系统可以被愚弄和欺骗。例如,通过找出过滤器的识别模式算法,垃圾邮件制造者完全可以避过现代的垃圾邮件过滤器。


但是,近年来研究人员已经证明,即便是最聪明的算法,有时也会被令人吃惊的方法误导。例如,具有近似人类的图像识别能力的深度学习算法,也可能会被看似抽象或随意的图像所欺骗,这些图像正是利用了深度学习算法开发的低级模式。


这场比赛的组织者,也是研发机器学习的谷歌大脑研究员Ian Goodfellow说:“研究对抗式的机器学习比传统的机器学习更困难,因为很难分辨到底是你的攻击能力太强,还是你的防御能力太弱。”


随着机器学习的普及,人们担心这种攻击会被用于营利或纯粹的恶作剧。例如,黑客可能会不采取任何安全措施,而直接安装恶意软件。


Goodfellow说:“计算机安全的发展方向一定是机器学习,坏人将通过机器学习让他们的攻击自动化,我们却是使用机器学习来进行防御。”


理论上讲,犯罪分子也可以欺骗声音和面部的识别系统,甚至在自动驾驶汽车上张贴海报来欺骗视觉系统,导致其崩溃。


Kaggle是算法发展进步的孵化器,也是滋养优秀数据科学家的土壤。该公司于3月被谷歌收购,现在是谷歌云平台的一部分。在收购Kaggle前,Goodfellow和另一位谷歌大脑研究员Alexey Kurakin就一起提交了关于开办这场竞赛的方案。


Kaggle的联合创始人和首席技术官Benjamin Hamner说,他希望这场比赛会吸引人们关注一个迫在眉睫的问题:“随着机器学习的应用越来越广泛,从对抗性学习中理解问题和风险变得越来越重要。”


公开赛胜过仅仅“宣传新型网络攻击”带来的风险,他补充说:“我们相信对这项研究来说,公开的创造和分享才是最好的方式,不应该闭门造车。”


同时,Clune表示,他很希望通过这场比赛测试那些声称可以抵抗攻击的算法。他说:“在可预见的未来,我敢打赌神经网络还是会被继续愚弄。”



上一篇:重新行走不是梦!AI 已经能… 下一篇:“海上特斯拉”来了,全球首艘…




推荐文章:

波士顿动力终于实现类人平衡力!全新算法赋予机器人摆脱“摔倒”魔咒日本科学家发明充气机械臂,足有20米长日本机器人巨头联手Nvidia,为机械臂赋予智慧如机甲战士般的外形,让虚拟世界的触感前所未有得真实软萌已成智能家居标配,Bosch旗下公司发布Kuri机器人交通运输业要革自己的命?一款“类机器猫”行走机器人的问世