AI之间有一场搏击赛邪恶AI能否被战胜

2019-05-14 21:57:13 来源: 奉贤信息港

近日,马斯克与扎克伯格就 AI 会不会终结人类文明的话题吵了起来,对 AI 是恶是善业界有不同的声音,那末如果 AI 是邪恶的话,未来我们该如何应对呢?未来五个月,在数据科学竞赛平台Kaggle上将进行一场比赛,比赛将使研究人员的算法相互混淆,试图混淆和欺骗对方,希望这场争斗能够帮助我们深入了解如何加强机器学习系统,避免未来的攻击。

怀俄明大学助理教授Jeff Clune表示:通过欺骗深层神经络和设计不能被欺骗的深层神经络,来加速研究的进程,这是一个绝妙的点子。

比赛由三个部份组成。 个挑战是只是尝试混淆机器学习系统,使其无法正常工作。第二个挑战将涉及到试图强制系统错误地分类某些东西。第三个挑战将涉及发展强大的防御。比赛结果将在今年晚些时候的AI大会上公布。

机器学习,特别是深度学习,正在迅速成为许多行业不可或缺的工具。 该技术涉及将数据输送到特殊类型的计算机程序中,指定特定结果,并使机器开发算法来实现结果。深度学习通过调剂数字摹拟的神经元构建的巨大的互连络,来做到这一点。

长久以来,机器学习系统一直可以被欺骗。 例如,垃圾邮件发送者可以通过辨认过垃圾邮件滤器的算法来规避邮件过滤。

近年来,研究人员已经表明,即便聪明的算法有时也会以令人难以置信的方式被误导。 例如,具有接近人类水平的识别图象深度算法可能被看似抽象或随机图象所迷惑。

本次大赛的组织方,Google Brain的研究员Ian Goodfellow表示:对抗性的机器学习比常规机器学习更难研究 - 很难说你的攻击强度很强或者你的防御力是否真的很弱。

随着机器学习的普及,这类攻击可能被用于获利或纯洁的恶作剧。例如,黑客可能逃避安全措施,以安装恶意软件。

Goodfellow表示:计算机安全是在转向机器学习。 坏人将使用机器学习来自动化攻击,我们将使用机器学习来进行防御。

在理论上,犯罪分子也可能让声音和脸部辨认系统瘫痪,甚至张贴海报来欺骗自动驾驶汽车的视觉系统,导致系统崩溃。

Kaggle已成为算法开发的宝贵繁荣之地,也是有才华的数据科学家的温床。 该公司于3月份被Google收购,现在已成为Google Cloud平台的一部分。 Goodfellow和另一位Google Brain研究员Alexey Kurakin在收购之前就提出了这次大赛的想法。

Kaggle的联合创始人兼CTO Benjamin Hamner表示,他希望比赛能引起人们的关注。 随着机器学习的使用越来越广泛,从对抗学习中了解问题和风险变得越来越重要,他说。

公开比赛的好处超过了任何宣扬新型攻击的风险,他补充说:我们认为,这项研究是建立公开的,而不是闭门会议。

宫颈炎怎么治疗好
盆腔炎怎么引起的
宫颈炎怎样能好
本文标签: