会员登录 - 用户注册 - 设为首页 - 加入收藏 - 网站地图
当前位置:主页 > 社会 > 正文

在进入社会时记应用前Google 要让 AI 向人类学习如何“看”图片

时间:2018-03-21 11:37 来源:未知 作者:admin 阅读:

  “图片左边是一只猫,右边是一只狗。”如果你只是稍微瞥过,很可能会产生这样的,但只要看得久了一些,自然而然便会察觉其中的突兀之处:左右两边其实是相同的图片,只是稍微被修改过。

  确实,为了让人们被图片混淆,研究人员修改了一些细节.之所以这么做,是因为 Google 团队正在设法弄清楚为什么人类会对某些形式的图像处理产生抵触,或着更该这么说:用一张图片去欺们到底需要什么。

  透过理解这些简单与意外的原理,团队希望让人工智能(AI)变得比现在更加聪明,或者应该说,更具备与人类相同的常识去识别图片。

  “如果我们确切地搞懂人类大脑中存在可以抵制某种对抗性类型的例子,这将为机器学习中存在着类似的安全机制提供。”

  过去一年在国外许多团队的尝试下,我们经常看到 AI “出错”,不论是海龟误认为步枪,还是将迷幻贴纸误认为吐司机,这些错误在身为人类的我们看来都非常有趣,因为这是即使只有四五岁小孩都不会犯的错误。

  ▲在有意图的对照片做出些微改动之下,AI 便会将熊猫看成长臂猿,猫咪看成电脑,香蕉看成土司机。

  而这些错误并不在于 Google 的 AI 系统存在什么问题,而是一个机器普遍存在的简单缺陷:缺乏眼睛,由于机器无法“看到”世界,只能“处理”图片,这让人们很容易一般人不会看到的图片来他们。

  截至目前为止,神经科学(neuroscience)已经向 AI 领域提供了许多帮助,像是对 AI 应用发展非常重要的人工神经网络(ANN)便是其中一环,但研究人员希望能从中获取更多灵感,而它们的目标其实非常简单:那些骗不了人类的内容也应该要骗不了 AI。

  作为 Google 研究小组之一,Ian Goodfellow 过去曾发布过深度学习相关书籍,他近日再度公布了一份-“能同时欺类与电脑视觉的对抗式案例”(Adversarial Examples that Fool both Human and Computer Vision),提及了一些 AI 的案例并不适用于人类大脑,Goodfellow 认为这些资讯应该能被用来制造更为弹性的神经网络。

  以目前的情况来看,人们在图像识别上还是毫无疑问的冠军,而 AI 的错误确实能够被当作茶余饭后的话题,但如果人们未来得生活在 AI 环绕的世界(目前看来确实正持续朝着这个目标迈进),为了避免 AI“看错”照片造成的麻烦——像是自驾车被迷幻贴纸搞混标示造成的车祸,这些问题势必得解决。

(责任编辑:admin)

顶一下
(0)
0%
踩一下
(0)
0%
发表评论
请自觉遵守互联网相关的政策法规,严禁发布色情、暴力、反动的言论。