不够智能的 AI 绝对是问题!Google 图像处理系统误把

AI 可以说是科技发展的一个大潮流,从人工智能助理、无人驾驶车到 iPhone X 的人面辨识系统,所有地方都需要 Machine Learning 以至 Deep Learning 算法。但机械当然无法完美,就像最近 Google 旗下的人工智能辨识系统把乌龟认成了步枪,其实是发现在 3D 图像辨认也存在很大的漏洞!

从 Labsix 的一个实验当中,他们发现图像辨识系统的一个漏洞。他们利用两只不同的 3D 打印乌龟进行测试,透过把乌龟上的花纹改变成所谓的 “Adversarial Image” ,藉此去改变 AI 的辨识与判断。正常来说人类并不会看得那幺仔细,但 AI 会因为光暗、图样去辨识事物,而这是影响 AI 的一个有效方式。

如果能够影响在其他方面,代表智能驾驶、无人车都可以被某些图像影响,这会为人们带来危险,更可怕的是当电脑首次「认得」这个图像之后,把乌龟移到不同角度 AI 都会自动「修补」缺少的地方,代表即使把 3D 模型改到多个角度,仍然可以影响 AI 判断。

整个研究是由 MIT 学生组仍的 labsix 进行,他们亦在网上公布的完整的报告和影片。又整个研究他们是针对 Google 自家的一个图像辨识系统 Inception V3 ,他们没有正面回应事件,但发言人提到他们已经定立不同的方针去面对 Adversarial Attacks 等尝识误导人工智能的手法。

不够智能的 AI 绝对是问题!Google 图像处理系统误把

如果这次说 Google 的 AI 算法有重大问题,似乎是有点不公平的。毕竟 Labsix 是针对 Google 的算法进行挑战,希望找出漏洞来。而从影片我们亦可以看到并不是所有的角度都能成功愚弄 Google 的 AI (即使大部份角度可以),但他们的确指出了一点很重要的事情。

任何系统都是可以破解的,也会不断被人为挑战,除非破解它是没有利益的吧!