人工智能被T恤迷住了,见识不够是根本原因
最近,这个场景真的被拍上了。东北大学和麻省理工学院等研究机构联合设计了基于反样本技术的T恤衫。这是世界上第一次对T恤等非刚性物体进行物理对抗实验,据研究人员称。人工智能人体探测摄像机无法准确地检测穿T恤的行人,无论衣服有多皱或变形,都能达到"隐身"的效果。
在人工智能人体测试系统下,这种让人"隐形"的T恤背后的原理是什么?这个缺陷会不会导致安全问题以及如何解决这些问题?"科技日报"记者就此采访了相关专家。
在实验中,一个穿白色T恤的男人和一个穿黑色T恤的女人从远处走来。在人工智能身体识别摄像机下,只有穿黑色T恤的女人才能被看到。
这是怎么发生的呢?结果发现,研究人员使用了一种叫做反击的方法来欺骗人工智能。仔细观察,白色T恤上印着不同的颜色块,这些颜色块在人眼和普通图案中,但对于机器来说,它会造成一些干扰。
中科院自动化研究所研究员王金桥解释说,研究人员修改了原来T恤衫上的图案,通过技术手段用强大的干扰取代了原来的图案,改变了T恤原来的视觉外观,使人工智能模型对数据标签的预测变得混乱和错误,从而达到了攻击的目的。
通过构造琐碎的干扰来干扰源数据,攻击者可以利用基于深度神经网络的人工智能算法输出攻击者想要的任何错误结果。这种干扰后的输入采样称为对抗采样。"王金桥说。
例如,在自动驾驶场景中,由于恶劣的天气条件(如大雪、大雾等)或复杂的光线和道路条件,导致前方人员的成像模糊,将极大地影响前方目标检测的性能。在监控场景中,可疑人员可能会通过遮挡衣服、雨伞等干扰人工智能算法。
良好的图像检测和识别分类器不能像人类一样学习和理解目标图像的真实信息,而只是在训练样本上建立一个良好的机器学习模型。
据了解,现有的人工智能视觉识别技术通常采用深层神经网络,这本质上是对特征的深层映射,只是为了了解数据的统计特征或数据之间的关系,对数据量和数据本身的丰富程度的依赖性越大,数据越多,机器学习到的识别目标的特征越多,越能反映出相关性。
柯晓说,在美国汽车协会的辅助驾驶情况下,行人被及时发现或未能及时发现,这可能导致交通事故。此外,安全监测漏检危险人物和物品也可能导致安全风险,违法者可以利用对抗攻击来检测目标检测系统中的漏洞,并进行攻击。
安全问题的出现可能存在模型本身的缺陷,如泛化性能不足、训练数据单一、拟合过度等。此时,应尽可能丰富训练数据,增加技术手段,防止模型训练过程中的拟合,以提高模型的实战能力。王金桥认为,另一方面,实际系统往往需要考虑模型的安全性,以提高模型的可信度和鲁棒性,增加攻击模型进行预测,提高对抗样本的识别能力,从而降低安全风险。
目前,研究人员不断提出精度更高、速度更快的AI目标检测模型,可以解决目标检测技术中的漏检、误检测、实时性和鲁棒性等问题,为今后的技术安全建设还需要做些什么?
王金桥认为,人工智能作为一个整体还处于起步阶段,现有的人工智能算法基本上是学习简单的映射关系,并不真正理解数据背后的内容和潜在的因果关系,因此,其理论创新和工业应用仍面临许多技术难题,需要研究人员继续解决关键问题,实现真正的智能,以降低应用风险。
第二,在技术研究和新技术的应用过程中,研究人员应尽可能多地考虑各种安全问题,加入对抗样本的反攻击模式,做好相应措施的处理。王金桥建议,人工智能相关法律法规也要从社会层面上建立和完善,技术应用范围要引导,可能出现的安全问题要加以引导和规范,为科技创新创造更全面、更成熟的环境。