该补丁只会愚弄特定算法,但研究人员正在研究更灵活的解决方案
这些类型的图像被称为对抗样本,因为它们能够欺骗计算机视觉系统。
人工智能监控的兴起非常令人担忧政府集体追踪和识别公民的能力可能意味着公共匿名的终结但正如研究人员一再表明的那样,有办法欺骗此类系统
最新的例子来自比利时鲁汶大学的一群工程师在上周在预印服务器 arXiv 上分享的一篇论文中,这些学生展示了简单的打印图案如何能够欺骗旨在识别图像中人物的 AI 系统
如果你打印出一个学生特别设计的贴片并将它挂在你的脖子上,从人工智能的角度来看,你可能已经躲进了隐形斗篷。各类型的芯片在功耗,通用性,成本,编程难度等方面存在差异,CPU通用性强,但运算效率难以达到AI的要求;GPU长于并行处理,以CUDA作为简易编程接口,编程框架成熟,但仍存在提效空间;FPGA具有灵活度高,功耗低的优势,但编程较为复杂;ASIC是针对AI特性开发的芯片,兼具高算力和低功耗,但开发周期长,流片成本高。。
正如研究人员所写:我们相信,如果我们将这项技术与复杂的服装模拟相结合,我们就可以设计出一种 T 恤印花,让自动监控摄像头几乎看不到人。运算能力决定了AI模型训练与推理的效率,处理器性能是关键。不同部署场景及应用阶段对AI芯片的需求不同,终端与云端的芯片分别表现出高性价比化及高性能化。
这可能看起来很奇怪,但它实际上是AI 世界中众所周知的现象这些类型的模式被称为对抗性示例,它们利用计算机视觉系统的脆弱智能来诱使它们看到不存在的东西
过去,对抗性示例曾被用来欺骗面部识别系统它们已经变成了贴纸,打印到 3D 物体上,甚至被用来制作可以欺骗算法的艺术作品
许多研究人员警告说,对抗样本具有危险的潜力例如,它们可以用来欺骗自动驾驶汽车将停车标志读取为灯柱,或者它们可以欺骗旨在识别疾病的医疗人工智能视觉系统这样做可能是为了医疗欺诈,甚至是故意造成伤害
。