该人工智能系统将每张脸视为一个复杂的数学图形,一个可以移动的数值范围。选择不同的值,比如那些决定眼睛大小和形状的值,可以改变整个图像。 对于其他情况,我们的系统使用了不同的方法。系统不需要移动确定图像特定部分的值,而是首先生成两幅图像来为所有值建立起点和终点,然后在这两幅图像之间创建图像。 直到最近几年,一种被称为生成式对抗网络的新型人工智能出现,创造这类假面孔图像才成为可能。本质上,你给电脑程序输入一堆真人的照片,它会研究这些照片,并试图找出自己的照片,而系统的另一部分则试图检测哪些照片是假的。这样的反复使得最终产品与真实的东西更加难以区分。 本文中的画像是时报使用计算机绘图公司英伟达(Nvidia)公开提供的GAN软件绘制的。鉴于这种进步的速度,很容易想象在不远的将来,我们面对的不仅仅是单个假人的肖像,而是一群假人,和假朋友在聚会上,和假狗在一起,抱着假婴儿。很难说谁是网络上的真实人物,谁是电脑虚构出来的人物。 一位负责分析社交网络操纵的虚假信息的研究员卡米尔·弗朗索瓦(Camille Francois)说“这项技术在2014年首次出现,那时候它还很糟糕,看起来就像《模拟人生》(the Sims)。但是它在提醒我们这项技术的发展有多快,随着时间的推移,检测只会变得越来越困难。” 面部伪造技术的进步之所以成为可能,部分原因是在识别关键面部特征方面,技术已经进步了很多。你可以用你的脸来解锁你的智能手机,或者让你的照片软件对你的数千张照片进行分类,只给你看你孩子的照片。面部识别程序被执法部门用来识别和逮捕犯罪嫌疑人(也被一些活动人士用来揭露警察的身份,这些警察为了保持匿名而遮住自己的名牌)。一家名为Clearview AI的公司从普通用户随意在网上分享的数十亿张公开照片中提取信息,创建了一款仅凭一张照片就能识别陌生人的应用程序。这项技术带来了超能力:以一种以前不可能的方式组织和处理世界的能力。 但与其他人工智能系统一样,面部识别算法也不是完美的。由于用于训练它们的数据存在潜在的偏见,其中一些系统在识别有色人种方面就不那么好。2015年,谷歌开发的早期图像检测系统将两个黑人标记为大猩猩,这很可能是因为该系统接收到的大猩猩照片比深色皮肤的人多得多。此外,面部识别系统的眼睛也不太擅长捕捉深色皮肤的人,这要追溯到胶卷冲洗的早期,当时照片被校准以最好地显示肤色较浅的人的脸。今年1月,底特律一名名叫罗伯特·威廉姆斯(Robert Williams)的黑人因面部识别匹配错误而被逮捕。 人工智能可以让我们的生活更轻松,但最终它和我们一样是有缺陷的,因为我们才是这一切的幕后推手。人类选择人工智能系统的制作方式,以及它们会接触到哪些数据。我们选择用来教虚拟助手听力的声音,导致这些系统无法理解有口音的人;我们设计了一个计算机程序来预测一个人的犯罪行为,通过输入人类法官过去做出裁决的数据,在这个过程中,这些法官的偏见就会形成;我们给训练电脑看的图像贴上标签,然后他们就会把眼镜和书呆子联系在一起。 你可以发现我们的人工智能系统在创造假面孔时,反复出现一些错误和模式。