AI换脸惹争议,用户隐私权不容侵犯
AI换脸惹争议,用户隐私权不容侵犯
■ 社论
未来已来,人工智能不仅是一个技术问题,也是一道治理考题。
一款新推出的AI换脸软件火爆社交网络,但同时也引发严重的隐私争议。根据介绍,使用AI技术,用户只需提供一张正面人脸照片上传到该软件,就可以把选定视频中的明星面部替换掉,生成以自己为主角的视频片段。
该软件一夜刷屏,但之后却又引发舆论对其涉嫌侵犯用户隐私权的严重质疑。因为在用户使用前必须签署的授权协议中有规定,用户上传发布内容后,意味着同意授予某些相关方在“全球范围内完全免费、不可撤销、永久、可转授权和可再许可的权利”,一些网友和法律人士认为其涉嫌非法收集用户面部信息,进而担心这些被收集的面部信息会被滥用,抑或被黑客盗用。
现在还很难判断软件运营方收集人脸数据和授权是否出于恶意,但网友的担心却是可以理解的。因为就在上个月的第四届全球金融科技峰会上,央行科技司司长李伟刚刚警示了AI人脸识别技术可能带来的新风险,他说,“人脸支付的时候,一刷脸钱就没了,更可怕。银行卡可能还揣在兜里,脸是平常露在外面,识别出来非常容易,现在有的技术在3公里之外识别你的人脸。”
李伟这番话在报端被广泛传播,使消费者意识到随着AI等技术的进步,人脸作为数据不但是有价值的,而且还会带来新的风险。但李伟的本意实际上是在告诫那些掌握前沿技术的公司:有技术也不能滥用,有技术也不能任性。
但从AI换脸软件所引发的质疑可以看出,并不是所有的公司把这番告诫放在心上。而这背后则存有多重原因:有商业利益上的原因,在数字经济形态下,数据已经成为新的生产要素,数据优势就是竞争优势,同时也是商业优势和经济优势,以逐利为主要目的的公司很难主动割舍这种优势;也有法律没有及时跟进,以及企业普遍缺乏自我商业道德约束的原因。
尤其是后者,如果从改革开放开始计算,中国融入现代商业社会不过四十余年,企业间的商业伦理建设并不完善,游走在法律边缘与灰色地带的企业极多,而主动从用户权益出发者较少,还有很大提升空间。在美国,如何面对人脸数据同样是新生课题,处于模糊地带,但微软却在今年主动选择删除了其最大的公开人脸识别数据库,原因就是担心侵犯公众隐私权、“数据权”。
AI换脸软件所引发的争议表面上是围绕隐私保护,但在本质上却反映了一个全社会甚至全人类必须面对的新课题:人类技术在飞速进步,在不断进入新的领域,它不仅给人类带来更高品质的生活,同时也会引发大量创造性破坏。这对人类现有制度体系、运行机制、法律规则和社会秩序等都造成前所未有的挑战。
AI换脸侵犯隐私并不是小问题,它实际上反映出人类在AI时代的一种现状:在大数据和算法之下,所有人都是“裸露”的,个人隐私无处逃遁,普通人对于利用AI作恶也无力抵抗。而且,随着AI能力的提高以及更普遍的应用,还有更多难题必须面对,比如智能机器人是人还是机器?有没有主体资格?人工智能直接造成的损害谁来承担?甚至人工智能失控了怎么办?
这并非危言耸听。未来已来,人工智能不仅是一个技术问题,也是一道治理考题。为此,发展人工智能,治理也需跟上。理想的状态是人工智能技术与立法齐头并进,甚至法律能做到未雨绸缪。但人类社会的常态却是治理往往落后于技术进步。这种情况下,就需要科技企业自发地承担伦理责任,保持敬畏之心,坚持科技向善,维护人类价值,避免技术发展和应用突破人类伦理底线。也只有恪守科技伦理,企业才能在“良性发展”的路上行稳致远。
中国观察