您当前的位置:主页 > 滚动 >

现代密码学之父:我经常把密码写下来,放在钱包里

2019-04-04 16:54 来源:互联网 编辑:运营003
摘要: 
一年前,美国社交媒体脸书(Facebook)被爆数据泄露丑闻,涉及5000万用户。

  一年前,美国社交媒体脸书(Facebook)被爆数据泄露丑闻,涉及5000万用户。当时,脸书创始人兼CEO扎克伯格发声说:有责任保护用户数据,保证不再发生。

  然而,当地时间4月3日,网络安全公司UpGuard的研究人员称,脸书数百万条用户记录被发布在亚马逊公司的云服务器上。

  事实上,脸书数据泄露丑闻所揭露的,不仅是互联网巨头对用户隐私保护不力,而且个人信息被获取并进行倒卖的事件也屡见不鲜。

  因此,人们担忧的是,当一家互联网公司足够大并且掌握用户海量数据时,我们是否能够保护自己的隐私?尤其是涉及金钱交易时,当下流行的免密支付和刷脸支付真的比密码安全吗?

  这些都是科技发展背后的隐忧。尤其是随着人工智能的发展,在精准为用户“画像”的同时,我们的偏好是否被恶意利用?从更长远的角度看,人工智能是否终将超越人类?

  可能最不愿看到今天这个局面的,是“现代密码学之父”惠特菲尔德·迪菲(Whitfield Diffie)。

  1976年,迪菲和赫尔曼开创了“公钥加密”新算法,旨在保证互联网用户进行私下沟通的通道安全,两人因此获得2015年度图灵奖。

  面对今天的信息安全隐忧和人工智能的挑战,迪菲如何看待?带着疑问,中新社国是直通车记者与迪菲进行了一场对话。

  

现代密码学之父:我经常把密码写下来,放在钱包里

  国是直通车 孙秋霞 摄

  Q:去年,一家名为“剑桥分析公司”的数据分析企业,获取了美国社交媒体“脸书”多达5000万用户的信息,今年,脸书又被曝数据泄露丑闻,你如何看待互联网时代的隐私保护?

  迪菲:脸书在丑闻方面很有天赋。我不喜欢脸书是因为它是一种专有技术,而不是一种标准。在某些方面它类似于电子邮件,但电子邮件是一种互联网标准,任何程序员都可以坐下来写电子邮件客户端,没有人可以坐下来编写脸书客户端,因为脸书控制着对其数据库的所有访问。

  我也非常的关注隐私的保护,但这需要一个机制,使大家能够控制自己的信息。比如说谷歌,Facebook都可以获得很多信息,他们能够拥有他们所获得的信息。隐私在这里发挥一定的作用,但是我认为要适当的进行保护。

  Q:现在登录网上账号常常需要输入密码,很多人担心密码安全问题,尤其是涉及金钱交易。你如何设置并保存自己的密码?免密支付和刷脸支付更安全吗?

  迪菲:我经常把密码写下来放在钱包里,但是密码安全保护程度跟丢钱包概率差不多。事实上我喜欢密码,它是你独有的。很多负责信息安全管理的人员不喜欢密码,因为密码没有给他们足够的控制权,所以他们往往喜欢使用生物识别技术或其他东西,这样密码就可以和其他人分享。

  在互联网交易中,我们还是需要密码,但同时也需要改进技术来设置、记忆和使用它们,我也在研究如何增强密码的安全性。

  Q:传统计算机需要几十年才能计算出密码结果,但量子计算仅几秒就可以轻松破解。你怎么看待量子计算对加密技术的威胁?

  迪菲:上个世纪90年代开始,物理学家就对量子计算充满期待,我也在猜测量子计算什么时候会威胁密码学。坦白说,量子计算对密码学中非常窄和重要的领域构成了威胁,但并不是所有领域。20世纪70年代建立起来的公钥加密体系很容易受到量子计算的攻击。

  但密码学中有很多技术,例如大多数区块链都使用了公钥密码,同时也使用了很多其他的东西,包括哈希编码,区块链在量子计算中并不十分脆弱。

  Q:除了密码学,你在人工智能方面也有较深的研究,当初被“人工智能之父”约翰·麦卡锡邀请进入斯坦福人工智能实验室工作。人工智能至今已发展60多年 ,你如何看待人工智能的未来?

  迪菲:很多人认为人工智能真正可能是源于最早先人们探索机器,或者游戏,甚至比19世纪更早。在某种程度上,大家往往把人工智能跟超级计算结合起来,人工智能更多地是让这些计算机有超级计算的能力,针对一些新的想法进行处理,往往超过我们所能理解到的范围。

  接触AI到现在60多年了,我感觉到没有任何人对于AI到底可以解决哪一类的问题,有任何的定义。不管你叫它是人工智能还是机器智能,现在人们对它的热情很大,就觉得计算力可以做非常复杂的事情,解决非常复杂的场景,这是以前从来没有想到过的。但它会比其他的现象更类似人的思考。

[ 编辑: 运营BX01 ]

中国金融领域第一媒体

更多服务
友情链接

京ICP备11011451号-1

举报热线:(010)12377

举报邮箱:xinhua_ljzjr#ljzjr.cn(#替换@)

合作QQ:1447260813

中国金融时报网 版权所有 Copyright © 2010 - 2018 ljzjr.cn All Rights Reserved.