您的当前位置: 主页 > 科技 >

人工智能说谎 人类如何抵抗?

  1950年,计算机科学和密码学先驱艾伦·麦席森·图灵在一篇论文中,提出了著名的图灵测试(The Turing test),测试者与被测试者(一个人和一台机器)在被隔开的情况下,通过一些装置(如键盘)向被测试者随意提问,看测试者是否能确定出被测试者是人还是机器。图灵在论文中预测,到20世纪末,可能会有30%的时候都能骗过正常人的厉害机器出现。

  而后60多年,技术一直在为人工智能会否通过图灵测试所努力。一系列迹象正在开启这个新的时代:

  AI水军——《在线点评系统中的自动众包攻击和防御》是赵燕斌等芝加哥大学研究人员发布的一篇论文。他们的研究说明,人工智能可以被用来生成复杂的点评信息。这些虚假的点评不仅机器无法检测出来,就连人类读者也分辨不出来。

  AI修图——机器学习大神Gidi Shperber利用机器学习,训练出一个用户“背景分离”的模型。一开始,他们的目标是开发出一个可以自动识别前景(foreground)和背景的通用背景移除模型;但发现还是某一系列图像更合适,因此决定专攻自拍和人类肖像。

  AI造景——斯坦福大学和英特尔共同研发了一项技术。在向他们的人工智能系统输入5000张德国街道照片后,该技术可在人类的辅助下,让系统构建出一些模拟的虚构场景。该系统在创建一个虚拟场景之前,需要人类先告知其起点与终点的位置以及在场景中相应位置放入树木、车辆、建筑等。此后,系统会根据输入的不同数据绘制出不同的场景。

  只要有足够的语料进行支撑,AI模仿出一个声音已并非难事;单从语义和文本上看,AI生成的点评也已经无法区分,反抄袭软件也很难奏效,毕竟是逐字逐句生成的假点评。而且,随着技术的日渐成熟,可以肯定的是,AI创造假的语音、视频和图片的门槛只会日渐降低,产品日渐真实。

  在内容分发的领域,算法也正在大规模替代成功。除了部分政治性内容需要人工推荐外,我们在新闻聚合类客户端上看到的所有内容,几乎都是算法来推荐的。算法能判别基本的真假吗?不见得。

  我们当然可以从技术上采取措施。监测发点评的用户账号、登陆IP,对语义进行分析;利用区块链技术,保障一些关键性的数据或最原始的记录不被篡改;通过重新制定法律法规,对相关案件中的语音、视频证据收集和鉴定标准提高。但这无疑都会增加对抗的成本。

  届时,我们怎么办?

  上半月其他一句话新闻

  ——英国《自然》杂志6日发表评论文章进行深度分析称,在疑似“掠夺性”期刊上,逾一半论文的作者来自高收入国家,部分甚至来自知名机构,需采取更坚决的措施来对抗“掠夺性”期刊。

  ——截至2017年7月,全国共享单车累计投放超1600万辆。7月至今,已有杭州、福州、郑州等十余个城市纷纷要求共享单车企业暂停投放新车。跑路、生产产能坐“过山车”、线下运维难以跟上,是时候对这笔“环保账”进行全面计算了。

  ——美国众议院一致通过了一揽子立法提案,以加速无需人为控制的无人驾驶汽车的部署,禁止各州封杀无人驾驶汽车。

  ——由于华为Magic基于Andriod系统重新开发了Magic Live系统,可以根据微信聊天内容自动加载地址、天气、时间等信息;通话、购物等时候也能提示相关服务信息,华为和腾讯怼起来了。腾讯方认为需要“致力于保护用户隐私和数据”,华为则认为是经过了用户的授权。但如果真的细究起来,腾讯的正义似乎也站不住脚。如果连上网络=暴露隐私,那么对公司的规制就不能仅仅是“用户的同意”,而应是法律的强制。

  周琳:“引力波·科技专刊”特色专栏“双周科事”主持人。每隔一周,她都会化身“黑科技美眉”(简称“黑妹”)为您盘点近半个月发生在科技界的奇事、大事、新鲜事。