收藏本站  |  English  |  联系我们  |  中国科学院
  首页 所况介绍  
新闻动态
 
 
 
 
 
 
 
 
 
现在位置:首页 > 新闻动态 > 业内信息
 

人工智能说谎,人类如何抵抗?
2017-10-30 | 编辑: | 【 【打印】【关闭】
 

  只要有足够的语料进行支撑,AI模仿出一个声音已并非难事;单从语义和文本上看,AI生成的点评也已经无法区分。而且,随着技术的日渐成熟,AI 创造假的语音、视频和图片的门槛只会日渐降低,届时,我们怎么办? 

  1950年,计算机科学和密码学先驱艾伦·麦席森·图灵在一篇论文中,提出了著名的图灵测试(TheTuringtest),测试者与被测试者(一个人和一台机器)在被隔开的情况下,通过一些装置(如键盘)向被测试者随意提问,看测试者是否能确定出被测试者是人还是机器。图灵在论文中预测,到20世纪末,可能会有30%的时候都能骗过正常人的厉害机器出现。 

  而后60多年,技术一直在为人工智能会否通过图灵测试所努力。一系列迹象正在开启这个新的时代: 

  AI水军——《在线点评系统中的自动众包攻击和防御》是赵燕斌等芝加哥大学研究人员发布的一篇论文。他们的研究说明,人工智能可以被用来生成复杂的点评信息。这些虚假的点评不仅机器无法检测出来,就连人类读者也分辨不出来。 

  AI修图——机器学习大神Gidi Shperber利用机器学习,训练出一个用户“背景分离”的模型。一开始,他们的目标是开发出一个可以自动识别前景(foreground)和背景的通用背景移除模型;但发现还是某一系列图像更合适,因此决定专攻自拍和人类肖像。 

  AI造景——斯坦福大学和英特尔共同研发了一项技术。在向他们的人工智能系统输入5000张德国街道照片后,该技术可在人类的辅助下,让系统构建出一些模拟的虚构场景。该系统在创建一个虚拟场景之前,需要人类先告知其起点与终点的位置以及在场景中相应位置放入树木、车辆、建筑等。此后,系统会根据输入的不同数据绘制出不同的场景。 

  只要有足够的语料进行支撑,AI模仿出一个声音已并非难事;单从语义和文本上看,AI生成的点评也已经无法区分,反抄袭软件也很难奏效,毕竟是逐字逐句生成的假点评。而且随着技术的日渐成熟,可以肯定的是,AI创造假的语音、视频和图片的门槛只会日渐降低,产品日渐真实。 

  在内容分发的领域,算法也正在大规模替代成功。除了部分政治性内容需要人工推荐外,我们在新闻聚合类客户端上看到的所有内容,几乎都是算法来推荐的。算法能判别基本的真假吗?不见得。 

  我们当然可以从技术上采取措施。监测发点评的用户账号、登陆IP,对语义进行分析;利用区块链技术,保障一些关键性的数据或最原始的记录不被篡改;通过重新制定法律法规,对相关案件中的语音、视频证据收集和鉴定标准提高。但这无疑都会增加对抗的成本。 

  届时,我们怎么办? 

  (来源:新华社    2017年9月18日) 

 

附件下载:
    中国科学院微电子研究所版权所有 邮编:100029
单位地址:北京市朝阳区北土城西路3号,电子邮件:webadmin@ime.ac.cn
京公网安备110402500036号