首页 >> 资讯 >> 本网原创
互联网与人工智能发展:风险及治理
2019年03月29日 08:22 来源:中国社会科学网-中国社会科学报 作者:高奇琦 字号

内容摘要:

关键词:

作者简介:

  人工智能的发展与互联网有密切的关系。当前人工智能已进入整体发展的第三波,而这一波的兴起与以下因素有密切关系:第一,由于互联网技术的发展,在互联网上形成的数据量不断增加,为人工智能的发展提供了数据基础;第二,各种智能设备的计算能力在不断提高;第三,算法模型特别是深度学习算法在近年来取得重要突破。前两点都密切反映了互联网发展对人工智能的重要支撑作用。就未来而言,人工智能的进一步发展同样需要与互联网互相借力。

  人工智能可能催生三类风险

  第一,技术风险。首先,人工智能技术存在算法黑箱问题。目前人工智能技术在算法上主要体现为深度学习技术的不断深化,而深度学习技术本身存在算法黑箱的问题。因为神经网络中的不可解释性,使得这一技术很难用在一些不可逆的决策领域。例如在司法和医疗等领域,一旦通过算法进行最终决策,那不可解释的问题就会变成严重的问题。因为智能不能做出充分而有效的解释,所以基于这一技术的医疗诊断或者司法裁决很难令人信服。其次,存在周期性风险。人工智能发展到今天,从世界范围内看已经是三起两落。而在这一次人工智能的发展过程中,很难判断低谷期何时会出现。最后,存在成本与收益比例问题。目前许多人工智能产品的效果非常出色,但是却无法做到量产或者大规模推广,其具体原因就是产品的成本过高。例如,波士顿动力的类人机器人技术十分先进,但是其机械骨骼关节需要通过3D打印来实现,就目前而言其量产仍然有很大的困难。因此在实际应用中,这些技术会面临巨大的成本挑战。

  第二,隐私风险。由于目前的人工智能发展高度依赖大数据,所以今天的人工智能公司首先是数据公司。因此,人工智能的领头企业都在绞尽脑汁研究如何对各种维度的数据进行采集。不少投资公司在判断公司或项目的未来时,所依据的也是产品所能获得的数据量。通过一些霸王条款的设计,一些公司对个人信息的过度采集,可能导致严重的隐私泄露。2017年12月,有美国消费者保护组织发布了一份报告称,亚马逊和谷歌的智能音箱可能被用来监听用户的大量信息并用作广告推广。人工智能企业应当高度重视这一问题,决不能低估民众对隐私权利的重视。政府也应当积极出台相应的法律规范,避免一些舆论事件的发生,在整体上保护科技公司的发展。隐私问题在智能医疗领域也有重要的探讨意义。由于医疗数据的特殊性,数据权究竟是应该属于个人还是企业存在很大的争议。欧盟出台的《通用数据保护条例》试图对这一问题进行有效的界定,但是我国的相关法律还没有明确的规定。

  第三,安全风险。人工智能技术本身可以用于正当的领域。例如,近年来在演唱会上,我国公安机关便通过人脸识别技术成功抓获嫌疑犯。另外,用人工智能技术也可以更加有效地鉴别出图片有没有被伪造或变更等。但与此同时,人工智能技术也可以被用于伪造。比如,语音合成技术可以用于伪造声音。犯罪分子可以通过掌握当事人的语音信息,利用技术伪造当事人语音,用于诈骗、勒索等。此外,犯罪分子也可以生成对抗网络的技术来伪造视频。因此,人工智能技术在防范犯罪的同时,也为犯罪分子提供了新的犯罪方式。由于黑色经济等一系列问题,人工智能被用于犯罪的动机更加明显,因此我们不能低估人工智能所产生的安全风险。随着人类社会逐渐进入智能社会,大量的智能产品进入家庭,由此产生的安全风险就会更加突出。以往存在的网络安全问题在智能社会中会更加显著。当大批自动驾驶汽车出现后,黑客更可能会攻入无人驾驶的系统,从而产生巨大的风险。因此在智能时代,网络黑客行为产生的社会风险可能会更加显著。

作者简介

姓名:高奇琦 工作单位:

转载请注明来源:中国社会科学网 (责编:孙龙)
W020180116412817190956.jpg
用户昵称:  (您填写的昵称将出现在评论列表中)  匿名
 验证码 
所有评论仅代表网友意见
最新发表的评论0条,总共0 查看全部评论

回到频道首页
QQ图片20180105134100.jpg
jrtt.jpg
wxgzh.jpg
777.jpg
内文页广告3(手机版).jpg
中国社会科学院概况|中国社会科学杂志社简介|关于我们|法律顾问|广告服务|网站声明|联系我们