• <tbody id="3xw27"><dd id="3xw27"></dd></tbody>
      <code id="3xw27"><menuitem id="3xw27"><dl id="3xw27"></dl></menuitem></code>

    1. <noframes id="3xw27"><input id="3xw27"></input></noframes>

      <output id="3xw27"></output>
    2. <big id="3xw27"><strong id="3xw27"></strong></big>

       首页 >> 本网首发
      人工智能安全的双重规制体系
      2019年02月20日 08:18 来源:中国社会科学网-中国社会科学报 作者:赵精武 字号
      关键词:人工智能;安全秩序;双重规制体系

      内容摘要:滥觞于20世纪初的人工智能因大数据、云计算的?#38469;?#31361;破而重新焕发生机,?#38469;?#38761;命的演进为人类打开步入智能融合的数字社会的大门,人类的行为模式和思维活动随着各领域?#38469;?#30340;延展而蜕变。

      关键词:人工智能;安全秩序;双重规制体系

      作者简介:

        滥觞于20世纪初的人工智能因大数据、云计算的?#38469;?#31361;破而重新焕发生机,?#38469;?#38761;命的演进为人类打开步入智能融合的数字社会的大门,人类的行为模式和思维活动随着各领域?#38469;?#30340;延展而蜕变。自劳伦斯·莱斯格(Lawrence Lessig)教授的《代码2.0》出版以降,?#24405;际?#19982;规范之间在本?#20107;?#23618;面产生了紧张关系。莱斯格教授将代码与法律的互动关系喻为东西海岸之争,用以说明究竟是?#38469;?#22609;造了法律规范,还是法律形塑?#24605;际?#35268;范。他的核心观点直指要害,任何?#38469;?#30340;规制路径?#21152;?#24403;包含市场、架构、社会规范?#22836;?#24459;四个维度,人工智能所特有的国家、社会、商业、伦理纵横交错的复杂利益关系导致人工智能的安全问题不断复杂化,从莱斯格教授处抽丝剥茧式觅得人工智能安全规制的完?#26469;?#26696;已成奢望。

        内外双重视角下的安全秩序

        图灵意义上的人工智能是通过人类知识驱动推理的机械化运作方案,而随着云计算?#38469;?#19981;断的衍化、迭代,现代意义上的人工智能由算法和数据耦合所构成,呈现出数据驱动计算运作机理。以机器学习能力为界,有学者将人工智能区分为“符号主义”的老派人工智能和“联结主义”的新人工智能;也有按人工智能的聪慧等?#29420;?#21010;分,将人工智能分为弱人工智能与强人工智能(当前强弱区分说已经成为主流观点)。诚然,无论何种分类标准,都对人工智能的社会作用不谋而合,即人工智能正在颠覆人类既有的社会思维习惯?#22836;?#24459;规制方案。此外,从国家竞争的角度来看,人工智能也?#27465;?#22269;军备竞赛、争夺霸权的“隐形”战场,甚至有不少国家为?#22235;?#21462;优?#39057;?#20301;而选择?#38498;?#30053;对人工智能脱缰所带来的伦理问题。人工智能所独有的政治性、社会性以及错综复杂的利益结构,需要从治理层面重视人工智能安全问题。一方面要从内部?#38469;?#35270;角关注算法安全和数据安全,同时也要从外部视角关注伦理安全和国家安全。

        人工智能的安全秩序包含算法安全、数据安全、国家安全、伦理秩序安全四个维度,传统规制人工智能观念正经历着迭代、升级,数字正义(digital justice)作为?#38469;?#39046;域的全新秩序价值正发展成为普遍共识。数字正义并非仅关乎在线纠纷的解决,它的核心在于厘清科学?#38469;?#20135;生各种类型纠纷的本源,?#20113;?#21033;用法律、?#38469;?#20849;同预防和解决纠纷的产生。作为人工智能安全价值基础的数字正义理论包含数据正义(data justice)、算法正义(algorithm justice)、国家安全、人类安全四层次的内涵。当前人们多将目光聚焦在数据正义(data justice)领域,欧盟的《统一数据保护条例》、中国纳入立法规划的《个人信息保护法?#33539;际?#22312;信息自决的理念基础上对数据流动安全、数据使用公平问题所作的法律秩序安排。

        算法规制与算法正义

        囿于当今的?#38469;?#26465;件和科技水平,我?#24378;?#20197;预见,人类社会仍将长期处于弱人工智能时代,当前算法歧视、算法暴政已经直接威胁到人类科?#21152;?#32463;济民主。有鉴于此,算法正义是这个时代需要关切的重点及难点,由人工智能安全的内部视角来观察人工智能规制,会发?#21046;?#26680;心?#35789;?#23545;算法设计本身的规制,弗兰克·帕斯奎尔(Frank Pasquale)认为一切算法的本?#36866;?#40657;箱,这一观点在?#38469;?#23618;面的隐喻为:机器学习神经网络中存在隐层逻辑使得设计者无法对机器学习的优化结果做出合理的解释。但从算法的外部效应来看,黑箱具有相对性,所谓“算法黑箱”仅指对用户的不透明,对设计者来说算法是一种公开且透明的?#38469;跏导?#26041;案。因此,无论是要求算法设计者强制披露、算法设计者完成设计时自?#24050;?#35777;以确保算法的?#34892;?#24615;,还是充分尊重用户个人选择,赋予用户事后的算法解释权,以化解合同双方的力量不对等状态,限制“算法权力?#20445;?#20854;重点都在于人工智能领域安全维护需要对作为沟通工具的算法进行规制。

      作者简介

      姓名:赵精武 工作单位:?#26412;?#33322;空航天大学法学院

      转载请注明来源:中国社会科学网 (责编:张振)
      W020180116412817190956.jpg
      用户昵称:  (您填写的昵?#24179;?#20986;现在评论列表中)  匿名
       验证码 
      所有评论仅代表网友意见
      最新发表的评论0条,总共0 查看全?#31185;?#35770;

      回到频道首页
      QQ图片20180105134100.jpg
      jrtt.jpg
      wxgzh.jpg
      777.jpg
      内文页广告3(手机版).jpg
      中国社会科学院概况|中国社会科学杂志社简介|关于我们|法律?#23435;?/a>|广告服务|网站声明|联系我们
      河北快三
    3. <tbody id="3xw27"><dd id="3xw27"></dd></tbody>
        <code id="3xw27"><menuitem id="3xw27"><dl id="3xw27"></dl></menuitem></code>

      1. <noframes id="3xw27"><input id="3xw27"></input></noframes>

        <output id="3xw27"></output>
      2. <big id="3xw27"><strong id="3xw27"></strong></big>
      3. <tbody id="3xw27"><dd id="3xw27"></dd></tbody>
          <code id="3xw27"><menuitem id="3xw27"><dl id="3xw27"></dl></menuitem></code>

        1. <noframes id="3xw27"><input id="3xw27"></input></noframes>

          <output id="3xw27"></output>
        2. <big id="3xw27"><strong id="3xw27"></strong></big>