刑事风险与刑法应对分析
时间:2022-01-04 10:32:04
导语:刑事风险与刑法应对分析一文来源于网友上传,不代表本站观点,若需要原创文章可咨询客服老师,欢迎参考。
摘要:人工智能技术的发展和应用在为人类社会带来便利的同时,也为人类社会带来了潜在的刑事风险。弱人工智能会导致刑事司法实践中作案人实施犯罪的新型犯罪手段增多,使刑法保护的数据信息风险增大,并且还会带来新的刑法适用难题。强人工智能会导致刑法对其实施损害行为的解释空间不足,动摇犯罪主体的构造基础,致使刑事责任理论和刑罚体系面临解构和重塑的风险。为应对人工智能带来的刑事风险,应在刑法中确立人类利益优先原则、严格恪守技术中立原则,并且宜以刑法为后盾、其他法律为先行,对人工智能技术进行法律规制,同时也不能阻碍和制止人工智能技术的发展和应用。
关键词:弱人工智能;强人工智能;刑事风险;人类利益优先
1强弱人工智能的划分
人工智能技术最先由麦卡锡于1956年提出,以人工智能是否具有自我意识以及能否独立思考和解决问题为界,可以将人工智能划分为强、弱人工智能。弱人工智能机器虽然可以在对其设置的程序内自主地进行运行和决策,但仍然是在设计者或者使用者为其设定的程序范围内做出的决策,其并不具有自我意识以及独立思考的能力。现在常见的弱人工智能主要有自动驾驶汽车、智能化医生机器人等种类,这些弱人工智能机器虽然能够自主完成驾驶、手术或者医疗诊断,但其实质上实现的仍然是自然人的意志,不具有独立的辨认能力和控制能力。“弱人工智能可以制造出擅长推理、解决问题的智能机器人,但是并不真正拥有智能,与强人工智能的本质区别在于有没有意识,如果有自我意识、自我创新思维等即为强人工智能,强人工智能的各方面能力已经能与人类智能相提并论。”[1]1081强人工智能机器拥有自己的意识和意志,甚至一定程度上其智力会超越人类,即强人工智能将具有独立的辨认能力和控制能力。弱人工智能机器因不具有独立意识和思考能力,只能被动地引起一系列的刑法问题,有可能是因为无法区分人类和其他物体对人类造成误伤;也有可能是人类设置或编制的程序出现错乱,而导致实施了危害人类社会的情形;也有可能是自然人以人工智能机器为工具来实现其相应的犯罪目的。而强人工智能机器则有可能为实现自身的特定目的摆脱设计者或者使用者为其设定的特定程序,依据自身的意识和意志实施危害人类社会的行为。因此,不管是弱人工智能还是强人工智能,都可能导致发生相应的犯罪问题,不仅对人类社会中的法律、哲学、伦理等方面带来极大的影响和冲击,也为人类社会带来了刑事风险和挑战。面对人工智能技术发展可能对人类社会带来的刑事风险,我们应积极地做出研究和讨论,未雨绸缪,提前做出或设计出相应的对策,以积极的姿态来应对。
2弱人工智能带来的刑事风险
2.1导致刑事司法实践中罪犯实施犯罪的新型犯罪手段增多。人类利用弱人工智能机器可以改造和创造世界,实现人类生产、生活或者科技探索的目的,为人类的生产和生活带来便利。弱人工智能如同自然人其他的生产、生活工具一样,是自然人智力和肢体的拓展,不仅可以解放人类的劳动力使其免于从事枯燥、沉重、机械的体力劳动,也可以弥补人类自然属性的不足,替代人类从事一些高难度、高强度以及人类自然条件所无法触及的极限工作。但是弱人工智能机器的这一优势也可能会被罪犯所利用,作为实施犯罪的工具,增加实施犯罪的手段,使罪犯利用弱人工智能这一新型技术更容易地实现犯罪目的和逃避刑法的规制和打击。“刑法的任务是为保护法益,保护的方法是禁止和惩罚侵犯(包括侵害与威胁)法益的犯罪行为。”[2]25罪犯利用弱人工智能机器只需要设计和编制出相应的程序,让弱人工智能机器替代自己实施相应的犯罪,不再需要罪犯亲自实施具体的危害行为。例如,罪犯可以利用自动枪械或者无人机实施相应的攻击性犯罪,其不再需要亲自冒着生命危险实施相应的攻击行为,就可以实现相应的犯罪目的。罪犯可以利用弱人工智能机器有效地窃取和获得情报,从而实施严重危害国家安全的犯罪;可以操纵其携带危险物品或者设置定时炸弹,在社会公共场所实施危害公共安全的危害行为;可以利用其较强的信息收集和数据处理能力,实施非法获取国家和社会信息的行为。罪犯也可以通过设置和编造特定的程序,使弱人工智能机器在特定的时间和地点内完成相应的运输任务,作为实施犯罪或其他犯罪的运输工具。同时,由于现在的弱人工智能机器被普遍应用于金融领域,在证券市场领域利用人工智能机器实施证券交易的活动也越来越普遍。如果罪犯攻击、破坏了进行证券交易活动的人工智能机器的程序,就可能会操纵证券市场,导致证券交易市场的崩溃,从而实现其犯罪目的。罪犯利用弱人工智能机器会不断增加其实施犯罪的新型手段,这不仅可以使罪犯大大提高犯罪的效率和降低实施犯罪的风险,也导致罪犯实施的犯罪行为难以受到刑法的规制,不能及时对其进行打击和处罚,使公民的合法权益难以得到及时有效的保护。2.2导致刑法保护的数据信息法益面临更大的侵害风险。“人工智能包括3个核心要素:深度学习的算法、高质量的数据收集、高性能的计算能力,人工智能技术发展主要依赖于高质量的大数据包括敏感数据的收集和使用。”[1]1084人工智能在数据的采集和应用过程中,会使刑法保护的数据信息风险增大,因为数据信息不仅具有很强的政治价值和经济价值,还直接关系着公民的个人隐私,这些被收集和采集的数据信息一旦被泄露,将会给公民和社会带来严重的危害。这些数据涉及到一个国家的方方面面,不仅包括国防和国家安全的数据信息,还包括政府、企业、金融、医疗等各方面的数据信息,直接关系着国家安全、社会秩序及社会公共安全。数据安全对于一个国家的政治和国防有着极为重要的影响,在今后的高科技战争中能否掌握战争的主动权,很可能取决于是否能够及时获取对方有效的数据信息,抢占先机。因此,“一个国家拥有数据的规模、活性及解释运用的能力将成为其综合国力的重要组成部分,未来对数据的占有和控制甚至将成为继陆权、海权、空权之外国家的另一个核心资产。”[3]数据信息还具有很强的经济价值,企业可以通过大数据信息了解到客户的爱好和需求,从而使其所做的广告和产品更具有针对性。正是由于数据信息具有极强的政治价值和经济价值,这些被人工智能收集和搜索的数据信息,就可能被犯罪分子利用或者出卖给他人,以获取非法利益,对公民的合法权益和社会稳定造成安全隐患。在司法实践中已有真实的案例存在。例如,犯罪分子通过非法出售公民信息的网络获取了被害人的身份证号码、银行卡号、网银登陆账号和密码等数据信息后,罪犯利用上述数据信息先登陆移动营业厅将被害人的手机停机,然后登陆相应的银行门户网站,用其手机号码替换被害人手机号码作为被害人网上银行绑定的手机号码,将余额变动提醒等功能全部转由其手机号码接收,犯罪分子再用其手机号码注册一个某购物网站的账号,并设置相应的登陆密码,将被害人的准贷记卡绑定到某购物网站账号,犯罪分子利用被害人的准贷记卡上的钱款在某购物网站上购买黄金等物品,给被害人造成财产损失。同时,人工智能机器收集的数据也直接关系着公民的个人隐私安全。个人隐私包含公民不想使别人知悉其自身•16•的身份信息、联系方式、健康状况、家庭成员、消费记录、活动轨迹等。大数据时代,个人生活的方方面面都被高度数据化,个人乘车(机)记录、消费记录、通信记录、网上浏览记录、住宿记录等数据,都能勾勒出一个人的社会行为轨迹和社会活动轨迹[4]。但是,近年来有关公民信息泄露愈演愈烈,公民隐私保护面临着极大的挑战。“2013年,中国大陆地区就发生了多起导致大规模公民重要个人信息遭受侵害的事件,例如,如家开房记录泄露、圆通快递信息泄露、QQ群数据库泄露、360网站泄密、搜狗浏览页泄密、12306网站以及CSDN多家网站泄密等等。”[5]58由此可知,人工智能机器收集和搜索的大数据会给公民和社会带来极大的信息数据风险,一旦这些数据信息发生泄露和被犯罪分子利用,就会威胁到国家的政治、经济和公民个人隐私的安全。“我国现有刑法规制体系对计算机信息系统计算能力和技术资源的保护,还重点着眼于静态的计算机软件与系统阶段。如此一来,我国刑法在面临大数据时代数据动态处理模式所提出的要求时,就具有较强的局限性和滞后性。”[5]59因此,人工智能技术的发展和应用会使刑法保护的数据信息风险增大,为人类社会带来刑事风险。2.3导致刑事司法实践中出现新的刑法适用难题。人工智能的产生和应用也可能会导致在刑事司法实践中出现新的刑法适用难题。以自动驾驶汽车为例,自动驾驶汽车作为人工智能技术发展的一个重要表现,被逐渐广泛应用到交通运输领域,但继而也带来了一些新的刑法适用难题。如行为人开启自动驾驶模式以后,自动驾驶汽车在行使过程中违反交通运输管理法规,发生重大交通事故,致人重伤、死亡或者使公私财产遭受重大损失的,在此时究竟是行为人违法还是自动驾驶汽车违法?如果是行为人违法,那么是否可以将其的主观心态界定为行为人应当预见自己开启自动驾驶汽车会违反交通运输管理法规可能会发生重大严重后果,由于疏忽大意而没有预见或虽然预见但轻信能够避免,那么这样就会导致认为只要使用自动驾驶汽车就可能会发生违反交通运输管理法规的悖论。事实上自动驾驶汽车虽然会发生违反交通运输管理法规出现交通事故,但也有正常行驶完美完成驾驶任务的情况。如果将行为人开启自动驾驶汽车的行为,认定其主观心理上对发生的交通事故存在过失,就可能会大大制约自动驾驶汽车技术的发展和应用;如果认为是自动驾驶汽车违反了交通运输管理法规,行为人不违法,那么对于自动驾驶汽车发生的交通事故,就无法对行为人追究刑事责任。但是,客观上自动驾驶汽车发生的交通事故也侵犯了交通运输安全,威胁着社会的公共安全。如果对此类交通事故认定行为人不承担刑事责任,那么是否会放纵对自动驾驶汽车的滥用,导致社会公共安全和交通运输安全的法益在客观上面临着威胁,但又得不到刑法保护的困境。另外,如果自动驾驶汽车中的行为人醉酒的,是否应对其适用我国刑法第133条关于危险驾驶罪的规定。危险驾驶罪侵犯的法益是社会公共安全,具体指的是道路交通安全。如果对行为人适用危险驾驶罪的规定,但是实际驾驶汽车的是汽车的相应程序,在自动驾驶汽车技术可以保障汽车正常行驶,行为人并未侵犯道路交通安全的情况下,如若再对行为人适用危险驾驶罪的规定,是否与设置该罪的初衷相违背?但是,如果不对行为人适用危险驾驶罪的相关规定,那么其在设置程序的过程中设置错误,比如在车速、行程、路线、方向设置错误,同样也会造成交通事故危害到社会公共安全,对于此种情形又该如何来处理?如果依据行为人对自动驾驶汽车的设置是否正确来划分是否应对其适用危险驾驶罪的规定,那么又面临如何来确认行为人是在醉酒前设置的还是在醉酒后设置的自动驾驶程序等一系列难题。如若对上述问题处理不当,就会导致刑罚惩罚圈的过大或者缩小,使公民的人身权利和刑法所保护的法益受到威胁。所以,类似于自动驾驶汽车的弱人工智能可能会在刑事司法实践中带来新的刑法适用难题,使刑法的适用面临着两难的境地。
3强人工智能对传统刑事法理论体系带来的风险
3.1导致刑法对强人工智能实施损害行为的解释空间不足。“随着人工智能技术的快速发展,机器人拥有越来越强大的智能,机器人与人类的差别有可能逐渐缩小。”[6]当人工智能技术发展到一定程度,就有可能出现具有实现自己意志和能够自主决策并自主实施行为的强人工智能和超级人工智能机器。此时的人工智能机器完全拥有自己的独立意志,其实施的行为就有可能脱离或者超越原有程序设计或者编制的范围,为实现自身的意志而实施危害人类的行为。那么,此时有意识的人工智能机器所实施危害人类社会的行为,能否成为传统刑法意义上的危害行为?实施该行为的人工智能机器是否属于传统刑法上的犯罪主体?马克思曾经指出:“对于法律来说,除了我的行为,我是根本不存在的,我根本不是法律的对象。”[7]马克思之所以强调行为在法律上的重要性,是因为法律从其性质和功能上讲,就是调整特定社会关系的行为规范。我国刑法所惩处的犯罪,首先是行为人的一种危害行为。“刑法中的危害行为,是指在人的意志或意识支配下实施的危害社会的身体动静。”[8]70“行为是指一个对外部世界有意义的自然人的举止行为,它要受意志的支配或者至少也是可以受意志支配的。”[9]由此可知,当前刑法理论中的危害行为,其前提就是“人”所实施的,而刑法中的“人”,主要包括自然人和法人,只有上述二者才可以成为刑法中的行为主体。由于传统刑法未将有意识的人工智能机器规定为刑法上的行为主体,那么就会导致刑法对强人工智能所实施损害人类社会行为的解释空间不足,无法对其进行刑法规制,导致人类社会面临受侵害风险的增大。因此,对有意识人工智能在其自主意识下实施损害人类社会的行为,无法在现有的刑法理论和刑事立法中找到合理的解释,会导致现有刑法的解释空间不足。3.2动摇犯罪主体的构造基础。面对科学技术日新月异的变化和发展,我们不能排除人工智能机器在将来会成为刑法中法律主体的可能性。“在未来,必然会有法学界的哥白尼重写法律,帮助机器人争取和人一样的权利,赋予机器人人格。”[10]91我国学者关于人工智能机器是否能够成为刑法中的法律主体,主要有以下两种观点:一种观点认为,人工智能机器在刑事法律领域不应具有法律主体资格,不论是现在的弱人工智能机器,还是将来的高级或超级的人工智能机器,都不能具有刑事法律的主体资格。因为行为人承担刑事责任必须以行为人具有完全的辨认能力和控制能力为基础,而人工智能机器的辨认能力和控制能力是自然人赋予的,实质上其认知的能力仍然是依附于自然人的能力而存在,是属于一种区别于人类的一种拟制能力,其“意志”仍不是自由的,不能将其作为刑法中的法律主体;持相反观点的学者认为,随着人工智能技术的应用和发展,未来人工智能机器将通过深入学习形成与自然人相同的思考过程和自由意志,人工智能机器将会逐渐具有思维能力成为法律主体。”[11]上述关于人工智能机器能否成为刑法中法律主体的争论,两种观点都具有一定的合理性。但是,通过回溯人类构建法律主体的理论会发现,人类构建的法律主体理论经历了一个从自然人到法律拟制人的拓展过程,以人的特征为基础抽象出具体的法律主体概念,将其成为一种具有概括性和普遍适用性的法律术语,法律主体理论的构造呈现出一定的开放性。因此,“以人的抽象为基础的法律主体地位的构造,不仅可以把法人纳入到法律主体之中,现如今非法人组织、动物等存在物,也都可以按照这种类人的抽象,拟制成为法律主体。按照如此逻辑,智能机器人也可以成为法律主体。”[12]具体到刑法领域而言,我国刑法将犯罪主体规定为自然人和单位两种,对于单位实施的危害社会的行为,法律规定单位犯罪的,应当负刑事责任,刑法对于犯罪主体的理论构造也呈现出一定的开放性。“法律主体资格的开放性,是指在法律关系的逻辑结构上,其主体类型及主体范围随社会发展可以逐渐扩展。”[13]刑法中的危害行为是指人在其意志和意识支配下实施危害社会的动静,而有意识人工智能机器除不具有自然人犯罪主体的生理条件以外,已完全具有等同于自然人的独立意识和意志,拥有完全的辨认能力和控制能力。随着社会的发展和变化,在将来当人工智能机器发展成为人类的类似物对人类法益造成威胁时,出于刑法保护法益的需要,不排除刑法不仅可以将单位纳入到犯罪主体之中,也可以将智能机器人发展拟制成为犯罪主体纳入到刑法之中。将来在刑法中将人工智能机器人发展拟制成为犯罪主体,如果不是必然至少也是有可能的,这就有可能动摇传统刑法中以自然人和单位为基础的犯罪主体构造模式,形成以自然人、单位、智能机器人为基础的三元犯罪主体构造模式。另外,对于人工智能机器能否成为刑法中的被害人也存在一定的难题。传统刑法主要保护的是公民的生命、身体、健康、财产安全,将来能否像保护自然人一样来保护人工智能机器的权益,这就可能会对人类社会中传统的婚姻制度、家庭伦理以及社会的公共秩序和善良风俗产生重大的影响。3.3刑事责任理论将面临解构的风险。有罪必有责。“刑事责任,是指行为人因其犯罪行为所应承受的,代表国家的司法机关根据刑事法律对该行为所作的否定性评价和对行为人进行的谴责的责任。”[2]446犯罪主体实施了犯罪行为,就必须要承担刑事责任,而实施犯罪行为的犯罪主体又必须具备完全的刑事责任能力,只有具有完全刑事责任能力的犯罪主体实施的严重危害社会的行为才属于犯罪行为,也才会产生刑事责任的问题。“刑事责任能力,是指行为人构成犯罪和承担刑事责任所必需的,行为人具备的刑法意义上辨认和控制自己行为的能力。”[8]93人工智能机器人在具有独立意识和意志即拥有完全的辨认能力和控制能力后,就与传统刑法中的犯罪主体一样具备了完全的刑事责任能力。而对于实施犯罪行为应当承担刑事责任的自然人和单位而言,自然人可以以其自身的生命、自由、财产、资格等来承担刑事责任,单位可以以其自身的财产来承担刑事责任。但是,对于实施犯罪行为应当承担刑事责任的智能机器人而言,由于其不像自然人一样拥有有限的生命、自由、财产、资格,也不像单位一样拥有财产,那么其承担刑事责任的实现方式又是什么?这就有可能导致智能机器人具备刑事责任能力,但却没有担责能力。所以,对于智能机器人而言,如果对其承担的刑事责任无法实现,那么把它规定为犯罪主体将没有意义。而如果不将智能机器人规定为犯罪主体,那么其基于完全的刑事责任能力实施的犯罪行为,又该究竟向谁追究刑事责任,是否可以向智能机器人的制造者、销售者或使用者等相关人来追究。在刑事立法和理论中,刑事责任实行罪责自负,反对株连的原则,只能对实施犯罪行为的行为者来追究刑事责任,对于没有参与实施犯罪行为的,即使与罪犯有着千丝万缕的关系,也不能对其追究刑事责任。对于智能机器人实施的犯罪行为如果不能对其追究刑事责任而向智能机器人以外的相关人追究刑事责任,将会动摇传统刑事责任的理论基础,导致传统刑事责任理论体系面临解构的风险,而且即使向智能机器人以外的相关人追究了刑事责任,又是否能够制止智能机器人再次实施犯罪实现刑罚惩罚的效果,也难以确定。3.4导致现有的刑罚体系将面临重塑的风险将来如果有可能在刑法中把智能机器人规定为犯罪主体并依法对其追究刑事责任,那么在刑法中又该如何设置适用于智能机器人的刑罚种类,这就有可能导致现有刑罚体系面临重塑的风险。现有的刑罚种类是依据自然人的自然属性和本能设置出来的。在费尔巴哈看来,“人具有追求快乐、逃避痛苦的本能。为了防止犯罪,必须抑制行为人的感性冲动,即科处作为害恶的刑罚,并使人们预先知道因犯罪而受刑的痛苦大于因犯罪所能得到的快乐,才能抑制其心理上萌生犯罪的意见。由于确信实施犯罪的欲望会带来更大的害恶,就会抑制犯罪的意念而不去犯罪。”[14]传统刑罚的种类,都是依据自然人自然属性的特点来设置和实施的,而作为人工智能的机器人却并不具有自然人的自然属性和本能。对于自然人而言,死刑之所以能够成为一种最为严厉的刑罚,是因为死刑直接剥夺了自然人的生命后就无法再次恢复自然人的生命,具有不可再生性。而如果对人工智能机器人适用死刑,那么应该如何来对其执行死刑?对于实施犯罪的人工智能机器人执行死刑,是删除其设置的程序和数据还是销毁其机身本身?如果是删除其设置的程序和数据,但如果这些程序和数据被其自身或其他同伴复制到其他机身上又该如何处理?或者在对其删除设置的程序和数据以后,该程序和数据又被其他同伴恢复又应该如何处理?如果是直接销毁其机身,但在销毁其机身之前其自身的数据和程序被传输或者复制到其他机身又该如何处理?总之,人工智能机器人的数据和程序具有可复制性和可恢复性,不同于人类生命的不可再生性,对于可以再次重生的人工智能机器人而言,设置与人类相同或类似的死刑将毫无任何意义。《论语》:“子在川上曰,逝者如斯夫,不舍昼夜!”[15]屈原《离骚》:“日月忽其不淹兮,春与秋其代序。惟草木之零落兮,恐美人之迟暮。”[16]上述中国古典文献,从水流、日月、春秋的变化揭示了时间的流逝。自然人的生命永不停息,随着时间的流逝,自然人的生命会逐渐衰老、死亡,所以自然人在有限的生命时间内,会依据自己的意志从事自己所欲从事的行为,利用自己的自由来实现自己的生命价值和享受生命的乐趣。现代刑罚中的自由刑、资格刑和财产刑之所以适用于自然人,是因为这些刑罚可以为自然人带来一定的痛苦,当这些痛苦大于其实施犯罪为其带来的快乐时,自然人基于趋利避害的心理就可能不会再去实施犯罪。但是,对于人工智能机器人而言,其生命却是可以静止或停止的,人工智能机器人可以自动关闭自己相应的程序和功能使自己处于静止状态,待经过一段时间又可以重新启动来恢复自己的功能。所以,对于人工智能机器人而言,时间的流逝对其影响不大,其不会因为时间的流逝而逐渐衰老、死亡,所以其不同于人类生命对于时间的不可停止性。对其剥夺或限制自由将不会为其带来痛苦,难以实现刑罚的惩罚目的。同时,对于人工智能机器人而言,由于其脱离人类的社会关系而存在,不管是自由刑、资格刑还是财产刑可能都不会对其活动造成影响而对其带来痛苦,那么这些刑罚对其而言可能就不会发生作用,无法阻止其再次实施犯罪。因此,若未来将人工智能机器人拟制成为刑法中的犯罪主体,现有刑法中的刑罚种类将对其失去作用,可能就会出现一套区别于自然人而适用于人工智能机器人的一套新的刑罚种类,导致现有的刑罚体系将面临重塑的风险。
4对人工智能带来刑事风险的刑法应对
4.1应在刑法中确立人类利益优先原则。“未来关于机器人的立法必须考虑如何避免和治理机器人对人类的伤害问题。对此,艾萨克•阿西莫夫提出的机器人三大定律可以为立法提供重要的指引。阿西莫夫的第一定律是不能伤害人类;第二定律是恪守人的命令,除非与第一定律相冲突;第三定律是保护自己,除非与第一、第二定律相冲突。”[10]90对于弱人工智能时代,即人工智能机器还不具有自我意识和意志,其自身行动需要依据人类为其设置的程序和数据,其自身的意志本身还是人类意志的体现,其本身还是人类工具的延伸,人工智能机器也许不会主动实施危害人类的行为,会严格恪守人类的命令,不会与人类的利益发生冲突。但是,“正如雷•库兹韦尔在《人工智能的未来:揭示人类思维的奥秘》中所谈论的:当机器说出它们的感受和感知经验,而我们相信它们所说的是真的时,它们就真正成了有意识的人。而大多数道德和法律制度也是建立在保护意识体的生存和防止意识体受到不必要的伤害的基础上的。”[10]91因此,当人工智能机器具有了感情和感知意识,拥有了自身的意识和意志,不一定就会遵循人类为其设置的规则,并与人类的利益发生冲突。因此,为了更合理、有效地防止人工智能机器对人类造成损害,我们应对其可能侵害人类利益的情况早日作出预防,在技术和立法中确立人类利益优先的原则,并在该原则的前提下,再认真考虑人工智能机器的人格发展以及相关伦理和法律问题,以正确对待他们。4.2刑法应严格恪守技术中立原则。“人工智能既是人类文明,亦是社会风险。”[17]正如英国文学家狄更斯在《双城记》中写到,“这是最好的时代,也是最坏的时代”,今天我们同样可以用这句话来描绘人工智能时代的未来。一方面,人工智能可以协助人类解决各种各样的难题,包括危险场所和极端环境下的难题,为人类带来便捷,这是“最好的时代”;另一方面,人工智能也会给人类带来诸多的麻烦,给人类带来安全隐患,存在着负面影响,这又是“最坏的时代”。但是,“科学技术在人类的文明进步中总是扮演着最活跃、最革命的角色。面对智能革命,我们不能逃避它、否定它和阻止它。”[18]在技术发展程度还不确定的情况下,我们不应该因为人工智能发展可能带来一定的刑事风险,就阻止或者放弃对人工智能技术的发展和应用,刑法对人工智能技术的发展和应用应当严格恪守技术中立原则。“技术中立原则最初确立于1984年的环球电影起诉索尼案中,其基本含义是只要一项技术构成实质性非侵权使用,不管这种技术是否被用于合法或有争议的目的,技术服务提供者都不必要对用户实施的或可能实施的侵权行为承担责任。”[19]纵观科学技术发展的历程,其本身就是在对抗中发展前进的,科学技术既会为人类带来风险和痛苦,但同样也可以用于发现、预防、阻止风险和灾难的发生,为人类带来福利。科学技术本身是中立的,关键是掌握和使用的人如何来开发和使用。如果掌握者或使用者不正当地利用科学技术就会为人类带来风险和灾难;如果掌握者或使用者正当合理地利用科学技术就会为人类带来便捷和福利。科学技术既是无害也是无利的,而关键是对掌握者和使用者的开发和使用进行合法正当性的规制,将科学技术在合法正当的轨道上得到发展和应用。具体到人工智能技术而言,在弱人工智能时代,若开发者和使用者正当地开发和使用人工智能技术,不仅不应对其进行制止和阻挠,还应该对其进行支持和鼓励,只有这样才能促进人工智能技术的发展和进步。若开发者和使用者不正当地开发和使用人工智能技术,比如恐怖分子开发和使用以实施恐怖活动为目的的人工智能机器,就需要对开发者和使用者追究相应的法律责任,阻止不正当利用。在对未来是否可能会出现强或者超级人工智能及其会发展到何种程度还不确定的情况下,我们不能因为存在不可预知的风险,就放弃或阻止对其的发展和应用。因此,在人工智能技术的发展过程中,为预防不良后果的发生,人工智能技术的开发者和使用者需要尽到必要的合理注意义务,但也不能对其规定过高的注意义务,在刑法中应当严格恪守技术中立原则,只要在人工智能技术发展和应用过程中发生的一些风险没有超过社会的相当性、控制度和容忍度,并且该技术的发展和使用又会促进社会进步时,就不应该对其阻挠和制止。4.3宜以刑法为后盾、其他法律为先行,对人工智能技术进行法律规制在当前人工智能技术发展程度还不确定的情况下,对其进行完整的刑事立法还不太现实。但是,人工智能技术在司法实践中又确实带来了一些法律难题,现有的法律面临人工智能带来的新问题又难以满足现实的需要。对于人工智能技术的发展和应用,宜以刑法为后盾,其他法律为先行对人工智能技术带来的风险和新难题进行适当的法律规制。可以先通过行政法、民事法等其他法律以及相应的司法解释来对其进行规制,待时机成熟,再在刑法中设置相应的罪名并作出相应的规定,以发挥刑法保障法的后盾作用。在当今弱人工智能机器时代,人工智能机器实质上还是一种产品,可以依据产品质量法的相关规定对其进行规制,从而促使生产者进一步完善其产品,减少人工智能机器侵权事件的发生。例如,对于自动驾驶汽车而言,如果立即在刑法中确立其犯罪主体地位,在当前阶段尚不具有可能性。但是,是否可以考虑对其暂且适用产品质量法等法律的相关规定或者从其他法律角度做出相应的司法解释对其进行规制。并且,在弱人工智能时代其所引发的刑法问题主要是过失犯罪的问题,在今后的刑法中可以适当增加人工智能机器设计者和使用者的注意义务,以保障其能够正当合法合理地适用人工智能技术,减少危害后果的发生。同时,还可以在刑法中对传统的罪名作出相应的扩张性解释,完善刑法对法益保护的范围和结构,调整打击犯罪的手段,以解决人工智能技术引发的新难题和充分发挥刑法的机能。对未来可能出现具有独立辨认能力和控制能力的强或者超级人工智能,是否要对其在刑法中确立犯罪主体的地位以及能否成为刑法所保护的被害主体和设置新的刑罚体系,要等行政法律以及民事法律等其他法律确立其法律地位以后,再在刑法中作出相应的规定,而不宜先行在刑法中对其确立相应的法律主体地位。因此,可以在不影响人工智能技术发展的前提下,完善一些非刑事法律或者出台一些相应的司法解释,以应对人工智能技术在发展和应用过程中所带来的一些难题。待人工智能这项技术发展成熟,与之相对应的法律制度、伦理道德、社会规则的研究也取得一定进展和突破时,再对其在刑法中作出相应的规定,以发挥刑法的后盾保障作用。
作者:张全印 单位:南通市中级人民法院刑事审判第二庭
- 上一篇:茶叶企业合法权益刑法保护
- 下一篇:安置教育司法适用问题研究