人工智能下刑事风险与刑法应对思考

时间:2022-03-05 11:42:03

导语:人工智能下刑事风险与刑法应对思考一文来源于网友上传,不代表本站观点,若需要原创文章可咨询客服老师,欢迎参考。

人工智能下刑事风险与刑法应对思考

【摘要】当前,人工智能技术的出现给人类生活带来了很多便利,从客观层面来看,有效推动了经济社会的快速发展与进步,但同时也带来了很多刑事风险。鉴于此,本文从回归自然人刑法主体角度进行深入探讨,首先分析人工智能时代下可能出现的刑事风险,最后提出人工智能时代下刑法的应对措施,以此确保社会与人工智能之间可以健康发展。

【关键词】人工智能;刑法风险;刑法应对

一、时代背景与问题描述

20世纪50年代人工智能的概念被正式提出,但是由于当时互联网技术发展得还不够成熟,大多数科研人员对人工智能机器进行大胆的设想,没有得到社会大众的广泛关注。如今,人工智能技术处于初级发展阶段中,技术本身的不成熟必然会带来很多复杂性的问题。由此在刑事风险中所展现出的人工智能犯罪给传统刑事风险带来了新挑战。从客观层面来看,对人工智能的刑事风险展开评估工作,有利于规范人工智能的整体发展,有效降低刑事风险的发生率。

二、人工智能时代下的刑事风险

简单来看,人工智能存在的刑事风险是指人工智能实施的犯罪行为。从当前人工智能所实施的犯罪行为类型来看有三大类:第一类以人工智能本身作出的犯罪行为明确指明对象;第二类是利用人工智能的优势作出犯罪行为,人工智能在某一方面中成为了犯罪工具;第三类为人工智能没有做到安全生产、规范管理的义务犯罪。总体来说,人工智能所实施的犯罪行为,如果是行为人利用人工智能实施违法行为则属于故意犯罪,而因科研人员没有做到安全生产、管理人工智能导致犯罪行为的发生,则属于过失犯罪。(一)弱人工智能时代可能面临的刑事风险当前,弱人工智能不具备良好的控制与辨认能力,且设计者在编制程序过程中经常会把使用者的自我意识与判断决策作为重点考虑因素,从而将人工智能当做一种“工具”。从工具的角度来看,人工智能产品已经运用到各个社会生活领域之中,如医疗卫生、家庭生活、会计金融等。行为人直接对人工智能本身作出破坏,从而导致犯罪行为的发生。在弱人工智能处于信息化发展阶段中,其所运用到的运算推理等能力都可以依靠计算机来实现,并使整个系统可以保存大量的数据与信息。犯罪分子在对人工智能机器实施犯罪时,必然会对社会造成严重的危害。例如犯罪分子会采利用人工智能机器程序来破坏证券交易市场的信息,进而操控证券市场,导致社会经济秩序出现混乱与崩溃。第二,行为人利用人工智能产品特点直接作出犯罪行为。这种犯罪最显著特征就是把人工智能当做“工具”。在人工智能技术快速发展中,犯罪工具所表现的犯罪行为也会随着进步,且犯罪手法也会变得更加高级。从国家发展利益、公共安全等方面来看,一些恐怖分子会充分利用人工智能产品在公共场所中制造一些类似于爆炸等恐怖活动,且在制造过程中恐怖分子只需通过远程操作人工智能就可以达到危害社会的犯罪目的。犯罪分子还可以利用人工智能产品获取他国的机密信息,扰乱他国的社会治安。在互联网快速发展背景下,大数据基本包含了很多人们的隐私信息,而犯罪分子想要窃取这些信息非常容易,只需要利用人工智能就可以实现,最终顺利实施犯罪行为。此外,人工智能可以在某些方面中成为一种高级的犯罪工具,帮助犯罪嫌疑人销毁有效证件,从而降低犯罪的难度,让整个国家、社会处于一种动荡不安的发展状态。(二)强人工智能时代可能面临的刑事风险随着科学技术的快速发展,人工智能也会存在一定的自我意识,且辨认能力和控制能力也会进一步增强。在强人工智能产品中,关于刑事风险和刑事责任的问题必须要深入探讨与研究。强人工智能产品的程序设置在某些方面中会对社会公民造成严重的危害。特别是把强人工智能作为一种工具必然会在没有强烈的自我意识下,很可能被犯罪分子利用做出严重的犯罪行为,这与弱人工智能相比所产生的刑事风险有着很大的相同之处。因此,强人工智能所具备的辨认能力和控制能力一旦超出程序设置,就需要依靠独立的自我意识来控制犯罪行为的发生,进而减小刑事风险的发生率。第一,强人工智能在受到良好的自我意识控制下依然会做出犯罪行为。当前刑法缺乏一个重组的解释空间,没有针对自我意识进行良好规制。强人工智能产品所作出的损害行为是否属于刑法层面的犯罪行为,需要进一步深入分析与探讨。此外,刑法对犯罪主体进行了明确规定,必须要做出危害社会的行为,且要承担相应的刑事责任。因此,从刑法相关规定来看,对人工智能的违法解释依然存在很多不足之处,强人工智能产品需要完全依靠自我意识做出违法损害行为,这在刑事法律中很难找到合理的解释与依据。第二,从我国刑法内部结构来看,刑法在某些方面中存在一定的冲击矛盾。而在人工智能的快速发展下我国刑法中相关内容面临着重大风险。首先,从犯罪主体层面来看,我国相关学者针对人工智能产品能否成为刑法的法律主体提出了两种观点:一是人工智能所拥有的辨认能力和控制能力都是由自然人赋予的,是在自然人存在的基础上做出的违法行为,不应该被视为犯罪主体;另一个观点是在未来人工智能产品发展中,很容易出现不受程序所控制的现象,凭借自我意识来做出一些犯罪行为,而这应该被视为独立犯罪主体。从社会发展逐渐变复杂化来看,未来人工智能产品很有可能表现的自我意识属于刑法中的犯罪主体。其次,从刑事责任体系来看,刑事责任能力是指行为人因构成犯罪需要承担的刑事责任,而行为人需要从刑法层面上判断、控制、辨认自己的行为。当人工智能产品被认为是刑事法律主体,并具备独立的编制程序的辨认能力与控制能力时,人工智能产品就具备一定的刑事责任能力。人工智能一旦实施违法行为就需要承担刑事责任,从而影响现行的刑事责任体系。

三、人工智能时代的刑法应对

随着人工智能时代的到来,必然会出现一定的刑事风险,并使犯罪的危害性发生“量变”,从而导致一些新的犯罪形式出现。目前,我国刑法对人工智能的研发者和使用者的行为提出了一些规制要求,且从故意犯罪和过失犯罪两个方面来深入探讨人工智能产品的研发者或使用者来承担相应的刑事责任。当前,在面对人工智能时代出现的刑事风险,需要对刑法做出一些修正与完善。第一,从源头控制刑法风险的发生,增设滥用人工智能罪。滥用人工智能行为已经完全触犯了人类社会安全问题,刑法需要对这些行为作出一些规制。严格规范人工智能产品的研发者和使用者的行为。第二,严格确立刑事责任,增设人工智能事故罪,在研发过程中需要将人类社会的法律、道德规范等融入刑法系统之中,而研发者和使用者需要在研发过程中履行保护数据的义务。第三,将智能机器人的行为纳入到法律行为的范围之中,并赋予人工智能刑事责任主体的地位。

四、结语

由人工智能技术所产生的刑事问题与风险,是当前必须要解决的一个首要问题,并应当采取有效措施积极应对。当前,大多数人们普遍认为人工智能是由人类控制的一种工具,不需要考虑机器人所实施的刑事犯罪问题。而笔者认为,在确立人工智能相关刑事立法过程中,需要将科学发展、人类利益作为重点考虑因素,尽快将为人类社会的人工智能产品纳入到刑法规范之中,并严格依照现实需要来弥补刑法内容的缺陷。为人工智能技术的发展提供一定的法律保护,推动人工智能为人类社会做出更大的贡献。

参考文献:

[1]龙慧,朱定局,田娟.深度学习在智能机器人中的应用研究综述[J].计算机科学,2018(11):43.

[2]王肃之.人工智能犯罪的理论与立法问题初探[J].大连理工大学学报(社会科学版),2018(4):56-57.

[3]李振林.人工智能刑事立法图景[J].华南师范大学学报(社会科学版),2018(6):128.

[4]刘宪权.人工智能时代的刑事风险与刑法应对[J].法商研究,2018(1).

[5]张明楷.刑法学(第五版)[M].北京:法律出版社,2016:270,276-277,289,289.

作者:王先春 单位:海南师范大学