导读:本文包含了人工智能体论文开题报告文献综述、选题提纲参考文献及外文文献翻译,主要关键词:人工智能,法律,主体,刑法,刑事责任,意志,风险。
人工智能体论文文献综述
鲍博[1](2019)在《人工智能体犯罪刑事责任探析》一文中研究指出随着人工智能技术的高速发展,及时规定人工智能体犯罪有其现实必要意义。既然成立犯罪,就不可回避刑事责任的问题。人工智能体具备法律上的人格和刑事责任能力,认定其承担刑事责任具有刑法机能和法教义学上两大实益。在刑罚的方面,人工智能体承担刑事责任要在主刑和附加刑上进行重构。(本文来源于《哈尔滨职业技术学院学报》期刊2019年06期)
宋春艳,李伦[2](2019)在《人工智能体的自主性与责任承担》一文中研究指出认知是人类对信息加工的过程。延展认知理论认为,认知不一定局限于大脑和身体之内,可以延展到身体之外。当前,借助互联网和大数据技术,人工智能体对人类感觉、知觉、思维、语言等多种认知能力模拟水平飞速提高,智能化程度也大大提升。在智能体与人、环境等要素共同构成的人机系统中,人机交互呈现出新的特点,智能体表现出越来越强的"自主性",而人却主动地放弃选择的自由,这引发学界关于人机系统中智能体能否承担事故责任以及怎样承担等问题的新讨论。本文认为,人类的认知可以被人工智能体延展,但责任却不能延展,由此设计出人机系统的责任分配原则;最后分别从人工智能体的"输入-输出"能否控制,尝试在四种语境下给出了人机系统的责任承担方案。(本文来源于《自然辩证法通讯》期刊2019年11期)
张成东[3](2019)在《强人工智能体刑事主体地位之否定》一文中研究指出强人工智能体刑事主体地位的否定应从实然和应然两个层次展开。从实然层面来看,强人工智能体缺乏成为犯罪主体所应当具备的认识因素和辨认因素,无法产生规范意识且不具有意志自由,也无法实施犯罪行为,因而其不具备成为刑事主体的实然条件。承认人工智能体刑事主体地位将会给传统刑法理论带来解构的危险,相关强人工智能体刑法立法也缺乏必要性,刑事司法活动更是无法展开。因而,从应然层面来看,强人工智能体不应被拟制为刑事主体。此外,强人工智能体和单位主体不具有可类比性,借鉴单位犯罪的刑法立法实践也行不通。(本文来源于《时代法学》期刊2019年05期)
孟露[4](2019)在《人工智能体法律主体地位否定之证成》一文中研究指出人工智能体如今在法律上引起了诸多挑战,包括人工智能体是否可以拥有以知识产权为代表的诸多权利,以及人工智能体侵权后如何分配责任等。人工智能体在法律上能否被赋予法律主体地位是解决其权利归属和责任承担之前提基础。法律主体范围虽不断延展,但其前共性为意志能力、实体形式和责任能力。应当承认人工智能体虽具有智慧性,但受到意志能力的制约和责任能力的限制,其法律性质仍为物,其发展也应当符合以人为本的目的性。(本文来源于《河南牧业经济学院学报》期刊2019年04期)
马莉[5](2019)在《论人工智能体的法律主体地位》一文中研究指出人工智能技术的迅猛发展,带来了一系列法律问题。人工智能体到底是不是"法律上的人",这是当下法律现实向法理学界提出的一个亟需解决的课题。目前学界对此有否定说与肯定说,否定说中较有代表性的是意志理论与人类类比理论。人工智能享有权利,法律主体制度可有条件地对人工智能予以开放,以使法律尽可能满足人工智能技术发展的需要。(本文来源于《区域治理》期刊2019年31期)
孙杰[6](2019)在《论人工智能体的刑法定位》一文中研究指出方兴未艾的人工智能技术逐步"飞入寻常百姓家",但其本身社会便利与风险共生。随着人工智能体越来越像人,对传统人类法律的秩序也带来了些许挑战。这一挑战的主要表现是,应否赋予人工智能体以法律上的人格,使其可以承担独立的法律责任。从刑法学的视角,即能否将人工智能体视为承担刑事责任的主体。人工智能的低层次模仿性与适用领域的非通用性注定了其无法具有人类的"主体性",又因为其缺乏法人存在的社会根基从而不具备拟制法律人格的社会基础。从刑事责任的本质与功能出发,作为行动主体的人工智能体既不具备选择行动的意志自由,也不具备行为规范的理解能力,更无对刑罚的感受力,因此无法作为承担刑事责任的主体。人工智能体的法律定位只能是"物",刑法对于人工智能的规制策略应为重点打击滥用与恶意的设计、研发行为,而对于过失导致的侵害则应保持克制、谦抑的品格,在鼓励人工智能发展与社会风险规制之间求得平衡。(本文来源于《辽宁大学学报(哲学社会科学版)》期刊2019年04期)
朱清清,陈芳鑫[7](2019)在《人工智能体犯罪,谁来担责?》一文中研究指出人工智能简称AI,1936年图灵提出"图灵机"设想使之成为"人工智能"之父,而后在1956年的Dartmouth学术会议上约翰·麦卡锡最早提出"人工智能"的概念。2016年、2017年谷歌推出的人工智能阿尔法狗(AlphaGo)先后战胜围棋欧冠樊麾、世界冠军李世石、柯洁,至此引起全球性AI热潮。同时,AI面临的风险也威胁人类主体的地位,2017年沙特授予机器人索菲亚公民身份,这是首次从法律上肯定智能体享有"公民"的身份。AI逐步参与我们的日常生活,如自动驾驶、人(本文来源于《中国电信业》期刊2019年07期)
冯洁[8](2019)在《人工智能体法律主体地位的法理反思》一文中研究指出人工智能技术带来的巨大风险引发了对机器人能否具备法律主体地位的追问。从法理论的角度来看,法律上的"人"一方面应当拥有享有权利和履行义务的法律资格(规范条件),另一方面实际具备享有权利和履行义务的意志能力(事实条件)。从根本上说只有生物人同时满足这两项条件,法律归根结底也是为了人类的利益。作为法学辅助概念的法人是生物人的集合,能通过"归入"的技术与生物人的行为建立起联系,也能更好地满足人类的需求。相反,动物因不具备规范性认知能力而无法完全满足事实条件,也不符合规范条件。机器人更接近于动物而不是法人,赋予其法律主体地位既不可能也不可欲,它无法、也不应当承担独立责任。在法律上为机器人行为负责的总是人类自身。(本文来源于《东方法学》期刊2019年04期)
王征[9](2019)在《人工智能体的法律主体地位研究》一文中研究指出人工智能的法律问题是近年来的研究热点之一,学术界就智能机器人的法律人格、无人驾驶的民事责任、人工智能创作物的权属等问题进行了积极而有富有价值的研究。法律作为一种明确的、可预测性的规定,通过权利和义务的双向利导机制,引导和规范着法律主体的行为。法律主体作为法理学上的一个重要范畴,不仅指现实的人,更是对人的本质的一种法律抽象,其实质上是指在法律关系中享有权利、承担义务的人或组织,目前主要包括自然人、法人和其他组织叁类。然而,随着人工智能体(或智能机器人)的拟人化或者智能化程度不断地提高,它的外在表现形式和语言行为都越来越像人,一个不可避免的问题摆在人类面前,就是我们该如何对待人工智能体。具体来说,人工智能体给法律主体制度带来的挑战主要表现在它有无主体资格的问题,即人工智能体究竟是法律关系中的主体还是客体。毋庸置疑,初期的人工智能体仍属于工具范畴,但是随着自主智能机器人的出现,它具有了一定的“自主意识”和“表意能力”,“人性化”的特征日益显着,其已经远远超出工具属性的范畴,是否应当将其视为法律主体来对待?当然,智能机器人具有一定的“自主意识”和“表意能力”,是赋予其取得法律主体资格的必要条件,将直接影响甚至决定其能否成为法律主体。本文认为,自主智能机器人将首先可能成为着作权等特定权益的主体,随着强人工智能时代的到来,可能会在较多领域出现享有特定权益的具有法律主体资格的智能机器人,那时,传统法律主体制度将面临时代发展的严峻挑战,将带来颠覆性的变革。人工智能体是否具有法律主体资格,是解决人工智能体所引起的诸多复杂法律争议的关键性问题。从人工智能体的发展趋势来看,人工智能体具有“类人性”的特征,这就决定了人工智能体在本质上能否享有法律主体资格。从人工智能体的发展现状来看,它已经开始具有独立影响他人权利义务的能力,考虑认可人工智能体的法律主体资格已具有一定的现实意义。面对人工智能体的飞速发展,我们有必要以一种开放性的态度来对待人工智能体的法律主体地位。虽然智能机器人或者是更广意义上的人工智能体在现行法律制度上并不具备主体地位。但是理论界关于“主体”的概念却呈现扩张的趋势,赋予智能机器人主体地位在法律技术上并无障碍。国内外法学界对于智能机器人主体资格的讨论存在肯定其主体地位、有限肯定其主体地位以及否定其主体地位等不同的学说。持否定观点的学说中存在机器或工具说、控制说等不同路径,而持肯定观点的学说中亦有代理说和电子人格说等不同论证方法。但否定的学说无法应对机器人的迅猛发展及智能化趋势,而肯定的学说没有顾及人工智能尚处于弱人工智能的现实。在现阶段,我国对智能机器人法律主体资格的讨论应当以法律主体理论为基础,坚持现阶段人工智能体为客体的原则下,将未来具有无限发展可能情形下的人工智能体认定为有一定资格的法律主体,从而为应对、引领未来人工智能的发展,奠定法律制度基础。从世界范围来看,未来赋予强人工智能体一定的主体地位是大势所趋,目前各国都在机器人立法方面进行积极尝试。至于一些弱人工智能体,则可以作为法律上的“客体”来对待。当然,强人工智能体和弱人工智能体的划分标准还有待我们进一步探索。此外,智能机器人虽无法归为自然人、法人、其他组织这叁类之中,但我们可以为其创设新的主体类型。这就为我们解决机器人的主体问题提供了一个良好的思路。至于机器人权利能力起始、终结时间点的确定这一问题目前尚无定论,这一问题还有待探讨。最后,我们可以借鉴完全民事行为能力人、限制民事行为能力人制度,对机器人的智能水平进行分级,赋予它们不同的行为能力。当然,具体赋予智能机器人何种程度的主体地位,还要结合我国的现实情况来进行考量。(本文来源于《河北师范大学》期刊2019-05-28)
王燕玲,韩蓄[10](2019)在《人工智能体的刑事风险与应对措施》一文中研究指出人工智能是人类社会发展的全新领域。人工智能体在给人类社会及其生产生活带来蓬勃生机的同时也暗藏多种刑事风险。无论是低阶人工智能体被行为人利用实施故意犯罪、还是开发者和使用者违反注意义务而形成过失犯罪,抑或是高阶人工智能体在自主意志支配下实施犯罪,传统刑法均难以对相关责任主体予以规制。应当从设立非法利用人工智能罪与人工智能事故罪、明确高阶人工智能体的刑事责任主体地位以及对高阶人工智能体刑罚体系进行设计等多方面入手,系统应对人工智能时代的刑事风险。(本文来源于《学习与实践》期刊2019年03期)
人工智能体论文开题报告
(1)论文研究背景及目的
此处内容要求:
首先简单简介论文所研究问题的基本概念和背景,再而简单明了地指出论文所要研究解决的具体问题,并提出你的论文准备的观点或解决方法。
写法范例:
认知是人类对信息加工的过程。延展认知理论认为,认知不一定局限于大脑和身体之内,可以延展到身体之外。当前,借助互联网和大数据技术,人工智能体对人类感觉、知觉、思维、语言等多种认知能力模拟水平飞速提高,智能化程度也大大提升。在智能体与人、环境等要素共同构成的人机系统中,人机交互呈现出新的特点,智能体表现出越来越强的"自主性",而人却主动地放弃选择的自由,这引发学界关于人机系统中智能体能否承担事故责任以及怎样承担等问题的新讨论。本文认为,人类的认知可以被人工智能体延展,但责任却不能延展,由此设计出人机系统的责任分配原则;最后分别从人工智能体的"输入-输出"能否控制,尝试在四种语境下给出了人机系统的责任承担方案。
(2)本文研究方法
调查法:该方法是有目的、有系统的搜集有关研究对象的具体信息。
观察法:用自己的感官和辅助工具直接观察研究对象从而得到有关信息。
实验法:通过主支变革、控制研究对象来发现与确认事物间的因果关系。
文献研究法:通过调查文献来获得资料,从而全面的、正确的了解掌握研究方法。
实证研究法:依据现有的科学理论和实践的需要提出设计。
定性分析法:对研究对象进行“质”的方面的研究,这个方法需要计算的数据较少。
定量分析法:通过具体的数字,使人们对研究对象的认识进一步精确化。
跨学科研究法:运用多学科的理论、方法和成果从整体上对某一课题进行研究。
功能分析法:这是社会科学用来分析社会现象的一种方法,从某一功能出发研究多个方面的影响。
模拟法:通过创设一个与原型相似的模型来间接研究原型某种特性的一种形容方法。
人工智能体论文参考文献
[1].鲍博.人工智能体犯罪刑事责任探析[J].哈尔滨职业技术学院学报.2019
[2].宋春艳,李伦.人工智能体的自主性与责任承担[J].自然辩证法通讯.2019
[3].张成东.强人工智能体刑事主体地位之否定[J].时代法学.2019
[4].孟露.人工智能体法律主体地位否定之证成[J].河南牧业经济学院学报.2019
[5].马莉.论人工智能体的法律主体地位[J].区域治理.2019
[6].孙杰.论人工智能体的刑法定位[J].辽宁大学学报(哲学社会科学版).2019
[7].朱清清,陈芳鑫.人工智能体犯罪,谁来担责?[J].中国电信业.2019
[8].冯洁.人工智能体法律主体地位的法理反思[J].东方法学.2019
[9].王征.人工智能体的法律主体地位研究[D].河北师范大学.2019
[10].王燕玲,韩蓄.人工智能体的刑事风险与应对措施[J].学习与实践.2019