为机器进行伦理设计,为人工智能加重伦理范畴的讨论与考量,实在是事不宜迟了!
心理护理:膝关节骨性关节炎患者因其病情迁延时间长[2],影响正常生活及工作,而PRP治疗骨性关节炎又是一项新技术,容易造成焦虑、烦躁,担心治疗效果不好等心理负担,而患者期待理想治疗的愿望强烈,故在膝关节骨性关节炎的治疗中心理护理成为患者康复不可忽视的因素,只有使患者明确了解疾病的相关知识,做好心理护理,及时向患者解释分析病情,缓解其烦躁、焦虑及担心的情绪,在整个治疗过程中使患者才能放下心理包袱,才能对康复起到积极的作用。
最近密集看了很多人工智能方面的电影、电视剧,人类对于AI是既爱又忧的,特别是人工智能近两年的飞速发展,不仅是机器人奋站在新闻写作的第一线,AI主播也已成功上岗。专家预测未来2-3年,人工智能将成为通用技术,换言之,你拥有智能化的机器人指日可待。
在弱人工智能时代,人类对于机器的喜明显大于忧,机器可以快速运算;机器可以无人驾驶;机器可以提供AR/VR等媒介产品,让“临场”随时发生;机器可以实现自动配音、自动填充画面、自己创作交响乐与广告片……人工智能发展的速度有点儿快,快到人们欢喜还没充分释放,忧愁已上眉梢。
以虚拟现实为例,它利用计算机技术把人们想象中的图景转化成一种虚拟境界和虚拟存在,这种AR是物理性与心理性的结合,是一种主客体共构的复合体验。AR新闻带给人们逼真感官体验的实质是人为操控的幻境,换言之,虚拟现实是安全的致幻剂,它以营造幻觉来实现精神控制,这本身就暗含着极大的伦理风险。肯・希利斯在《数字感觉:虚拟现实空间中的空间、身份及具身化》中认为,虚拟现实承诺我们可以弃置肉身,以纯粹的数据形式“浪游”于赛博空间之中,但这其实并不容易办到。我们或许可以享受“从脆弱易朽的肉色世界和真实空间逃逸出来的自由”,但这不过是一种新的身体感觉形式罢了,并非真正地“脱离肉身”,何况这种感觉还带着被操控的极大风险。
雷・库兹韦尔在《奇点临近》中,预言了人与机器的联合,即嵌入我们大脑的知识和技巧将与我们创造的容量更大、速度更快、知识分享能力更强的智能相结合。在未来时代,我们的智能会逐渐非生物化,其智能程度将远远高于今天的智能。一个新的文明正在冉冉升起,它将使我们超越人类的生物极限,大大加强我们的创造力。
英国功利主义哲学家杰里米・边沁曾预言,人工智能的发展将对伦理学进行重塑:“当人类把语言能力和感受性的标准覆盖到一切物时,伟大的时代就要来临了。”
中共中央政治局常委、国务院总理温家宝推迟原定于4月22日至25日对文莱、印尼和缅甸的正式访问。4月15日,飞赴地震灾区,考察灾情,慰问各族干部群众,指导抗震救灾工作。15日20时40分,温家宝总理在国务院抗震救灾指挥部办公地点主持召开会议,听取玉树抗震救灾情况汇报,并作重要指示,明确指出抗震救灾要重点做好十项工作。
工程承包合同由承包方和发包方依法签订,是双方在施工过程中必须遵循的行为依据,也是项目竣工结算的重要基础。严格、详细、具体的合同条款是避免未来纠纷的重要保证,同时也是对双方权益的保护。合同内容应当载明项目合同的具体内容、项目约定、建设周期、工程造价、质量水平、变更依据和违约责任等。在漫长的施工过程中,必然会发生变更,而变更会影响到合同的原有内容。在计算变更时,以合同约定的前提为准。在竣工结算审计过程中,由于缺乏严格的合同规定,会导致建设方和施工方之间纷争不断,所以加强合同管理至关重要,它能够提高企业管理水平,保护自身利益,减少纠纷。
大家都知道著名的“图灵测试”(阿兰·麦席森·图灵在《计算机器与智能》一文中提出):即假定一个计算机的动作和一个人在思维时的动作方式不能区分,我们就称它具备了智能,比如说让一个人和机器聊上5分钟,且能让超过30%的测试者误认为他们刚才是与人聊天而不是与机器聊天,则人工智能通过测试。在“图灵测试”的基础上还有一个“图灵道德测试”:这个测试旨在检测机器人是否具有人类的道德水平。如果通过这个测试,那么机器人就可以被看作具有相应的道德责任和权利,也就相应地受一些法律框架的约束;相反,如果机器人没能通过“图灵道德测试”,那就说明它与人相比,仅仅还是个物,仅仅是人们从事各项活动的辅助工具。而瓦拉赫和艾伦坚信这些“物行为体”能够做出正确的、善的道德决策,成功通过道德的“图灵测试”(耶鲁大学生命伦理跨学科研究中心的瓦拉赫和印第安纳大学认知科学工程中心的艾伦在《机器道德》一书中把“图灵测试”引入伦理学领域)。
虚拟现实技术在教育领域中的应用主要体现在虚拟校园的构建,目前只提供校园导航功能已经远远无法满足校园信息化建设的要求,未来综合校园导航、校容校貌展示、校园信息化管理等功能的三维虚拟校园系统已是大势所趋[3]。该次设计所完成的漫游系统沉浸感较强、交互逻辑清晰,能很方便地为学生提供相应的服务。
随着强人工智能的来临,甚至是超人工智能时代似乎也已在路上了,人们开始思考人工智能的伦理问题了,为什么要对机器人进行伦理设计?其欲探究与追问的是“谁是、谁应是责任的主体?”
如果机器真能够做出正确的善恶之分、道德判断的话,我们即使依然悲哀于人的主体性的终结,亦即“人不为人”,但是好在幻想着有道德水准的机器不至于“滥杀无辜”,然而,未来果真能如人所愿?未来机器能满足人的这一基本的盼望吗?对此,我不乐观。
控制论之父维纳早在1950年出版的《人有人的用处》中就对这种“机器将和人类一起,参与到至关重要的创造、发送和接受信息的行动中去”有过描述,而且他还担心一些人会创造出人类无法控制的主体,它们是一群“按照人类无法接受的价值”行动的主体。对此,维纳甚至语重心长地劝诫:“为了防止这样的灾难,世界既需要为人造主体设置伦理规则,也需要技术有效地把那些规则逐渐地灌输到主体中去”[1],对此,我是服气的,对机器人进行伦理设计,对人工智能加重伦理范畴的讨论与考量,实在是事不宜迟了!毕竟,曾经“人有人的用处”,未来,人也应该有人的位置!!!
注释:
[1] Winer N. The Human Use of Human Beings: Cybernetics and Society [M]. Boston: Hougton Mifflin, 1950(12): 211-212.
栾轶玫,传播学博士,经济学博士后,新媒体专家,知名博主,中国人民大学新闻学院教授,高级编辑。
标签:人工智能论文; 机器论文; 伦理论文; 测试论文; 道德论文; 《视听界》2019年第1期论文; 中国人民大学新闻学院论文;