今天是 万年历
  
[旧版入口]
[加为收藏]
[设为首页]
新闻
   新 闻  |  图 片 乡 镇 部 门 关 注 外 媒
服务
   走进赤岭  |  分类信息 养生
   视 点  |  教 育 体 育 社 保 文 苑 民 生    本网公告  |  实用信息 知识
  推荐栏目:·新闻·品牌·关注·视点·体育·教育·文苑   联系电话:    QQ群:
您当前的位置:首页 > 金融频道 > 新闻 > 正文
三问人工智能:考问伦理规范 你会爱上机器人吗

 来源:选择信息来源 添加日期:2017-07-12 10:02:21 点击:

   近来,美国一家公司生产的超仿真机器人Sophia在电视节目上与人类对答如流,成为“网红”机器人。对话中,Sophia流露出的喜悦、惊奇、厌恶等表情真实得令人赞叹,网友惊呼:快和真人分不清了!

  技术往往是一把双刃剑。人工智能在迅速发展的同时,也带来了一些困惑和挑战。人工智能会产生自主意识和情感吗?会不会因此给人类社会带来冲击?

  法律争议

  假设无人车伤了人,那么是开发者负责还是驾驶公司负责

  关于人工智能带来的“伦理困境”,让很多专家感到纠结。尽管这样的场景在目前还只存在于设想中:一辆载满乘客的无人驾驶汽车正在行驶,遭遇一位孕妇横穿马路的突发状况,如果紧急刹车可能会翻车伤及乘客,但不紧急刹车可能会撞到孕妇。这种情况下,无人车会怎么做?

  如果司机是人,那个瞬间完全取决于人的清醒判断,甚至是本能或直觉。可当人工智能陷入人类“伦理困境”的极端情景时,其每一步都是通过算法设定好了的。

  “无人车依靠的是人工智能大脑,它目前不可能做超出人类算法中所设定范围的行为决策。”浙江大学计算机学院教授吴飞说,将全国每年的交通事故数据“喂”给计算机,人工智能可以学习海量数据里隐含的各种行为模式。简单来说,就是无人车会从以往案例数据库中选取一个与当前情景较相似案例,然后根据所选?“咐词凳┍敬尉霾?。

  但遇到完全陌生的情景,计算机会怎么办?“无人车第一个选择仍然是搜索,即在‘大脑’中迅速搜索和当前场景相似度大于一定阈

  值的过往场景,形成与之对应的决断。如果计算机搜索出来的场景相似度小于阈值,即找不到相似场景,则算法可约束无人车随机选择一种方式处理。”吴飞说。

  “程序员可通过代码来约定无人车如何做,但这种约定始终要遵循普遍的社会伦理。这个过程中,程序员要和伦理学家一同参与把关,程序员要将符合伦理的决策用代码的形式体现出来,输入到系统中。”吴飞认为。

  无人车伤害了人类,谁来负责呢?

  “当前人工智能尚未达到类人智能或超人智能水平,不能将人工智能作为行为主体对待。”浙江大学教授盛晓明说,从技术角度看,现在技术实现层次还很低,行为体出了问题肯定只能找它的设计者。从哲学角度看,赋予人工智能“主体”地位很荒诞。“主体”概念有一系列限定,譬如具有反思能力、主观判断能力以及情感和价值目标设定等。人工智能不是严格意义上的“智能”。

  “人工智能表现出来的智能以及对人类社会道德行为规范的掌握和遵循,是基于大数据学习结果的表现,和人类主观意识有本质的不同。人工智能不是生物,构不成行为主体,传统司法审判无法照搬到人工智能身上。因此,人工智能不可以作为社会责任的承担者。”中国社科院社会学研究所副研究员赵联飞持同样观点。

  “以无人车为例,究竟由人工智能开发者负责,还是无人驾驶公司负责甚至任何的第三方负责,或者这几者在何种情形下各自如何分担责任,应当在相关人工智能的法律法规框架下通过制订商业合同进行约定。”赵联飞说。

  情感迷思

  人与人工智能出现类夫妻、父女等情感,将考问现代伦理规范

  科幻影迷一定不会忘记这几个片段:电影《机械姬》的结尾,机器人艾娃产生了自主意识,用刀杀了自己的设计者;在电影《她》中,人类作家西奥多和化名为萨曼莎的人工智能操作系统产生了爱情。只可惜,西奥多发现萨曼莎同时与很多用户产生了爱情,二者所理解的爱情原来根本不是一回事。

  尽管科幻电影对人工智能的描述偏向负面,但它也在一定程度上表达了人类的焦虑和担忧。现实中,人工智能会拥有自主意识,和人类会产生情感吗?

  “这要取决于如何界定‘产生’一词。人工智能的自主性,仍然取决于所学习的样板和过程。正如阿尔法狗对每一步对弈的选择是从海量可能棋局中选择一种走法一样,这种自主在终极意义上是一种有限的自主,它实际上取决于所学习的那些内容。”在赵联飞看来,人工智能意识和情感的表达,是对人类意识和情感的“习得”,而不会超过这个范围。

  机器能不能超出对人类的学习,主动产生意识和情感?吴飞认为,以目前的研究来看,这是遥不可及的。但有一种假设的、可供探讨的路径是,通过把人的大脑认识通透,就可以造一个像人的大脑一样的机器出来。“遗憾的是,我们对人的大脑如何产生意识和情感这些根本问题还了解不够。”

  人工智能越来越像人,人类对机器有了感情怎么办?

  “人类是否会与人工智能产生感情,将取决于这种过程是否给人类带来愉悦。正如互联网发展早期的一句常用语所说——在互联网上,没人知道你是一条狗。这表明,当人类在不知道沟通者的身份时,只要对方能够给自己带来愉悦,感情就可能产生。”赵联飞认为,这可能会对人类的交往模式带来影响。比如说,未来,知识型的人工智能可以回答人们能够想到的很多问题,从而导致个体学习方式、生活方式乃至社会化模式的变革。

  假如人与人工智能出现类夫妻、父女等情感,将考问现代伦理规范。“如果社会主流意见认为这种关系符合伦理,人们可能倾向于以类似于夫妻、父女之间的伦理准则来调节二者之间的关系;但如果人们始终认为,人与人工智能之间的关系是人占主导地位的‘游戏关系’,那么相应的伦理标准也就无从谈起。”赵联飞说。

  未雨绸缪

  专家建议完善人工智能技术规范和法律约束

  面对人工智能带来的种种冲击,专家认为,上世纪50年代美国科幻小说家阿西莫夫提出的机器人三大定律,今天依然有借鉴意义。这三大定律是:机器人不得伤害人,也不得见人受到伤害而袖手旁观;机器人应服从人的一切命令,但不得违反第一定律;机器人应?;ぷ陨淼陌踩?,但不得违反第一、第二定律。

  “归根结底,人是智能行为的总开关。”吴飞认为,人类完全可以做到未雨绸缪,应对人工智能可能带来的威胁。

  “开发者应该始终把人工智能对社会负责的要求,放在技术进步的冲动之上。正如生物克隆技术,从提出克隆技术那一天开始,克隆的社会伦理问题就始终优先于克隆的技术问题。”赵联飞认为,人类应该在开发人工智能的过程中,逐步积累控制人工智能的经验和技术,尤其是防止人工智能失控的经验和技术。

  在技术上加强对人工智能的控制是完全可行的。“人工智能尽管日益高级,但究其根本,仍然是在智能程序对大量数据处理基础上得到的结果。进行编程时,开发者可以通过程序对其进行安全设置。比如,如果识别出来是人类,要自动保持距离;不能做出攻击性动作,从力学幅度上予以约束。”中科院自动化所研究员孙哲南说,还可以把人类的法律规范和道德要求用代码的形式写入机器,全部数字语言化,使其遵守人类的行为准则。

  “除了设计和建造要遵循技术规范,还可由政府有关部门牵头,成立由人工智能技术专家、社会科学研究人员、政府管理人员为核心的人工智能管理委员会,对涉及人工智能的研究和开发项目进行审核评估,严格控制从技术转化为产品的环节。”赵联飞认为,此外,应从多个方面加强对人工智能的研究,跟踪、了解人工智能的发展趋势和实践,开展以未来学为基本范式的研究。

编辑:王景



进入论坛讨论 关闭本窗口
版权和免责声明:

 ?、俜脖就⒚?“稿件来源:赤岭新闻网”的所有文字、图片和音视频稿件,版权均属赤岭新闻网所有,任何媒体、网站或个人未经本网协议授权不得转载、链接、转贴或以其他方式复制发表。已经本网协议授权的媒体、网站,在下载使用时必须注明“稿件来源:赤岭新闻网”,违者本网将追究其相关法律责任。
 ?、?凡本网注明“来源:XXX(非赤岭新闻网)”的作品,均转载自其它媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。 
 ?、?如因作品内容、版权和其它问题需要同本网联系的,请在30日内进行。联系电话:0635-7322087。

图片新闻

本网公告

赤岭文苑

休闲养生

知识长廊

关于捐助孤儿王一萧的倡议书
2017年赤岭公开?“握蚪止抑傲斓几刹?进入考察
关于编发《赤岭时讯》创刊4周年专刊号的通知
2017年赤岭公开?“握蚪止抑傲斓几刹?进入面试
树文明新风 做文明市民 创文明城市倡议书
2017年赤岭事业单位公开招聘初级岗位工作人员
2017网信办1号令:非新闻单位不得通过微博、公
关于聊城市住房公积金贷款扣款日期变更的通知
关于举办第六届中国(赤岭)瓜菜节暨中原现代

移风易俗倡新风(山东快书)
晒太阳
白韶钟诗句
无钱的日子
一月
过年的感觉
王铁虎对联写了三十年
风雨彩虹 铿锵玫瑰
为鞋子“美容”的人
给新兵兄弟
“喝”水果不如吃水果 喝果汁学问多
小儿遗尿,自制蜜膏
夏天养生不宜用中药吗?专家:祛湿补中需及时
果汁饮轻松做 时令水果健康美味
近视眼手术前后注意啥
这4种蔬菜的升糖速度很快!糖尿病患者要少吃
为啥你喝水都长胖?原来答案是这个
高枕并不能“无忧”
入夏警惕“空调肺”
好心态才是长寿的钥匙
年底大扫除必备妙招
白袜子穿脏了怎样洗白白?
巧将皮具等家居用品恢复如新
刀架发霉了?2招巧清理!
雪后汽车如何保养
冬季车内除雾小技巧
特别提款权是什么
教你冰箱储物的小窍门
客厅储物:增加实用小空间
新版百元人民币 七招教你辨真伪
Copyright © 2009-2015 赤岭县委宣传部主办  鲁ICP备09083931号 技术支持:
联系电话: 投稿信箱:  :