文章图片
使用一套开发人工智能的原则真的有用吗?
来源:Conyl Jay/Getty Images
我们如何创造“好的”人工智能 , 机器合乎道德意味着什么 , 我们如何在道德的基础之上使用人工智能?Good in the Machine——2019年SCINEMA国际科学电影节的参赛作品——深入研究了这些问题 , 我们道德的起源 , 以及人工智能和我们自己的道德指引之间的相互作用 。
鉴于过去几年有言论对人工智能的未来发出可怕的警告 , 人工智能伦理学领域已成为研究的重中之重 。
这些警告来自牛津大学的尼克·博斯特罗姆等各种专家 , 也有来自埃隆·马斯克和已故斯蒂芬·霍金等更多公众人物的警告 。
作为回应 , 有些人制定了一套原则来指导人工智能研究人员 , 并帮助他们谈判人类道德和伦理的难题 。
AI伦理领域通常分为两个领域:一个涉及指导开发人工智能的人类的伦理学 , 另一个涉及指导人工智能或机器人自身道德行为的机器伦理学 。 然而 , 这两个领域并不是那么容易分得开 。
机器伦理学历史悠久 。 1950年 , 伟大的科幻作家Isaac Asimov在他的作品《机器人》中明确阐述了他著名的“机器人三定律” , 并提出了这样的建议:
- 机器人不得伤害人 , 或通过不作为允许人受到伤害 。
- 机器人必须服从人类赋予它的命令 , 除非此类命令与第一定律相冲突 。
- 【伦理|人工智能(AI)和道德伦理的标准在哪里?】只要这种保护不与第一或第二定律冲突 , 机器人必须保护自己的存在 。
2004年 , 改编自《I Robot》的电影上映 , 以人工智能为特色 , 该人工智能对三条法律的解释导致了一项统治人类的计划 。
近几年大火的西部世界也是如此 。 (注:本人最喜欢的美剧之一) 。
为了突出这三条法律的道德原则的缺陷 , 一个由美国人工智能研究员Eliezer Yudkowsky领导的名为人工智能奇点研究所(现为机器智能研究所)的组织启动了一个名为“三法不安全”的在线项目 。
来源:Alex Gotfryd/CORBIS/Corbis、Getty Images
艾萨克·阿西莫夫在1950年阐述了他的“机器人三定律” 。
Yudkowsky是超级智能人工智能的早期理论家 , 也是友好人工智能思想的支持者 , 他认为 , 如果人工智能发展到阿西莫夫小说中描绘的阶段 , 这些原则将毫无希望地简单化了 。
尽管这三项法律的缺点得到了广泛承认 , 但从私营企业到政府 , 许多组织仍然坚持实施开发基于原则的人工智能道德系统的项目 , 其中一份文件列出了迄今为止发布的“84份包含人工智能道德原则或准则的文件” 。
这种对伦理原则的持续关注的部分原因是 , 虽然这三条法律旨在仅管理人工智能行为 , 但人工智能伦理原则上适用于人工智能研究人员以及他们开发的智能 。 AI的道德行为部分反映了设计和实施它们的人的道德行为 , 正因为如此 , AI道德的两个领域密不可分 。
如果我们要避免人工智能批评者设想的一些更灾难性的情况 , 人工智能开发需要强有力的道德指导 。
国际非营利组织Atomium-欧洲科学、媒体和民主研究所发起的AI4People于2018年发表的一份评论报告称 , 其中许多项目制定了与医学伦理学非常相似的一套原则:慈善(只做好事)、非恶意(不伤害)、自治(人类做出个人决定的权力)和正义 。
相关经验推荐
- 苹果|最新成果丨胡青松教授:再论智能煤矿建设路线——基于人工智能 3.0 视角
- 马克·扎克伯格|【技术】高芯片价值和3D封装正在改变测试的地点和方式
- 易到用车|并非作弊,分析一下申真谞如何利用人工智能取得逆天战绩
- 电池|远程“费电”?苹果配件加快手机耗电,网友希望改用电池和快充!
- 安兔兔|OPPO、一加和realme真我,三个手机品牌,系统都是一样的吗?
- 荣耀magic3|荣耀Magic4Pro和荣耀Magic3至臻版相比较,如何选择?
- 黑科技|Redmik50配备一身黑科技,屏幕,快充和性能,三月最值得买的新机
- 外星人|轻薄和性能于一身,迄今最轻外星人X14真香
- 宜君|轮椅上的人工智能训练师:出行不便的他帮助上亿人智慧出行
- 红米手机|孙子兵法,谋公篇,戴尔和麦当劳的成功之道是什么?