伦理|人工智能(AI)和道德伦理的标准在哪里?( 二 )


对一些人来说 , 这种趋同为这些作为未来发展人工智能的可能指导原则提供了极大的可信度 。
然而 , 牛津互联网研究所和英国政府艾伦·图灵研究所的布伦特·米特尔施塔特(Alan Turing Institute)认为 , 这种方法被称为“原则主义” , 并不像看起来那么有希望 。
医学和人工智能研究领域之间存在显著差异 , 这可能会破坏前者在后者背景下的道德原则的有效性 。
他的第一个论点涉及共同的目标和信托义务 , 即医生等值得信赖的专业人士将他人利益置于自身利益之上的职责 。 医学显然与促进患者健康和福祉的共同目标联系在一起 , 这是“一个职业质量的定义 , 使其从业者成为具有共同目标、价值观和培训的‘道德社区’的一部分” 。
然而 , 对于人工智能研究领域来说 , 情况并非如此 。 “人工智能主要由私营部门开发 , 用于公共(例如刑事判决)和私人(例如保险)等” 。 “开发人员、用户和受影响方的基本目标不一定一致 。 ”
同样 , 私人人工智能研究中不存在职业的信托义务及其治理机制 。
“人工智能开发人员不致力于公共服务 , 在其他职业中 , 公共服务要求从业者在竞争的业务或管理利益面前维护公共利益” 。 在人工智能研究中 , “公共利益不优先于商业利益” 。
在一个相关点上 , 虽然医学的专业文化规定了可以追溯到古希腊医生的必要道德义务和美德 , 但“人工智能的发展没有可比的历史、同质的职业文化和身份 , 也没有类似的职业道德框架” 。
医学已经很久没有时间从希波克拉底传统提供的最低限度指导的缺点中吸取教训 。 作为回应 , 它将适当行为编纂为现代原则主义 , 为更全面、更令人满意的道德指导提供了指导 。
人工智能研究显然是一个年轻得多的领域 , 缺乏这些丰富的历史学习机会 。 使问题进一步复杂的是 , 医学的应用背景相对较窄 , 而“人工智能原则上可以在涉及人类专业知识的任何背景下部署” , 导致其具有根本性的多学科和跨学科性 , 研究人员来自“不同的学科和专业背景 , 具有不协调的历史、文化、激励结构和道德义务” 。
这使得制定除了“广泛接受的原则来指导负责人工智能开发、部署和治理的人和流程跨越截然不同的使用环境”外 , 非常困难 。 问题在于将这些转化为实际的良好做法 。 “在这个抽象的层面上 , “有意义的指导可能是不可能的 。 ”
最后 , 人工智能研究中“相对缺乏法律和专业问责机制” 。 在医学有多层次的法律和专业保护来维护专业标准的地方 , 人工智能开发中基本上不存在此类东西 。 研究表明 , 道德守则本身不会导致道德行为 , 这些守则不会“嵌入组织文化并得到积极的执行” 。
“不能认为对自我监管框架的严肃和长期承诺是理所当然的” 。
人工智能研究需要在组织层面建立“具有约束力和高度可见的问责结构” , 并鼓励该领域的实际道德实践为更高级别的原则提供信息 , 而不仅仅是依赖自上而下的原则主义 。 同样 , 关注组织道德而不是职业道德 , 同时呼吁人工智能开发专业化(部分领域通过向高风险的人工智能开发人员发放许可证) 。
对人工智能伦理学未来的最终建议是敦促人工智能研究人员不要将伦理问题视为需要“解决”的设计问题 。 “假设非常古老和复杂的规范问题仅靠技术修复或良好的设计就可以解决 , 那就是太天真了” 。
相反 , “应该期待和欢迎棘手的原则分歧 , 因为它们既反映了严肃的道德考虑 , 也反映了思想的多样性 。 它们不代表失败 , 也不需要“解决” 。 道德是一个过程 , 而不是目的地 。 人工智能伦理的真正工作现在才刚刚开始 , 实施我们的最崇高的原则 , 未来任重道远 。

相关经验推荐