|目前,人工智能是一种建议和改变的“工具”,而不是一种独立的决策方法

【|目前,人工智能是一种建议和改变的“工具”,而不是一种独立的决策方法】|目前,人工智能是一种建议和改变的“工具”,而不是一种独立的决策方法

文章图片

|目前,人工智能是一种建议和改变的“工具”,而不是一种独立的决策方法

文章图片

|目前,人工智能是一种建议和改变的“工具”,而不是一种独立的决策方法

文章图片


如果您当前的管理方法带有偏见、惩罚性或不必要的官僚主义 , 那么您不妨将您不喜欢的一切制度化 。 我们需要透明且“可调整”的AI , 以便我们可以检查算法并确保它们按预期执行 。 我们早期的算法需要“保险杠”和“调节旋钮”来学习如何使它们更准确 , 就像早期的汽车并不总是直行一样 。 偏见可以跨流程制度化 , 假设您的组织从未雇用过女性工程师 。



根据人工智能招聘系统 , 女性程师不太可能在管理方面取得成功 。 这种形式的偏见必须小心地从算法中消除 , 而正确地做到这一点需要时间 。 存在数据泄漏和无意误用的可能性 。 考虑一个流行的分析应用:预测表现最佳的人离开企业的概率 。 我们可以通过告诉经理“这个人很可能离开”来无意中造成错误的行为 。 例如 , 经理可能会忽略或以不同的方式处理此人 。



我们必须仔细学习如何应用行为经济学 。 今天 , 人工智能是一种建议和改变的“工具” , 而不是一种独立的决策方法 。 人工智能专家讨论了设计“解释性”和“透明”人工智能系统的价值 。 换句话说 , 如果机器做出决定 , 它应该澄清它为什么做出决定 , 以便我们作为人能够确定它使用的参数是否仍然相关 。 这是对新工具最关键的要求之一 , 而当今大多数AI系统都是完全不透明的 。



考虑一下如果自动驾驶汽车发生碰撞会发生什么 。 我们投入大量时间来评估事故是如何发生的、哪些视觉或算法过程失败以及哪些情况可能导致事故发生 。 如果人工智能在申请人推荐、工资变动或管理层干预中犯了错误怎么办?我们要找出来吗?我们能解决吗?我们真的会在为时已晚之前意识到这一点吗?在检测和学习如何“训练”我们基于管理的人工智能系统以有效工作方面 , 我们还有很多工作要做 。



围绕AI的讨论目前处于历史最高水平 。 任何HR技术供应商都声称拥有机器学习团队和一流的AI解决方案 。 是的 , 这些技能对行业至关重要 , 但不要被炒作所迷惑 。 人力资源工具算法的准确性和完整性、程序的易用性 , 以及最重要的是 , 它提供“狭义人工智能”的能力 , 或者更确切地说是解决问题的精确解决方案 , 都将在其成功中发挥作用 。 只有当提供者拥有大量数据并且有大量关于其执行情况的反馈时 , 才能实现这一点 。



因此 , 我相信进入的障碍将是专注、业务战略和客户亲密关系 , 而不是获得优秀的工程师 。 此外 , 除非您能证明其在您的业务中的价值 , 否则不要购买黑匣子设备 。 由于管理和人事决策总是受到公司文化的影响 , 因此我们需要花一些时间在现实世界中评估和微调这些系统 。 例如 , IBM多年来一直在微调其基于人工智能的薪酬和工作策略 , 以适应公司的文化和商业模式 。



他们现在将这些工具提供给企业客户 , 每个人都向IBM教授有关算法的不同知识 , 让他们能够针对该市场、社区或组织的需求对其进行改进 。 尽管存在这些困难和危险 , 但潜在的回报是巨大的 。 工资占公司收入的40-60% , 而这些巨额成本的大部分是由基于直觉的管理决策驱动的 。 我相信随着人力资源中的人工智能系统变得更智能、更成熟、更专注于特定问题 , 我们将看到效率、绩效和员工健康方面的巨大变化 。 我们现在需要做的是耐心、警觉并准备好付出努力 。

相关经验推荐