英特尔|苹果被迫下线的「AI 鉴黄师」,还是出事了

英特尔|苹果被迫下线的「AI 鉴黄师」,还是出事了

文章图片

英特尔|苹果被迫下线的「AI 鉴黄师」,还是出事了

文章图片

英特尔|苹果被迫下线的「AI 鉴黄师」,还是出事了

文章图片

英特尔|苹果被迫下线的「AI 鉴黄师」,还是出事了

文章图片


前段时间 , 百度网盘被曝进行「人工审核用户照片」的事儿 , 相信大家都听说了 。
这件事一经曝光 , 立刻引起了吃瓜群众的热议 。 网友纷纷质疑 , 自己存在百度网盘的各种照片和视频 , 还安全吗?最终 , 百度网盘针对此事发布严正申明 , 称「不存在所谓的照片人工审核 , 关于百度网盘照片真人审核的内容是谣言」 。

事情发酵到如此地步 , 可见如今人们对于隐私问题 , 是非常看重的 。 其实在去年 , 苹果也曾因为类似事件 , 被推上了风口浪尖 。 2021 年 8 月份 , 苹果公司宣布 , 将计划在 iCloud Photos 中扫描 CSAM(儿童性虐待照片)内容 。 苹果给出的理由 , 是扩大对儿童的保护 。 【英特尔|苹果被迫下线的「AI 鉴黄师」,还是出事了】
要说这其实是件好事 , 可以有效打击犯罪 , 但却遭到了广大 iPhone 用户的反对 。 因为和百度网盘类似 , 大家一致觉得 , 这是在变相地收集用户的隐私 。
要是用户同意了 , 那么接下来上传到 iCloud 里的照片 , 是不是有可能被全部扫描一遍?
这哪里是保护儿童 , 这是在监控用户啊!这事儿在当时引起了巨大反响 。

不过苹果表示 , 自己使用的是 AI 审核 , 采用的是本地哈希算法 , 并不会直接观看用户相册 。 所谓的哈希算法 , 就是系统将用户的照片转换成哈希值代码 , 将其和虐童数据库相比较 。 整个过程在本地进行 , 并不会上传到服务器 。 如果算法得出用户照片和数据库相近 , 那就表示有虐童嫌疑 , 将会转入人工审核 。 苹果表示 , 这套流程下来 , 被误封的几率几乎为 0 。
但用户并不买账 , 很多用户表示 , 今天你想检测照片 , 明天想干什么谁知道呢?因此最终 , 苹果不得已放弃了这项计划 。 虽然苹果放弃了 , 但是谷歌却没停下 , 而且最近还因为这事儿 , 也被推上了舆论漩涡 。 早在 2018 年 , 谷歌就推出了和苹果类似的AI 审核工具 , 同样用来审核儿童性虐待内容 。 应用了这么多年 , 也确实对儿童保护起到了很大作用 。
数据显示 , 截至去年 , 谷歌提交了超过 62 万份涉嫌虐待儿童的报告 , 禁用了超过 27 万名用户的账户 。 这为当局控制犯罪 , 提供了不小的帮助 。 但和用户所担心的一样 , 谷歌的 AI 审核工具也不让人省心 。 前段时间 , 《纽约时报》就报道了一出乌龙事件 。
旧金山的一位全职奶爸 , 用手机拍摄了自己的孩子腹股沟感染的照片 , 发给医生进行线上问诊 。 但是 , 谷歌却把这些照片标记成了儿童性虐待内容 , 将谷歌账号给封禁了 。 不仅如此 , 谷歌还生成了一份报告 , 将其提供给了警方 。
好端端地给孩子看个病 , 直接变身犯罪嫌疑人 , 不得不说太荒诞了 。 更离谱的是 , 最终他被谷歌全网封杀 , 他失去了对自己电子邮件、联系人、照片的所有访问权限 。 因为失去了电子邮件地址 , 他甚至没法买房 。 最后虽然他被警方认定为无罪 , 但是谷歌账号依旧找不回来 。
这件事给他的工作和生活 , 带来了非常大的影响 。 如今 , 人们习惯将资料自动备份至云端 , AI 审核也已经见怪不怪 。 但这确实是比较敏感的一点 , 数据隐私 , 已经成为整个社会所担忧的问题 。 虽说 AI 审核出发点可能是好的 , 但当出现审核错误时 , 对于个人来说就是一场灾难 。 你怎么看呢?

相关经验推荐