首页 > 要闻 > > 正文
2019-11-07 15:50:47

亚马逊在印度和罗马尼亚的工人可能正在观看Cloud Cam家庭录像

导读 在宣传视频中,亚马逊。com Inc 表示,其Cloud Cam家用安全摄像头为您提供了监控家里的一切东西,无论白天或黑夜。事实上,这种人工智能

在宣传视频中,亚马逊。com Inc.表示,其Cloud Cam家用安全摄像头“为您提供了监控家里的一切东西,无论白天或黑夜”。事实上,这种人工智能设备需要一群隐形员工的帮助。

据参与该计划或直接了解该计划的五位人士称,数十名来自印度和罗马尼亚的亚马逊员工正在审查Cloud Cam捕获的精选剪辑。然后,这些视频片段用于训练AI算法,以更好地区分真实威胁(家庭入侵者)和错误警报(猫跳到沙发上)。

一个亚马逊团队还录制和诠释由公司Alexa的数字助理记录在客户家中的命令,据彭博社报道:四月。

AI使与您的电话通话成为可能。它可以帮助投资者预测市场情绪的变化。但是技术远非万无一失。当微风吹拂纸张时,Cloud Cam会发出警报。苹果公司的Siri和亚马逊的Alexa仍然偶尔会发出命令。有一天,工程师可能会克服这些不足,但目前AI需要人工协助。很多。

要求匿名讨论内部计划的人士说,在某一天的某一天,某些亚马逊审计员每人都在注释约150个视频记录,这些记录通常长20到30秒。

亚马逊发言人说,发送给审查的剪辑来自员工测试人员,以及提交剪辑以解决通知不正确和视频质量等问题的Cloud Cam所有者。她说:“我们非常重视隐私,并让Cloud Cam客户控制他们的视频剪辑,并补充说,除非提交剪辑是为了进行故障排除,否则,只有客户才能查看他们的剪辑。”

在Cloud Cam用户条款和条件中,Amazon均未明确告知客户人类正在训练其运动检测软件背后的算法。

两名知情人士说,尽管亚马逊坚持要求所有剪辑都是自愿提供的,但车队已经捡拾了房主不太希望共享的活动,包括罕见的发生性关系的人。

知情人士说,包含不适当内容的剪辑会被标记为此类,然后丢弃,以免被误用于训练AI。亚马逊的发言人说,这些剪辑被废弃以改善公司人工审查人员的体验,但她没有说为什么自愿提交的视频剪辑中会出现不合适的活动。

工人们说,亚马逊已对Cloud Cam注释操作施加了严格的安全性。两名知情人士说,在印度,数十名审阅者在受限的地板上工作,不允许员工使用手机。另一位知情人士说,但这并没有阻止其他员工将镜头传递给非团队成员。

Cloud Cam于2017年首次亮相,与Alexa驱动的Echo扬声器产品线一起,是亚马逊希望在新兴的智能家居市场上占据一席之地的几个小工具之一。

这款售价120美元的设备可以检测并提醒人们在家中正在进行的活动,并为他们提供24小时的免费录像。愿意每月支付约7到20美元的费用的用户可以将访问时间延长一个月,并收到量身定制的警报,例如哭泣的婴儿或烟雾报警器。亚马逊没有透露其销售的云摄像头数量,但该设备只是市场上许多家庭安全摄像头之一,从谷歌的Nest到亚马逊拥有的Ring。

尽管AI算法在自我教学方面越来越好,但与许多公司一样,亚马逊在其业务范围内部署了培训人员。他们可以帮助Alexa理解语音命令,教该公司的自动化Amazon Go便利店将一个购物者与另一个购物者区分开,甚至还致力于开发旨在检测人类情绪的实验性语音软件。

在隐私倡导者中,使用人类来训练消费产品内部的人工智能是有争议的,因为人们担心使用人工智能会暴露个人信息。亚马逊团队听取Alexa语音命令以及随后在Google和Apple上有关类似审查程序的披露的消息引起了欧美监管机构和立法者的关注。骚动甚至刺激了一些Echo所有者拔下他们的设备。

在强烈的反对之下,苹果和谷歌都暂停了他们自己的人工审查程序。就其本身而言,亚马逊开始允许Alexa用户从手动审阅中排除他们的语音记录,并更改了其隐私权政策,以说明人们可以听他们的录音。

信息和拦截技术网站去年的报告检查了人类在培训Ring内置的安全摄像机背后的软件中的作用。这些站点报告说,员工使用客户通过Ring应用程序共享的剪辑来训练计算机视觉算法,并且在某些情况下,彼此共享未加密的客户视频。

亚马逊并未向客户透露有关Cloud Cam的故障排除流程的太多信息。在其条款和条件下,公司保留处理设备捕获的图像,音频和视频以改善其产品和服务的权利。

在其网站上有关Cloud Cam的问答中,Amazon说“只有您或与您共享帐户信息的人才能查看剪辑,除非您选择直接向我们提交剪辑以进行故障排除。客户还可以选择通过电子邮件或社交媒体共享剪辑。”

三位知情人士说,印度和罗马尼亚的Cloud Cam团队不知道该公司如何选择要标注的剪辑,但他们表示,录像中没有明显的技术故障,需要提交以进行故障排除。

在本周的一次行业活动中,负责亚马逊的Alexa和硬件团队的大卫·林普(David Limp)承认,该公司本来可以用更多人来审核人工智能。他说:“如果我能回到过去,那我会做得更好。”“在我们为什么以及何时使用人工注释时,我会更加透明。”