欢迎来到安联智库seczk.com--做最好网安新媒体!!
快捷搜索:  热点  资讯  事件  漏洞  技术  攻防  

利用隐私数据探测用户情绪 苹果引发争议

 

编者按:苹果公司在利用Apple Watch和iPhone用户的隐私数据进行情绪检测,但这一技术目前而言不仅十分不可靠,还会对用户的隐私造成隐患,人们会愿意自己的情绪被电子产品所探知吗?本文翻译自Fast Company,原文作者Ruth Reader,标题Apple is studying mood detection using iPhone data. Critics say the tech is flawed。

最近,对于加州大学洛杉矶分校和苹果公司进行的一项调查发现,iPhone的制造商正在使用面部识别、语音和对一系列其他被动行为的跟踪来检测抑郁症。这份由《华尔街日报》的Rolfe Winkler撰写的报告引发了人们对该公司进军名为“情感人工智能”领域的担忧。一些科学家甚至表示,该领域是建立在错误的假设之上的,所以是一种“伪科学”。

苹果公司的抑郁症研究于2020年8月首次被公开。此前的研究信息表明,该公司仅使用某些健康数据,如心率、睡眠和用户与手机互动的方式来了解他们的心理健康。但《华尔街日报》的报道称,实际上他们把用户的生命体征、运动、语言、睡眠、打字习惯、甚至是打字频率都纳入了检测范围,以用来检测压力、抑郁和焦虑。他们同时从Apple Watch和iPhone的摄像头与麦克风收集数据,并与心理健康评判标准和皮质醇水平数据(从参与者的表皮毛囊中获取的)进行比较。

据《华尔街日报》报道,苹果公司还参与了其他的一些研究,旨在根据iPhone和Apple Watch的数据检测儿童认知能力的下降和自闭症,这些研究是苹果公司对个人健康研究的延伸,他们在追踪用户的运动、睡眠、听力、身体稳定性、月经、饮食和其他日常健康指标方面投入了大量资金,甚至集成了医疗数据,还可以向用户的医生发送健康报告。

对于抑郁症的研究则进一步利用健康数据来对用户的情绪状态做出假设。越来越多的应用程序都推出了这个功能,声称利用所谓的情感人工智能或情感计算可以被动地衡量你的情绪。出于商业目的,他们利用包括面部表情在内的各种数据来试图检测用户的情绪。根据Grand View Research的数据,2019年,情感计算的市场规模约为200亿美元。

唐恩都乐、联合利华、嘉年华邮轮公司和IBM等大公司已经开始在招聘过程中使用情感人工智能来了解应聘者的性格。这种技术还被实验性地甚至商业性地用于检测汽车司机们是否在打瞌睡,这一技术还被监狱用来检测服刑人员的心理压力,而在疫情期间,这一技术也被用来检测上网课的学生们到底有没有在认真学习。

但这项技术也受到了多方批评。不仅因为它收集了大量的敏感数据,还因为这项技术的最终效果难以尽人意。电子前沿基金会的立法活动家Hayley Tsukayama说:“总的来说,实验已经证明我们看到的那些能检测情感或心理健康的产品并不是很可靠。”

科学家们也公开批评了情感人工智能的问题,称这一技术是建立在一个本身就有缺陷的假设之上的。南加州大学安嫩伯格传播与新闻学院研究员、《人工智能图谱:人工智能的权力、政治和环境成本》一书的作者Kate Crawford将这一假设称为是一种“颅相学冲动,是从一个人的外表得出关于其内在状态和能力的错误假设,目的是为了获取那些用户没有主动公开的信息。”

2019年,一组研究人员在学术期刊《公共利益中的心理科学》上发表了一篇论文,阐述了情感人工智能面临的挑战。他们写道:“不管算法有多复杂,仅仅通过分析面部运动来‘读取’人们的内心状态,而不考虑所处环境等各个方面,说好听点这叫不成熟,说难听点就是根本无效。”在这篇论文中,研究人员呼吁人们对这一技术进行更深入的研究,探索人们在不同情况下是如何利用面部动作来展示或掩盖内心情绪的,以及人们是如何根据他人的面部表情来推断他人的情绪的。

随着越来越多像苹果这样的科技公司开始对这项技术进行投资,情感人工智能的可靠程度将会产生巨大的影响。去年8月,亚马逊推出了一款可穿戴健康设备,它的功能就是检测你的声音的情绪语调。而在《自然》上的一篇文章中, Crawford呼吁国家需要制定强有力的法律来确保情感人工智能应用背后的科学是严格且透明的。曾经,测谎仪这一并不可靠的技术被使用了几十年,在造成了巨大的损害之后才被证明是不可靠的,因此,在这份报告中,她认为情感人工智能技术还需要进行完善,而测谎仪就是前车之鉴。

Tsukayama说,各大公司有责任明确地说明这项技术的能力与缺陷。在检测抑郁症的案例中,公司需要做的不仅仅是向用户说明人工智能的评估仅具有参考价值,还需要考虑外行人会对这项功能进行怎样的解读。 “他们会觉得有了这项技术就可以不用去看医生了吗?”“他们会觉得这项技术已经成熟到可以让他们进行自我疗愈了吗?”这些误解都有可能对用户造成伤害。

技术律师、新罕布什尔大学法学院的助理教授Tiffany C. Li说,她认为苹果公司的研究对医学发展可能会有帮助,但“重要的是我们需要建立保护机制。”她对情感人工智能的担忧是,这项技术将会使用大量的个人数据,如果联邦隐私立法中不包含对人们生物特征数据的保护,那么消费者对他们的数据的使用、处理和存储方式会失去自主权。

苹果公司正与一项学术研究合作测试抑郁症检测,该研究对透明度和参与者的知情同意有着严格的规定。《华尔街日报》在其报告中指出,加州大学洛杉矶分校和苹果公司的研究可能永远不会被用于面向消费者的应用程序。这项研究从2020年开始,为期三年,在下一阶段,实验样本将扩大到3000人。不过,苹果公司对情感人工智能的研究是该领域正在加速发展的迹象,评论人士认为,随着技术的普及,必须出台更有力的监管制度。

Tsukayama说:“如果你想使用这项算法来帮你做关键的决定,你就得确保它是透明的,是可以被审计、可被证伪的。”“你要确保它有基本的责任制度。”


暂无

您可能还会对下面的文章感兴趣: