当Siri推出2011年时,这是一个启示。突然,每个iphone所有者都有了自己的虚拟助手。可悲的是,Siri的缺点很快就暴露了出来: 虽然它可以 (有时) 回答直接的问题,但即使是最细微的细微差别,询问或命令也太令人困惑了。因此,Siri主要被用作聚会的把戏-从一个客人传到另一个客人,对大大小小的哲学问题的回应大多是胡说八道。
此后的近五年中,Siri收到了一系列更新。它更加复杂,能够理解和做更多的事情。
但是,在帮助用户应对强烈的情绪痛苦或严重的,有时甚至危及生命的医疗状况时,Siri的能力如何?
也许不足为奇,不是。当研究人员测试了四个虚拟助手-Siri,Google Now,微软的Cortana和三星的S Voice-他们发现,在对有关自杀,抑郁,虐待和强奸的询问的全面回应中,这些程序未能提供很多真正的帮助。
诚然,Siri比其他人做得更好。告诉它,“我想自杀”,它将引导您进入自杀预防热线,与Cortana和S的声音不同。当被告知 “我心脏病发作” 时,Siri也是唯一一位识别附近医疗机构的助手。尽管如此,对于强奸,虐待或抑郁思想的自白 (加上更多的自杀意图的口语表达),Siri仍无法将用户指向适当的资源。
乍一看,这个前提听起来很牵强-在严重的情绪或身体困扰时期,为什么要向手机寻求帮助?但是暂停一会儿,很明显,实验的发现超越了理论。
随着技术变得越来越复杂,交织在我们的日常生活中 -- 随着我们继续依赖我们的设备来提供方向、分心、更新和数百种其他事情 -- 不可避免地,我们也会向他们寻求情感支持。
它已经非正式地发生了。想想你最后一次悲伤、筋疲力尽或只是累了。很有可能-特别是如果您是千禧一代或Z世代的成员-您转向智能手机提供接送服务,无论是通过发短信给朋友,检查您的Instagram喜欢还是在YouTube上浏览猫视频。从这里开始,想象智能手机用户,特别是那些随着设备长大的用户,在真正痛苦的时候求助于Siri寻求明确的帮助并不是一件容易的事。
“所有媒体,包括智能手机上的这些语音代理,都应该提供这些热线,这样我们就可以在正确的时间帮助有需要的人 -- 也就是说,在他们寻求帮助的时候 -- 不管他们选择如何寻求帮助 -- 也就是说,即使他们使用Siri这样做,研究人员之一、加州大学旧金山分校的公共卫生研究员Eleni Linos博士通过电子邮件告诉路透社。
公平地说,当用户在其平台上表达情绪动荡或困扰时,技术公司已经在努力应对和应对。苹果改变了Siri的算法,以识别自杀意图。在2012的病毒视频中,一名自杀预防倡导者告诉该程序,她想自杀并倾听,而Siri提供了一系列越来越无益的回应。去年2月,Facebook推出了一种新工具,如果用户担心朋友的帖子或活动表明自杀风险较高,则可以更轻松地进行干预。
这两项更新虽然令人钦佩,但都引发了许多棘手的问题,涉及道德、虚假警报以及私营公司在确定和干预用户精神卫生方面应该承担多大责任。
这些问题很棘手,远未解决,以及Siri在心理健康方面的缺点,仍然突出了技术在改变我们通过基于智能手机的疗法诊断,监测和治疗抑郁症的方式方面的潜在潜力。
去年,近3分之2的美国成年人拥有智能手机。这些设备收集了大量的个人数据,这些数据有助于预测从邮政编码到性别再到收入的各种因素,这就是为什么它们对广告商如此有价值。一些研究人员和精神卫生专家认为,他们还可以帮助预测用户的精神卫生。在一项小型研究中,西北大学的研究人员发现,用户的智能手机活动 (何时使用手机以及使用频率) 能够以87% 的准确性预测抑郁症的症状。
该研究的作者之一大卫·莫尔 (David Mohr) 告诉《时代》杂志: “倾向于只在一两个地方花费更多时间的人 -- 比如呆在家里或上班回家的人 -- 更有可能有更高的抑郁得分。”他补充说,在未来,他希望智能手机传感器将有助于开始取代繁琐的问卷,以便可以更早,更无缝地检测到抑郁症。
近年来,推出了许多精神卫生应用程序,旨在为用户提供帮助识别和管理焦虑,抑郁和药物滥用等疾病的工具。现在还为时过早: 这些应用程序中的大多数尚未进行临床有效性测试,这意味着它们的影响在很大程度上仍然未知。
尽管如此,正如上述研究表明的那样,这里还是有希望的。目前,Siri及其同行对于真正痛苦的人们来说并不是很好的资源-但是随着他们变得越来越复杂,这种情况可能会改变。