预防自杀成监视?Facebook这回恐“好事儿被做坏”
2019年2月6日,《英国医学杂志》(BMJ)发表了1990年至2016年地区、国家和全球自杀死亡负担的研究数据。数据显示,1990年至2016年的27年间,全球自杀死亡率上升了6.7%,单2016年,全球就有81.7万人自杀身亡。
线下预防自杀很难,因为往往想自杀的人会在人前隐藏,但是他们在网络上,例如社交软件或搜索引擎上发布或搜索的内容却容易暴露自杀的倾向,这也成为很多线上救援团队施救的主要依据。
全球最大社交网站Facebook就是这些拯救者中的一员。但近日据CNN报道,一些公共专家呼吁Facebook在筛选用户自杀风险的帖子时应更加透明,而且要遵循一定的道德准则,包括用户的知情同意等。为什么会出现这样的呼吁呢?这还得从Facebook的AI预防自杀项目说起。
图片来源:图虫创意
用AI技术主动监测用户
据Facebook官网消息,自2006年以来,Facebook一直致力于与自杀预防和安全专家一起开展预防自杀工作。
2011年,Facebook又与美国国家预防自杀生命线(National Suicide Prevention Lifeline)合作展开了相关工作。例如用户可以在看到朋友发布的自杀相关内容后,向Facebook汇报。发布内容的用户会收到Facebook的邮件,鼓励他们向国家预防自杀生命线拨电话求助或与相关工作者倾诉。
2017年,Facebook正式使用AI主动监测技术,扫描用户在Facebook上的文字和图片信息,用以判断用户是否具有自杀倾向。虽然Facebook没有透露什么样的信息会被判定为“自杀倾向”,但如果用户页面中出现“你还好吗?”“我能帮助你吗?”之类的语句,这些用户会成为Facebook工作人员的“重点照顾对象”。
一旦锁定了有自杀倾向的用户,Facebook系统会向负责审核内容的工作人员发送报告,而且会提醒工作人员进行优先处理。工作人员则会根据审核情况采取不同措施:直接联系用户或用户的亲朋好友,尽快通知当地急救人员等,以救助这些用户。
美国国家预防自杀生命线曾表示很自豪能与Facebook合作,社交媒体公司的这种创新可以使有自杀倾向的人更容易获救。该机构主任John Draper在2017年的一份新闻稿中表示,“更重要的是,无论社群成员是在线还是离线,在用户有自杀倾向时都不会觉得他们是‘无助的’旁观者。Facebook的方法独一无二,他们的自杀预防工具可以让社群成员在必要时关心有自杀倾向者,或向他们提供支持抑或向Facebook报告。”
按理说,这种用AI技术探测有自杀倾向的用户并提供帮助,本是件非常有意义的事情,但是Facebook的做法也触动了用户的隐私“神经”。
图片来源:图虫创意
缺乏透明度和道德规范
2月11日,以色列狄肯尼斯医学中心(Beth Israel Deaconess Medical Center)精神科主任John Torous和宾夕法尼亚大学佩尔蒙医学院(Perelman School of Medicine)生物统计学助理教授Ian Barnett在杂志《内科学年鉴》(Annals of Internal Medicine)上共同发表了一篇文章称,Facebook在筛选用户帖子,识别那些有自杀风险/倾向的人以及提醒急救时,缺乏透明度和道德规范。
作为营利性公司,Facebook能扫描并轻易推断出用户是否有自杀倾向,那推断出用户的其他信息也易如反掌,所有用户就“赤裸裸”的在其“监视”之下,想想也是可怕。关键还不在于此,而在于Facebook所做的一切均未公开,全是“秘密进行”。例如2014年,Facebook在使用AI预防自杀时曾进行了一项研究:向用户展示的积极/消极的内容是否会促使用户发布积极/消极的内容。当时这项研究引起众怒,因为用户对此研究并不知情。
因此该文章认为,Facebook的自杀预防工作应与临床研究遵循一样的标准和道德准则,例如要求外部专家进行审查,并征得所收集数据中所含人员的知情同意。John Torous说,“科技在提高改善自杀预防工作方面有很大的潜力,也可以促进全民的心理健康。预防自杀确实需要创新,但应该以符合道德,透明以及合作的方式进行。”
图片来源:图虫创意
AI预防自杀必须得到监管
针对Facebook的AI预防自杀项目,Medscape Medical News也采访过相关专家。美国心理协会前主席、哥伦比亚大学伦理和精神病学系主任Paul S. Appelbaum说,“原则上使用先进的AI技术或机器学习判断有自杀风险的人本身并不存在问题,这种工作也值得称道。但是Facebook如何使用所收集的这些信息,民众尚不清楚。而且,判断并帮助有自杀风险的个人,这整个过程也仍然存在问题。如果是以对社会负责的方式进行,那应该是一个开放的过程。”
Facebook也意识到,使用AI技术主动监测用户自杀念头的内容并不等于收集健康数据。该技术并未衡量个人的整体自杀风险或任何与心理健康有关的风险。2019年1月,也有文章报道过我国的一个AI救援项目,其目标是“借助智能主体(机器人)巡视各种社交媒体,使用核心的知识图谱技术,发现高风险、有自杀倾向的人群,然后组织人力实施救援”。不管是Facebook还是国内这种救援项目,都免不了在“监控”用户的前提下,推算谁有自杀倾向,从而进行针对性地救援活动。
据世界卫生组织的报告,中国有超过5400万人患有抑郁症,占总人口的4.2%;在我国每年约25万的自杀人口中,一半以上属于抑郁症患者,几乎每20秒就有一人因抑郁症自杀。这些数字说明,用AI预防自杀并快速救援欲自杀者显得很有必要,但这种做法在我们拍手叫好的同时还需要一定的监管。
参考资料:
1. BMJ: Global, regional, and national burden of suicide mortality 1990 to 2016: systematic analysis for the Global Burden of Disease Study 2016
2. CNN: Facebook screens posts for suicide risk, and health experts have concerns
3. Facebook Newsroom: Getting Our Community Help in Real Time
4. Medscape: Facebook's AI Suicide Prevention Program: Likes and Dislikes
5. 公众号“极客公园”:想死没那么容易,Facebook 用AI预防用户自杀
6. 健康界:“我就去死一死”丨自杀、抑郁症与用AI救人的人
不感兴趣
看过了
取消
人点赞
人收藏
打赏
不感兴趣
看过了
取消
您已认证成功,可享专属会员优惠,买1年送3个月!
开通会员,资料、课程、直播、报告等海量内容免费看!
打赏作者
认可我就打赏我~
1元 5元 10元 20元 50元 其它打赏作者
认可我就打赏我~
扫描二维码
立即打赏给Ta吧!
温馨提示:仅支持微信支付!
已收到您的咨询诉求 我们会尽快联系您