来自 财经 2020-08-18 10:44 的文章

qqmibao一年2528次:他们把生命从悬崖边拉回来

“在密闭房间里用,人可以死吗?”8月2日,晚上9点,一家电商的客服夏苏突然接到系统预警:有一位消费者在一家店铺购买了一种日常用品,10斤,在和店铺客服咨询中冒出了上面这句话。

一套智能算法快速定位,根据这位消费者此前的浏览记录,判定她属于“高危用户”。夏苏同时查看她和店铺客服的对话,反复问细节,而且都指向自杀行为。同事也发现,此前这位消费者还试图购买过某种处方药,在线问诊拒绝了订单,并建议她线下看病。

经判断,这是一位自杀倾向者,而且自杀行为即将发生。一边报警,夏苏一边连续拨打这位消费者电话,通了,又被挂了。多方信息比对确定了消费者所在位置,当地110指挥中心指派,警察立即出发并及时赶到,随后家人也赶到了,警报解除。

工作中的“守护生命”师夏苏。

这是夏苏日常工作中的一例,许多个夜晚,她应对过许多次这样的预警。她和来自阿里安全、客服和阿里健康的近30位同事一起,组成了一个名叫“守护生命”的项目。

他们的具体工作,专业的说法叫“自杀干预”——算法工程师用人工智能技术识别自杀风险,客服团队联动商家对用户提供情绪安抚,专业心理医生在线咨询诊治,遇到紧急情况,则第一时间联动警方阻止。这套体系运行了整整一年,他们以各种方式,阻止了2528例自杀事件的发生。

据世界卫生组织统计,全球每40秒钟就有1人自杀身亡。“但很多人都是一时冲动,最后时刻只要有人拉一把,情况可能就完全不同。”“守护生命”项目组负责人武纲说,“我们做的,就是在冲动发生那一刻,把人从生命的悬崖边拉回来。”

“从零开始,边测试边优化边提高”

中国科学院心理研究所一项调查显示,曾经尝试过自杀的人群中,51.7%的人“从未主动寻求过任何帮助”。

“一位父亲在淘宝上买了某种商品,自杀去世,孤儿寡母来跟我们哭诉,两个孩子只有9岁和4岁。”几年前的一次经历让客服小曦记忆犹新。彼时她是“紧急风险处置小组”一员,在诸如自杀这样的不幸事件发生后参与应对。

“但事后应对解决不了根本问题。我们能不能把对自杀的防控做在前面?”这成为“风险处置小组”成员共同讨论的新目标。“守护生命”项目组由此在2019年7月正式成立,“我们相信,用互联网的技术和服务体系,用商业的手法,我们有机会更好地实现公益的目标。”项目负责人武纲说。

武纲相信,多走一步,商业+科技就有解决更多社会问题的机会。

起初的方案是在消费者和商家客服的聊天中设置关键词,出现和自杀相关的词句就会触发系统预警。“但这样每天要命中几千条,人工审核下来,发现绝大多数和自杀其实没关系。”最早参与“守护生命项目”的算法工程师荻月回忆,从2019年6月起,她开始构建多模态神经网络算法模型,尝试用数据智能来识别自杀风险,“每天预警大幅度减少,再加上人工审核,准确率也明显上升”。

“我们是从零开始。这既需要数据算法能力,也需要病理学药理学能力,还需要社会学的关键知识。”阿里健康安全团队负责人厚水说,“我们只能边测试边优化边提高。”

然而自杀干预在任何时候都不会仅限于技术。小曦就遇到过一位才16岁的自杀倾向者,连续几天的电话后,小曦成功地让他暂时放弃了轻生的念头,但这位年轻人坚持不能让他父母知道。“我是他唯一愿意说心事的人,如果我向他父母透露了情况,他和我的信任就断了,接下来可能更少了一个能帮他的人。”小曦说,“那我该不该尊重他的意愿?我们所尽的责任有边界吗?”

“这是我做过精确率最低的算法”

“目前的算法模型识别的自杀倾向者,人工核实下来,还是会发现有几个人其实是算法搞错了。”荻月介绍说。

“这应该是我们做过的精确率最低的模型。”她说,“但是人命关天,错多几个只是我们多花一些精力应对,但漏一个就是漏了一次生命的机会。所以我们的关键指标不是精确率,而是覆盖率,也就是说,是不是有自杀倾向并作出了一些实际行动的人都被我们发现了。”

越来越多类型的判断维度被加入到算法模型中,复杂程度一天天在上升。例如某位用户和商家客服对话中,第一段话出现了“世界”,第二段话出现了“要走了”,再隔几段话说“明天太阳几点升起”,单独看这些词句或许都很正常,但串联起来涵义则全然不同。因此,荻月和她的同事们时不时地要在各种案例中收集整理关于自杀的词句,“现在应该已经超过了一万句”,荻月说。

荻月收集的一万多句关于自杀的文字,用以优化算法。

})();