评论:预防自杀,不妨让人工智能参与

科技工作者之家  |   2017-11-30 15:12

20171130151051_b9fffa.jpg

美国社交网站脸书(Facebook)表示,已开发出能够辨识轻生念头的人工智能软件,即将将之推广到其它国家。事实上,已有多个研究团队表示研发出了能够预防自杀的人工智能技术,主要方法都是在邮件、论坛、社交媒体平台中分析含有自杀倾向和想法的语言,让心理干预人员获得及时介入的机会。在初步的试验中,有的机器识别正确率超过了90%。

尽管类似的系统精准性有待验证,比如会不会“误伤”原本没有真实自杀念头的用户——有的自杀念头仅能表现用户“为赋新词强说愁”的心理,但是,运用人工智能排查互联网上的海量数据,无疑是高效率地预防自杀的思路。

首先,“预告式自杀”在互联网上普遍存在。搜索近期新闻,就能看到许多通过微博等渠道“预告自杀”,得到关注后被成功解救的例子。无论这种网络自杀预告有多大的信度,只要有一丝真实的可能,就值得社会千方百计拯救。使用人工智能来筛查“自杀预告”,显然提高了社会自杀信息预警的覆盖面,减少干预机构的反应时间。

其次,即使一个人不直接表露自杀意愿,人工智能依然有机会分析出其自杀倾向。例如,机器可以统计与自杀相关的词语的使用频率,当一段时间内某个人频繁地使用一些跟自杀相关的词语时,人工智能就可以发出预警。机器能够察觉出语词间的细微差别,对一个人语言习惯作整体的画像,而这是感性的人工排查无力实现的。

其实,很多人都产生过自杀的想法,但未必会将自杀付诸实施。机器所能做的是将自杀想法排查出来。尽管自杀念头和自杀行为之间隔了很大的距离,人工智能的介入仍然很有意义。至少,对整个社会人群的心理健康而言,自杀的想法无疑是一个很重要的指标。当被机器检测出存在自杀倾向以后,你也许不必被当成自杀者那样看待,但一定有必要找个心理咨询师聊聊了。

当然,这样的人工智能技术能不能有效实施,还取决于数据来源是否足够丰富。很多表达潜在自杀者内心想法的言语,可能出现在非公开的、受隐私保护的领域,比如不对外公开的朋友圈,需要添加好友才能看到的社交圈,等等。人工智能技术是否有权利突破隐私保护的限制,既是一个伦理问题,也是一个法律问题。即使认为自杀干预很有必要,网络平台也应该事先跟用户签订协议,以避免后期产生纠纷。

在科幻作品中,人工智能被赋予了复杂的形象,很多人担心人工智能会对人类过多的控制。其实,在现实中没必要那么紧张,人类对人工智能技术有充分的驾驭能力,完全可以将技术用于安全、健康的环境中。预防自杀可谓是人工智能技术的小试牛刀,大胆设想的话,人工智能可以在人类健康领域扮演更重要的角色。当人工智能发展到一定水平,人们对健康管理、心理管理的观念也势必大不一样。

当然,人类利用人工智能,并不是完全依赖人工智能。就像自杀干预一样,机器可以代替人处理大量数据,作初步的筛查,但是想要走进存在心理隐患者的内心,还是需要内涵更丰富的人工对话。无论如何,人工对机器排查作最后的把关,不仅是对人工智能技术负责任,也是对心理健康管理这一公共健康重要领域的负责任。

作者:王钟的

来源:光明网

相关推荐 换一换

  • 方敏
    0
    ?
  • 王芳
    0
    ##2#3#人工智能##造福人类
没有更多了