Facebook开始采用人工智慧(artificial intelligence;AI)辨识用户偏离正常贴文的行为,并对于可能出现的轻生念头发出警讯。但这样做合乎伦理道德吗?
在当今高度互连的世界中,我们不断产生和收集如此庞大的资料量,甚至已经超出人类能力所能全部过滤筛选的范围了。确实,人工智慧的应用之一就是辨识这些贴文上的意图所表现出来的模式与偏差。因此,Facebook以这种方式运用AI,从其大数据(Big Data)资料库中撷取价值,虽然可能是出于善意的目的,但也引发对于道德感的顾虑。
为了能够更清楚掌握这个问题,在我不断的搜寻中,找到了一家名为「运算研究的普适资料伦理」(Pervasive Data Ethics for Computational Research;PERVADE)的组织。 PERVADE组织与六所大学合作进行研究,并在今年9月取得了资金赞助,目前正致力于制订问题并积极寻求答案。
我很快地与这家组织接触,针对Facebook以人工智慧侦测自杀讯号的道德问题征询了专家们的看法。后来有机会与该组织的一位成员Matthew Bietz取得了联系。
Bietz告诉我,参与PERVADE组织的成员们正在研究普适资料的发展后果,包括不断地收集资料——不仅从我们发布到社交媒体的贴文,还来自「我们在上网时留下的数位轨迹」 ,例如我们以Google进行搜寻或收发电子邮件。他说,物联网(IoT)和穿戴式装置之间建立起新的联系,进一步促进了「我们所处空间的资料」主体日益增加。由于这个现像「相对较新」,因而对于「资料伦理」提出了值得探索的新问题。
由于Facebook宣布不会将其自杀讯号侦测工具扩展到欧盟(EU),我询问Bietz是否因为这项计划会违反欧盟的「通用资料保护条例」(General Data Protection Regulatio)?他坦言欧盟确实对于资料保护存在「一些世界上最严格的规定」,但他补充说,「以GDPR的标准来看,Facebook所做的是否违法,目前还不是完全明朗。」
资料侦测与欧盟
更准确的说,Facebook正冒险进入一种「未真正经试验的优势。但我猜测他们并不想成为测试用例。」
Bietz说,Facebook的服务条款使其得以查看资料,因此,这样的行为并不会直接违反GDPR的隐私条例。但是,立法禁止公司仅根据「演算法或由电脑自动进行分析」。
这表示,如果演算法在「没有人为介入」的情况下决定讯号意义,并自行发出警讯,那么这样的行为以GDPR来看就是错误的。然而,他说,如果只是利用演算法「协助决定哪些贴文需要人们多加关照」,就可能在在法规允许范围。
「道德的雷区」
除了法规的问题,Bietz认为,Facebook的自杀侦测途径设定了一种「道德的雷区」(Ethical minefield),因为后果是如此的强烈。但这并不表示该公司所做的「必然是不道德的」,实际上还取决于「他们如何处理这些资料」,以及Facebook是否「值得我们信任」。
目前,这是个悬而未决的问题。他表示,当Facebook的营利模式是基于有选择性的资讯共享时,是否还能让我们相信它真的将自杀讯号资料用于防范自杀以及改善社会问题的目的。为了证明其出于善意,Facebook应该尽快提供「资讯如何分享的程度」,详细说明他们如何使用这些资料,以及如何保有其安全性。但是,Facebook的立场是我们只须要相信他们。
Bietz说,我们现在面对的一部份问题是「前所未见的各种新技术及其应用」。因此,目前还没有明确的先例可用于指导道德决定。我们现正「探索一个全新的领域,不只是在技术上,在伦理道德方面也是如此」。此外,还必须取得一些方向来表达「正确的道德问题」。
问题与结果
Bietz表示,他赞成运用资料和演算法来防范自杀的发生,并指出「危机求救热线」(Crisis Text Line)采用该方法来优先考虑对最紧急的情况做出反应。但Facebook并未详细说明其计划如何防范自杀,然而,Bietz认为,该公司也不应该自行尝试这项计划。他说:「如果我他们与来自公司外部的心理学研究人员密切合作,共同思考这些问题,我感觉会更好。」
所使用的演算法品质是也很重要,Bietz补充说。例如,过度谨慎可能会产生误报。但是,Facebook并未表明其演算法的性质,或是说明计划如何处理这些热线。它将会持续使用原始演算法或随着时间进行调整?同样地,Facebook并未透露任何细节。
我们能够信任Facebook是合乎伦理道德的吗?由于社交媒体平台能够取得太多有关于我们的资讯,现在必须提出这个问题。它不仅能从我们的历史讯息中辨识个人行为标准的「模式」,还可能根据朋友的贴文推断我们并未分享的资讯。
Bietz指出,我们的社会从来没有经历过这种范围缩小到个人层级的「监控」精确度,再加上这是一个「数百万Facebook帐号」的庞大社群。如今,在这个全新的资料新世界,我们必须积极地寻找「道德的界线」。
编译:Susan Hong
参考原文:The Ethics of AI for Suicide Prevention,by Ariella Brown, Technology Writer