当前在线环境中的毒性管理以及未来展望
在2024年Reboot Develop Blue大会上,Unity的米凯拉·哈伊斯(Micaela Hays)走上舞台,讨论了在线毒性问题日益严重,并强调了其伦理和商业影响。
她指出,从2021年到2023年,遭遇毒性行为的个人比例从68%上升到76%。此外,49%的游戏玩家因毒性问题避开了某些游戏。在随后的采访中,她分享了毒性行为上升的原因。
哈伊斯表示:“毒性上升可以归因于COVID-19大流行期间游戏时间的增加。随着人们恢复正常生活,游戏社区的增长趋于平稳,但影响依然存在。”
封锁对心理健康造成了重大影响,改变了人们的同理心水平。哈伊斯指出,玩家缺乏面对面的互动,尤其是那些错过了关键发展阶段的年轻人,导致了更加以自我为中心的行为。
“大流行期间的孤立剥夺了互动中的人性,”她解释道。“这种屏幕后面的匿名感让人们变得更加大胆。”
“内容审核在行业中面临着最高的人员流动率,因为他们每天都要面对粗鄙的语言和可怕的威胁。人类心理能承受的极限是有限的,会让人开始质疑这一切是否值得。”
研究表明,毒性行为并不仅仅是少数人的问题。“毒性是普遍存在的,”哈伊斯说。
哈伊斯建议,这个问题的根源可能可以追溯到2000年代早期,那时抗毒性行为的努力几乎为零。
“当我开始游戏时,毒性行为只是被接受为体验的一部分,”她回忆道。“这种根深蒂固的行为延续了这个循环,因为新玩家将其视为正常。”
改变这些根深蒂固的行为是一个挑战。“很长一段时间,人们认为毒性只是游戏的一部分,”哈伊斯说。“幸运的是,越来越多的公司开始对创造更健康的环境负责。”
“更多的公司明白,责任在于他们自己,必须为自己所创造的游戏环境采取行动。”
哈伊斯带来了一线希望的数据表明,96%的游戏玩家希望打击毒性,许多人愿意为积极的游戏环境支付更多费用。
解决这个问题需要妥协。哈伊斯讨论了各种审核方法,例如报告系统和语音转文本稿,这些方法各有挑战。另外,行为的背景也是至关重要的;在某个游戏中朋友间可以接受的,可能在另一个游戏中就不合适。
她作为一名高中数学老师的背景影响了她的方法。她从社区管理转到Hi-Rez Studios的业务开发,最终专注于Unity的社区安全,专注于通过Vivox服务进行游戏内通信。
教育而不仅仅是惩罚玩家是关键。有些游戏通过奖励非毒性行为来激励那些避免被禁玩家。
一个挑战是审核岗位的高流动率,这使得工作人员每天都要接触到粗俗的语言。哈伊斯解释说,这些岗位通常工资低且不被重视,导致工作倦怠。
她在演讲中提出的解决方案是Unity的Safe Voice,这是一种结合了机器学习、转录和音调分析的工具,用于管理毒性。它跟踪玩家的行为,例如静音模式和对特定行为的反应。
Safe Voice 去年七月开始了封闭测试阶段,现在已进入公开测试阶段。该系统旨在提供通常缺失的详细背景,并以易于理解的格式呈现。
哈伊斯表示:“这是机器学习的最佳体现。它不仅保护玩家,还保护审核人员。”
当谈到通过自动化可能会误解背景、细微差别或笑话时,哈伊斯强调Safe Voice在这一领域表现突出。该系统高度可适应,允许工作室根据各自社区中认为可接受的行为进行配置。
“例如,游戏会有评级,”哈伊斯解释道。“对于成人或17岁以上的游戏,某些粗鄙的语言更加常见,并不一定等同于毒性。”在这些上下文中,她补充说,“像‘damn’或‘shit’这样的词可能是作为日常用语中性使用。”
“[完全自动化的审核]将来是有可能的,但一些工作室希望有某种人工审核,而我对此也是支持的。”
哈伊斯并不认为允许某些社区使用特定语言会阻止潜在的新玩家,因为这些玩家“都是成年人,应该能够理解这种语言的上下文使用,特别是与以年轻用户为主的游戏(如Roblox)相比,其中大多数玩家年龄在7到14岁之间。”
仅仅关注语言和语气是不够的;系统还必须能够解析微妙的细微差别,以及同一词在不同地区的不同含义。当被问及此时,哈伊斯表示同意,认为音调分析是至关重要的。葡萄牙语、西班牙语和英语等语言有着明显的变化,使得某些词在一个国家是不合适的,而在另一个国家则可以接受。
“这不仅关乎你说什么和你如何说,尽管这些都是关键要素。考虑听者的感知也很重要,了解我所说的话是否冒犯了你,这种感知会被纳入考虑。”
这个方面使得Safe Voice与基本的转录服务区分开来,后者可能会错过使陈述具有冒犯性或无冒犯性的背景。相反,它是双向的。
尽管人工智能处理了许多初步分析,但仍需要人类的审查以评估选定的数据,并采取措施。未来是否能实现这个过程的完全自动化呢?
哈伊斯表示:“这在未来是有可能的。实现完全自动化将是很棒的,但我相信工作室仍然希望保留一定程度的人类验证,我对此表示支持。”