Skip to content

为所有用户营造文明与安全的环境

Roblox 已经花了近二十年的时间,努力为我们的用户(特别是最年轻的用户)打造一个最安全的上网环境。 我们的指导愿景是打造世界上最安全、最文明的社区。

随着我们的平台不断发展壮大,并为交流与互联开创全新的未来,我们对预防性安全措施的投入依然是必不可少的一环。 为了在提供安全和文明的线上体验方面做到世界一流,这一点至关重要。 随着时间的推移,我们采用了新的战略和技术,以提高我们的安全和审核系统的速度和有效性。

每天,数千万各个年龄段的用户都在 Roblox 上享受安全、正向的体验,遵守我们的社区准则。 例如,正如我们最新的年度透明度报告所示,Roblox 用户在 Roblox 平台上生成并上传了总计约 2050 亿份内容,其中每一份都经过我们的内容审核工具的复核。 从我们的检测和报告系统的数据来看,只有 0.0063% 的内容被标记为违反了我们(关于霸凌、仇恨言论和暴力极端主义等问题)的政策。 我们的政策比社交网络和用户生成内容平台的政策严格得多,其内容涵盖了从脏话到广告准则的方方面面,这绝非巧合。

我们一直在使用自动化和人工系统不断衡量各种内部指标,内容涵盖从霸凌到不当语言等方面。 这样才能为我们的工作提供指导,不断促进用户在互联网上进行最安全和最文明的互动,从最基本的层面上讲,这意味着我们可以说 Roblox 上并不存在普遍或系统性的安全问题。 谨小慎微地进行这项工作可谓至关重要——我们都有自己的家庭,深知哪怕出现一起涉及儿童健康或安全的事件也是相当可怕的。 我们完全可以共情那些受到影响的家庭和个人。

我们建立了一个以安全为基石的平台

Roblox 的每个团队都致力于确保产品设计时兼顾安全性。 除了我们 10% 的全职员工和数千名专注于信任和安全的承包商之外,还有数百名 Roblox 员工致力于构建和优化我们的信任和安全团队所依赖的技术。 此外,我们的领导层也致力于确保这些团队始终获得适当的资源。 我们每年都会花费数亿美元来完成我们的安全使命。

我们在 AI 领域取得的最新进展提高了 Roblox 的安全性。 大型语言模型、多模态 AI 和识别口语安全问题的定制模型提高了审核的准确性和效率。 为了确保我们工作的可靠性,只有在证明 AI 驱动的自动化在大规模应用时能比人工产生更准确的结果后,我们才会将其投入应用。 在节省部分人力的同时,AI 也使我们的员工能够专注于更复杂的调查,包括落实禁止诱骗未成年人和索取其个人信息的政策。

我们采取多管齐下、相互关联的方法来确保安全

  • 重大更新和功能都遵循一套严格的“信任设计”流程,以便在开发之前征求反馈意见并发现潜在的安全问题。
  • 我们通过 AI 和人工审核相结合的方式主动审核平台上的所有交流。 一旦发现任何严重损害的迹象,系统就会将其上报给我们的调查小组。
  • 所有文本交流中的不当词汇和短语都会通过严格且行业领先的自动过滤系统进行过滤。
  • 我们的语音通信系统会向违反我们政策的用户提供实时反馈。 这使得 Roblox 上的行为变得更加文明。
  • 对于 13 岁以下的用户,我们的过滤器会阻止共享个人信息并尝试将对话从安全标准和审核不太严格的 Roblox 体验中删除。
  • 我们不允许用户在 Roblox 上通过语音或短信交换图像或视频。
  • 上传到 Roblox 的所有内容,包括图像、视频和音频文件、3D 模型和文本,都会使用由人工增强的多模态 AI 进行全面的审查。
  • 我们的安全团队经常在公司内部分享见解和指导,以提高我们平台和产品的安全性。

我们确保用户能够轻松、持续地使用特定功能,以便他们用于标记辱骂性、粗俗或其他不适合我们在线社区的内容。 举报滥用功能位于 Roblox 平台的显著位置(包括体验内),允许用户轻松举报不当内容或行为,我们也鼓励用户使用此功能。

家长可以限制或禁用在线聊天功能,根据年龄建议定制体验访问权限,并选择消费限额选项。 来自用户、家长和社区其他成员的反馈是我们改进产品的最佳工具之一。 我们不断探索不同的方法来更新我们的家长控制系统,使其更加实用。

我们投入了大量资金来应对整个行业的网络安全挑战

网络安全和文明——尤其是年轻用户的安全——是一个全行业的问题,我们正在积极与执法部门、主要行业组织和政策制定者展开合作。 我们发现平台上存在不良行为者,我们对任何危害儿童的报道深感忧心。 这就是为什么 Roblox 是第一家,也是唯一一家支持《加州适龄设计规范法》(California Age-Appropriate Design Code Act) 的公司之一,并且在最近还签署了一封支持加州法案 SB 933 的信函,该法案更新了州法律,明确禁止 AI 生成的儿童性虐待材料。

我们与执法部门合作追查肇事者

多年来,我们与国际、联邦和州省各级执法部门建立了深厚而持久的关系,并定期分享最佳实践。 我们提供了有关执法部门如何联系我们的团队的明确指导,包括我们在线提供的资源,以便执法部门直接与 Roblox 执法门户网站取得联系。 我们还通过与 FBI 的 EXTRACT 团队的整合,主动向执法部门报告潜在的安全威胁,该团队专门处理来自我们这样的平台的报告。

我们主动向美国国家失踪与受虐儿童中心(以下简称“NCMEC”)报告潜在的危险内容。 NCMEC 的 CyberTipline 热线是公众和电子服务提供商(以下简称“ESP”)报告疑似儿童性剥削事件的指定报告机制。 2023 年,Roblox 向 NCMEC 报告了 13316 起事件(Roblox 在安全方面较为谨慎,因此报告门槛低于其他平台)。 为了让大家对 Roblox 报告的事件数量更有概念,CyberTipline 在 2023 年收到了来自其他 ESP 的与其他平台事件相关的报告超过了 3500 万份。

我们正在扩大与整个行业的合作关系、研究和协作,共同寻找新的解决方案

我们还在与我们所在领域内的多方进行沟通与合作。 我们知道,提高网络交流的文明和安全是整个行业的问题,因此我们一直在与其他平台、非政府组织以及学术/行业联盟保持沟通,努力寻找解决不良行为者问题的解决方案。 例如,Roblox 自 2018 年以来一直是 Tech Coalition(技术联盟)的活跃成员,并以创始成员的身份加入了 Lantern。 这种首创的跨平台信号共享计划使参与其中的公司能够共享信息,并对从一个平台转移到另一个平台的不良行为者采取行动。

“Roblox 始终是技术联盟的重要成员,也是我们董事会的成员。 他们在我们的工作群体中起到了表率作用,帮助我们做出了整个行业的关键决策,例如帮助技术联盟推出了 Lantern 计划以及行业路线图的制定。 这项工作有助于 Roblox 和整个行业建立打击网络儿童性剥削和虐待的能力。”技术联盟执行董事 Sean Litton

这项工作有助于 Roblox 和整个行业建立打击网络儿童性剥削和虐待的能力。
技术联盟执行董事 Sean Litton

我们还致力于通过开源以及与合作伙伴的联手来努力提高整个行业的安全性。 例如,去年波士顿儿童医院的数字健康实验室和 Roblox 的领导者召集了来自全球各地 100 多位顶级安全和文明专家,分享想法并创建一个涵盖技术创新、政策和教育方面所需步骤的框架,以使网络世界成为一个真正安全和文明的空间,特别是对于青少年而言,并且以文明工作组成员的身份跨学科参与和讨论这一挑战。

我们与众多公共和私人组织(包括家长权益组织、心理健康组织和政府机构)密切合作,在分享我们的学习成果和技术解决方案的同时,也让我们对家长、政策制定者和其他人对网络安全的担忧有了深刻的理解。

我们还倡导与这些经验相一致且以年轻人的最佳利益为出发点的政策。

我们的安全和文明举措得到了众多注重安全的行业和民间社会组织的认可。 这些组织包括救助儿童会、数字健康实验室、Connect Safely、联合国负责暴力侵害儿童问题秘书长特别代表办公室和家庭在线安全研究所 (FOSI)。

从我们第一次接触 Roblox 开始,他们对安全的注重就让我们刮目相看。
家庭在线安全研究所首席执行官 Stephen Balkam

“从我们第一次接触 Roblox 开始,他们对安全的注重就让我们刮目相看。 他们的首席执行官始终奉行这一承诺,我们也有机会通过他们的信托与安全顾问委员会提供建设性的批评。 Roblox 在总体网络安全以及为其在线社区专门制定的政策和工具方面始终保持着领导地位。”家庭在线安全研究所首席执行官 Stephen Balkam

我们将继续不懈努力,确保用户安全,并警惕可能试图绕过我们安全系统的不良行为者。 我们也认识到,这项重要工作需要持之以恒的投入。 我们承诺不断投资和适应以应对不断变化的威胁形势,确保社区的安全。 我们已开始致力于下一代安全工具和功能的研发,力求继续引领未来网络安全和文明的进步。