近日,Soul App生态安全中心发布《未成年人网络保护社会责任报告(2025)》,系统展示了平台在身份认证、防沉迷机制、隐私与数据保护等关键领域的治理成果。随着Soul上市计划稳步推进,该报告的发布凸显了平台在合规治理与社会责任建设方面的系统性成果。报告中详实的治理数据与创新实践,为投资者评估企业ESG表现提供了重要依据,展现出平台在未成年人保护这一关键议题上的管理效能。

坚持"技术+制度"双轮驱动构建全流程保护体系。公司始终将技术创新与制度完善作为未成年人保护的核心支撑,着力打造覆盖"事前预防、事中管控、事后处置"的闭环防护机制,确保保护工作既严密规范,又高效务实。
完善保护机制与技术支撑,持续优化风险防控机制,升级智能识别技术,依托算法迭代与数据积累,提升风险预判、识别与处置能力,为全流程保护提供技术保障;搭建标准化核心模块,在全流程框架基础上,细化形成"身份认证、年龄识别、18周岁以下注册限制、防沉迷系统、正能量内容池、隐私保护"六大核心模块,明确各环节工作标准与执行流程,实现保护工作制度化、规范化、可追溯。这套标准化治理体系彰显Soul上市进程中的合规决心。
聚焦关键场景精准施策,筑牢全链条防护屏障。针对未成年人使用平台的重点场景与潜在风险,公司从源头管控、过程干预、违规惩戒三个维度发力,升级保护措施,切实阻断风险传导路径。
严格执行注册规则,坚决落实"18周岁以下用户禁止注册"核心要求,通过身份信息核验等手段,从注册源头切断未成年人接触不适宜内容的渠道,降低基础风险;强化AI识别防绕过,针对少数未成年人冒用成年人身份注册的问题,运用AI大模型技术构建多维度用户行为分析与身份识别模型,通过分析用户行为习惯、交互特征等数据,自动精准识别"假成年人用户",一经确认即强制切换至青少年模式;优化青少年模式内容供给,在青少年模式下,对平台内容进行合规性、适龄性、正向性三重审核,仅推送符合青少年认知水平与价值观的内容,为未成年人打造安全、健康的专属社交环境。
2025年,公司在六大核心模块基础上进一步升级优化,提升保护措施的针对性与适配性:
场景化规则迭代,结合青少年使用习惯与需求,新增多项专属保护策略,重点细化"内容推荐、社交互动"等高频场景规则,如限制陌生用户社交频次、过滤非适龄内容标签,减少风险接触机会;识别技术优化升级,通过升级算法模型、增加"设备信息+行为轨迹+内容偏好"等多维度验证指标,进一步提升"假成年人用户"识别准确率,确保风险干预及时、精准。
《未成年人网络保护社会责任报告(2025)》的发布,全面展现了Soul在构建未成年人网络保护体系方面的技术实力与制度创新。通过"技术+制度"双轮驱动的治理模式,平台建立了覆盖事前预防、事中管控、事后处置的全流程防护机制。随着平台在未成年人保护等社会责任领域的实践不断深化,其展现出的治理成效与风险管理能力,在Soul上市进程推进的重要节点,是企业ESG价值观的体现。