过去几年,未成年人的网络环境正在发生深刻变化。
移动互联网的普及使触网年龄持续前移,学习类应用、社交平台、短视频、智能终端设备已经成为未成年人成长过程中的日常工具。网络空间不仅是获取知识与娱乐的渠道,也在塑造其价值观、行为模式和社会认知。
与此同时,风险形态也在发生结构性变化。传统意义上的低俗、暴力等显性违法内容仍需严控,但更普遍的问题来自“边界模糊却影响深远”的信息形态:诱导模仿危险行为、极端价值观渗透、未成年人形象被不当使用、通过互动机制诱导非理性消费,以及在算法推荐与生成式 AI 加持下不断放大的情绪化内容。这类信息未必触碰法律红线,却可能对未成年人的心理与行为产生持续影响。

未成年人网络保护,
正在成为“必须交卷”的时代命题
近日,国家互联网信息办公室同教育部、公安部等八部门联合发布《可能影响未成年人身心健康的网络信息分类办法》(以下简称《办法》),将于2026年3月1日起正式施行 。作为《未成年人网络保护条例》的重要配套文件,《办法》的核心变化在于,将未成年人保护从原则性要求,转化为可执行的技术治理框架,使平台需要从制度理解走向能力建设。

从安全审核视角来看,《办法》提出了三大落地要求:
首先,企业需要建立针对四类风险信息的识别能力。主要包括诱导不良行为的信息、对价值观产生负面影响的信息、不当使用未成年人形象的信息以及不当披露未成年人个人信息的信息。这意味着平台不仅需要识别违法内容,还需要具备判断行为引导风险、价值观偏差风险、形象利用风险与隐私暴露风险的能力,从而能够区分危险示范与科普表达、剧情演绎与价值导向、正常展示与不当商业利用等复杂情境。
其次,企业需要建立覆盖信息全生命周期的审核机制。《办法》明确提出安全治理需覆盖内容生产、传播与展示三个关键环节。在生产端,平台需具备风险预判能力,对高风险信息进行前置识别与提示管理;在传播端,算法推荐与生成式人工智能需建立未成年人保护过滤机制,对高风险内容进行拦截,避免其进入首页推荐、热搜或弹窗等高曝光入口;在终端展示层面,则需针对未成年用户实施差异化防护策略,实现适龄化内容呈现。由此,内容治理不再局限于发布后的处理,而是需要贯穿内容生成与分发全过程。
第三,企业需要承担算法与技术层面的保护责任。《办法》将推荐系统与生成式人工智能纳入未成年人保护体系,要求平台通过用户识别与策略调控,避免向未成年人推送可能影响其身心健康的信息。这意味着,算法机制本身需要具备风险过滤能力,生成式AI需要具备指令审核与结果校验能力,平台需建立“技术审核 + 人工复核”的协同体系,从而使未成年人保护成为技术运行机制的一部分,而非运营侧的附加措施。
基于此,平台是否具备识别未成年人、识别风险信息以及控制风险传播的能力,将成为合规运营的重要前提。

从制度要求走向治理实践
在监管逻辑发生转变的背景下,未成年人网络保护需要的不再是零散工具,而是一套系统化、可演进的治理能力框架。网易智企旗下易盾业务将未成年人保护拆解为“身份识别、内容治理与技术约束”三个核心层面,形成贯穿内容、场景与技术应用的整体能力体系。

身份识别更细
首先,在身份识别层面,易盾构建了面向未成年人的多维识别能力体系。
在用户入网阶段,通过实名认证、人脸核身等技术,确保账号身份真实可信;在此基础上,结合年龄估计模型、声纹特征识别及行为时段分析等技术,对未完成实名的账号进行未成年嫌疑度判断,并在高风险情况下触发进一步核验机制。
这种识别逻辑,使平台能够判断“谁是未成年人”,更准确的处理“灰区内容”和“风险信号”,从源头降低风险内容进入未成年人视野的概率。

内容治理更准
其次,在内容与场景治理层面,易盾构建的内容风控模型能够对文本、图像、音频与视频等多模态内容进行识别,精准判断诱导危险行为、价值观偏差表达、不当使用未成年人形象以及隐私信息暴露等潜在风险。
同时,未成年人风险往往并非单条内容触发,而是由互动关系与行为路径逐步形成,例如直播诱导打赏、网络霸凌或过度消费行为。对此,易盾通过对互动频率、行为路径与消费模式的综合分析,在风险形成阶段提供干预能力,使未成年人保护从“内容处置”延伸至“行为治理”。

技术约束更深
在算法与技术应用层面,易盾将未成年人保护能力嵌入算法运行机制之中,一方面通过高风险提示词过滤与生成结果校验,避免模型输出不适宜未成年人接触的内容;另一方面结合未成年人身份识别结果,对推荐策略进行差异化调控,减少未成年人接触高风险信息的概率。
同时,在终端层面,可根据识别结果触发功能限制、使用时长控制及互动能力调整等分级保护措施,使未成年人在不同使用场景中获得更具针对性的保护。

未成年人保护,是长期能力,也是技术底线
未成年人网络保护不会随着一项政策的发布而结束。随着应用形态变化和技术迭代,风险也将持续演化。这意味着,平台必须从能力建设角度出发,将未成年人保护纳入长期技术规划。
未成年人网络保护不仅是合规底线,更是技术底线与发展底线。在 AIGC 时代,唯有将风险识别、行为干预与算法约束融为一体,构建真正可运行的治理体系,才能为未成年人营造一个更安全、更健康的数字环境。