首页 > 专题活动 2022年专题 政策法规

八部门联合发布《可能影响未成年人身心健康的网络信息分类办法》

  • 来源:深圳扫黄打非
  • 时间:2026-02-04 16:08

近日,国家互联网信息办公室、国家新闻出版署、国家电影局、教育部、工业和信息化部、公安部、文化和旅游部、国家广播电视总局发布《可能影响未成年人身心健康的网络信息分类办法》(以下简称《办法》),自2026年3月1日起施行。通知如下:

关于印发《可能影响未成年人身心健康的网络信息分类办法》的通知

国信办通字〔2025〕5号

各省、自治区、直辖市互联网信息办公室、新闻出版局、电影主管部门、教育厅(局)、通信管理局、公安厅(局)、文化和旅游厅(局)、广播电视局,新疆生产建设兵团互联网信息办公室、新闻出版局、电影主管部门、教育局、公安局、文化体育广电和旅游局:

现将《可能影响未成年人身心健康的网络信息分类办法》印发给你们,自2026年3月1日起施行,请认真贯彻执行。

国家互联网信息办公室

国家新闻出版署

国家电影局

教育部

工业和信息化部

公安部

文化和旅游部

国家广播电视总局

2025年12月26日

可能影响未成年人身心健康的网络信息分类办法

第一条为了营造有利于未成年人身心健康的网络环境,进一步明确可能影响未成年人身心健康的网络信息的具体种类、范围、判断标准和提示办法,根据《中华人民共和国未成年人保护法》、《中华人民共和国网络安全法》、《中华人民共和国个人信息保护法》、《未成年人网络保护条例》、《互联网信息服务管理办法》、《网络信息内容生态治理规定》、《网络暴力信息治理规定》等法律法规规定,制定本办法。

第二条本办法所称的可能影响未成年人身心健康的网络信息,是指除法律法规规定的含有危害未成年人身心健康内容的违法信息外,通过互联网发布传播的可能引发或者诱导未成年人模仿不安全行为、实施违反社会公德行为、产生极端情绪、养成不良嗜好等的信息。

第三条可能引发或者诱导未成年人模仿或者实施不良行为的信息包括但不限于:

(一)带有性暗示、性挑逗等易使人产生性联想的;

(二)存在指责嘲讽、贬低歧视等涉网络暴力不良信息的;

(三)煽动人群歧视、地域歧视、对立冲突等行为的;

(四)通过刻意刺激、恶意引导等方式,引发未成年人产生过度强烈或者持久的愤怒、恐惧、抑郁等极端情绪的;

(五)存在不安全驾驶等危险动作,诱导模仿高风险行为、进入危险区域等可能损害身体健康行为的;

(六)通过谐音梗、缩写词、拆解字、图文结合等形式传播不良网络用语的;

(七)宣扬未成年人抽烟(含电子烟)、饮酒、暴饮暴食、文身、不合理使用或者滥用药物等不良生活方式的;

(八)宣扬代写代抄、抄袭作弊、逃学旷课、学生欺凌等违反校纪校规行为的;

(九)诱导未成年人盲目追星、参与非理性极端“饭圈”行为的;

(十)诱导未成年人进行充值、打赏等非理性消费行为的;

(十一)教授未成年人制作具有伤害性的创意手工的;

(十二)向未成年人提供或者寻求陪玩陪聊、代练代打等服务的;

(十三)其他可能引发或者诱导未成年人模仿或者实施不良行为的。

第四条可能对未成年人价值观造成负面影响的信息包括但不限于:

(一)宣扬漠视生命、自我贬损等观念的;

(二)宣扬奢靡享乐、炫富拜金、消极颓废等不良价值观的;

(三)宣扬畸形审美、低俗恶俗文化的;

(四)宣扬荒诞离奇、危言耸听等伪科学内容的;

(五)宣扬不良交友、恋爱观的;

(六)宣扬“读书无用论”“唯分数论”“唯升学论”等观念的;

(七)其他宣扬违反公序良俗和社会公德的不良价值导向的。

第五条不当使用未成年人形象的信息包括但不限于:

(一)利用未成年人形象摆拍演绎含有不良价值观或者不当言行的剧情内容的;

(二)利用未成年人形象展示营销不适宜未成年人的产品与服务的;

(三)利用未成年人声线传播不良内容的;

(四)通过恶搞未成年人、利用未成年人打造争议人设等方式博取关注的;

(五)借未成年人在短视频中长时间摆拍积累人气、牟取利益的;

(六)以不良方式或者目的对未成年人进行品行、道德方面测试的;

(七)歪曲或者炒作涉未成年人违法犯罪行为的;

(八)其他不当披露和使用未成年人形象的。

第六条不当披露和使用未成年人个人信息包括但不限于:

(一)未经监护人同意不当展示不满十四周岁的未成年人学习、生活等可能暴露未成年人个人信息的;

(二)诱导未成年人发布可能泄露本人或者他人个人信息的;

(三)其他不当披露和使用未成年人个人信息的。

第七条对可能影响未成年人身心健康的网络信息,网络信息内容生产者以及网络产品和服务提供者应当按照《网络信息内容生态治理规定》、《网络暴力信息治理规定》等法律法规规定要求,采取防范和抵制措施,避免影响未成年人身心健康。

第八条对于可能影响未成年人身心健康的网络信息,制作、复制、发布、传播该信息的组织和个人应当按照《未成年人网络保护条例》要求,在信息展示前,在明显位置作出显著提示。

网络产品和服务提供者应当为用户提供添加显著提示效果的标识功能,并引导和规范用户对相关信息作出提示。具体提示方式包括:

(一)在文本的起始、末尾或者中间适当位置添加文字提示或者通用符号提示等标识,或者在交互场景界面或者文字周边添加显著的提示标识;

(二)在音频的起始、末尾或者中间适当位置添加语音提示或者音频节奏提示等标识,或者在交互场景界面添加显著的提示标识;

(三)在图片的适当位置或者在交互场景界面添加显著的提示标识;

(四)在视频起始画面和视频播放周边的适当位置添加显著的提示标识,可在视频末尾和中间适当位置添加显著的提示标识,或者在交互场景界面添加显著的提示标识;

(五)呈现虚拟场景时,在起始画面的适当位置添加显著的提示标识,可在虚拟场景持续服务过程中的适当位置添加显著的提示标识;

(六)符合其他服务场景特点的显著提示标识方式。

第九条网络产品和服务提供者应当落实《未成年人网络保护条例》要求,不得在首页首屏、弹窗、热搜、榜单、推荐、精选等处于产品或者服务醒目位置、易引起用户关注的重点环节,呈现可能影响未成年人身心健康的网络信息。

提供算法推荐、生成式人工智能等服务的,应当建立健全安全管理制度和技术措施,不得向未成年人推送可能影响其身心健康的网络信息。

任何组织和个人不得在专门以未成年人为服务对象的网络产品和服务中,制作、复制、发布、传播可能影响未成年人身心健康的网络信息。

第十条违反本办法规定的,依据《中华人民共和国网络安全法》、《未成年人网络保护条例》等法律、行政法规的规定予以处理。

国家互联网信息办公室有关负责人就《办法》有关问题回答了记者提问

问:请介绍一下《办法》的出台背景和意义?

答:党的十八大以来,以习近平同志为核心的党中央高度重视未成年人健康成长。习近平总书记多次就未成年人思想道德建设、加强未成年人网络保护作出重要指示批示,总书记在主持中央政治局第二十三次集体学习时强调,要健全网络生态治理长效机制,持续营造风清气正的网络空间。习近平总书记的重要讲话和重要指示精神,为我们进一步做好相关工作指明了前进方向、提供了根本遵循。当前,网络已经成为未成年人学习、生活、娱乐的重要空间,未成年人触网率持续攀升,在网络空间接触到的信息容易影响其身心健康和价值观塑造。社会各界对于加强未成年人网络保护,进一步净化未成年人网络环境的呼声日益强烈。

《未成年人网络保护条例》第二十三条提出国家网信部门会同有关部门确定可能影响未成年人身心健康的信息的具体种类、范围、判断标准和提示办法。制定《办法》是落实《条例》的重要举措,将法律法规要求进一步细化为具体制度规范,为网站平台、内容创作者等各方提供了清晰明确的指引。

问:制定《办法》的总体思路是什么?

答:起草过程中主要有三方面考虑:一是注重制度衔接。《办法》依据《未成年人网络保护条例》第二十三条,进一步明确“可能影响未成年人身心健康的信息”的具体类别和情形,参考并延续前期多部管理规定,提出对相关信息作出显著提示的要求,实现治理连贯有效。二是强化经验提炼。《办法》总结近年来“清朗”系列专项行动中整治的各类突出问题,结合常态化治理的实践经验,广泛征求相关部门、专家学者和社会公众意见,对可能影响未成年人身心健康的网络信息进行系统梳理,确保分类结果科学规范、体现共识。三是坚持与时俱进。《办法》着眼网络发展中的新情况新问题,将不当使用未成年人形象等近年来突出问题纳入治理范围,对算法推荐、生成式人工智能等新技术、新应用可能带来的风险提出防范要求。

问:《办法》如何对可能影响未成年人身心健康的网络信息进行分类?

答:根据《未成年人网络保护条例》要求,从4个维度对可能影响未成年人身心健康的网络信息进行界定。

一是可能引发或者诱导未成年人模仿或者实施不良行为的信息。例如,带有性暗示、性挑逗等易使人产生性联想的;存在指责嘲讽、贬低歧视等涉网络暴力不良信息的;诱导未成年人进行充值、打赏等非理性消费行为的。

二是可能对未成年人价值观造成负面影响的信息。例如,宣扬奢靡享乐、炫富拜金、消极颓废等不良价值观的;宣扬畸形审美、低俗恶俗文化的。

三是不当使用未成年人形象的信息。例如,利用未成年人形象摆拍演绎含有不良价值观或者不当言行的剧情内容的;通过恶搞未成年人、利用未成年人打造争议人设等方式博取关注的。

四是不当披露和使用未成年人个人信息。例如,未经监护人同意不当展示不满十四周岁的未成年人学习、生活等可能暴露未成年人个人信息的。

问:《办法》对网络信息内容生产者、网络产品和服务提供者提出了哪些要求?

答:《办法》要求网络信息内容生产者以及网络产品和服务提供者应当按照《网络信息内容生态治理规定》、《网络暴力信息治理规定》等法律法规规定要求,对可能影响未成年人身心健康的网络信息,采取防范和抵制措施。

一是明确内容呈现管理。要求网络产品和服务提供者,不得在首页首屏、弹窗、热搜、榜单、推荐、精选等处于产品或者服务醒目位置、易引起用户关注的重点环节,呈现可能影响未成年人身心健康的网络信息。

二是添加显著提示标识。一方面,明确提示义务。要求制作、复制、发布、传播可能影响未成年人身心健康的网络信息的组织和个人,在信息展示前,在明显位置作出显著提示。例如在文本的起始、末尾或者中间适当位置添加文字提示或者通用符号提示等标识。另一方面,压实引导责任。要求网络产品和服务提供者应当为用户提供添加显著提示效果的标识功能,引导和规范用户对相关信息作出提示。

三是健全技术保障措施。要求提供算法推荐、生成式人工智能等服务的,应当建立健全安全管理制度和技术措施,不得向未成年人推送可能影响其身心健康的网络信息。任何组织和个人不得在专门以未成年人为服务对象的网络产品和服务中,制作、复制、发布、传播可能影响未成年人身心健康的网络信息。

问:如果违反《办法》规定,需要承担哪些法律责任?

答:对违反《办法》规定的,网信等有关部门可依据《中华人民共和国网络安全法》、《未成年人网络保护条例》等法律、行政法规的规定予以处理。

专家解读|以精细化信息分类管理筑牢未成年人网络保护屏障

党的二十届四中全会审议通过的《中共中央关于制定国民经济和社会发展第十五个五年规划的建议》明确提出,加强未成年人网络保护。当前,网络已深度融入未成年人的生活。然而,网络信息内容的动态性、复杂性和隐蔽性也给未成年人带来诸多风险与挑战。近日,国家网信办会同多部门印发《可能影响未成年人身心健康的网络信息分类办法》(以下简称《办法》),这既是对《未成年人网络保护条例》的制度细化与重要补充,也为进一步营造风清气正、适合未成年人健康成长的网络环境提供了更加具体的制度保障。

一、出台背景:完善管理制度,实现精准识别

近年来,我国未成年网民规模持续增长,未成年人在网络空间接触到的信息极易影响他们的身心健康和价值观塑造。除法律明文禁止的违法信息外,网络空间还存在部分难以清晰、有效界定,但可能会对未成年人心理、行为和价值观产生潜在负面影响的信息。此前,对于此类“灰色地带”的网络信息缺乏明确的分类标准,因而导致管理难度较大。《办法》正是落实《未成年人网络保护条例》要求,将法律法规中的原则性要求转化为有操作性、针对性的具体规则,对可能影响未成年人身心健康的网络信息进行系统性的界定与科学分类,为平台、内容生产者提供指引,使监管更加有据可依。

二、核心要义:构建分类体系,压实主体责任

《办法》在广泛征求社会各界意见的基础上,提炼相关主管部门在网络信息内容治理方面的实践经验,并密切关注技术前沿存在的问题和挑战,其核心要义在于,将法律法规中相对抽象的“可能影响”从概念具体化为若干类别的清晰、便于识别判断的信息类型,并配套了明确的管理要求。

该《办法》列举了四大类需要重点规制的信息。第一类是可能引发或者诱导未成年人模仿或者实施不良行为的信息,其范围不仅涵盖传统认知中的性暗示、网络暴力、诱导损害身体健康行为等内容,还与时俱进地将使用不良网络用语、宣扬滥用药物、诱导非理性极端“饭圈”行为等具有鲜明时代特征的网络失范行为纳入其中。第二类是可能对未成年人价值观造成负面影响的信息,明确将宣扬炫富拜金、畸形审美、读书无用论等不符合未成年人健康成长导向的内容列入管理范畴,直指影响其价值观塑造的核心风险。第三类聚焦不当使用未成年人形象的问题,对当前网络中存在的利用未成年人进行刻意摆拍、利用未成年人牟利、打造争议人设等乱象划定了红线,旨在保护未成年人免受商业炒作和不良内容的利用与侵害。第四类则与《个人信息保护法》及《未成年人网络保护条例》紧密衔接,强调了对不当披露和使用未成年人个人信息行为的规制,凸显了对未成年人隐私权的特殊保护。这种分类设计,既延续了已有的网络信息内容生态治理的总体思路,又结合未成年人身心发展特点有针对性地进行了深化与拓展,尤其关注到了算法推荐、生成式人工智能等新型网络应用场景下的问题风险,体现了立法工作的针对性。

在明确分类的基础上,该《办法》与《网络信息内容生态治理规定》相协同,将采取防范和抵制措施、显著提示确立为两大核心治理手段。这并非对相关信息采取简单的删除处理,而是体现了一种更为精细化和具有引导性的治理思路。就显著提示的要求而言,首先明确了网络信息内容生产者、发布者与传播者的提示义务。其次,通过具体条文详细规定了在文本、音频、图片、视频等不同信息载体上进行提示的技术标准和位置要求,从而保障提示的强制性与实际效果。这种管理方式在保障成年人获取信息的合法权益的同时,为未成年人及其监护人提供了必要的风险警示,有助于未成年人逐步培养对复杂信息的鉴别能力和批判性思维,实现了从单一围堵到疏堵结合的治理方式演进。

《办法》进一步压实网站平台的主体责任,要求将保护措施聚焦于内容分发的关键环节。《办法》明确,不得在首页首屏、弹窗、热搜、榜单、推荐等处于产品或者服务醒目位置、易引起用户关注的重点环节,呈现可能影响未成年人身心健康的信息。这一规定直接针对当前基于算法的内容分发模式,旨在从源头减少未成年人在日常使用中被动接触此类风险信息的可能性。同时,该《办法》对提供算法推荐、生成式人工智能等技术的平台提出了建立健全内部安全管理制度和技术措施的要求,以防范技术滥用带来的新型风险。此外,《办法》还特别规定,在专门以未成年人为服务对象的产品或服务中,严格禁止呈现此类信息,以确保专属空间的纯净度。这些条款共同将平台的内容管理责任从原则性要求具体化为场景化、全链条的操作规范,有助于推动平台企业从被动处理投诉向主动进行风险防控转型。

三、实施展望:推动协同共治,护航健康成长

《办法》的出台,标志着我国未成年人网络保护法治体系在精细化方向上迈出了关键一步,落实实施后将有效提升治理效能。

首先,各类网络产品与服务提供者应当以《办法》为基准,将相关要求细化为可执行的审核标准。这需要平台加强技术资源投入,优化针对不良行为诱导、价值观导向偏差等复杂内容的识别算法模型。在产品层面完成功能改造,确保显著提示功能在规定场景中有效展现。同时,平台应积极响应《未成年人网络保护条例》关于未成年人模式的建设要求,着力建设并持续运营一个内容丰富、品质优良、适合各年龄段未成年人健康发展的专属内容生态,实现从被动拦截到主动供给的升级。

其次,监管部门可以对违反本《办法》的行为,依据《未成年人网络保护条例》等法律法规予以处理,形成执法震慑力,进一步压实平台主体责任。还可以通过发布典型案例等方式,细化裁量标准,统一执法尺度,特别是在认定显著提示的有效性、判定审核重点环节管控是否到位等实操层面提供明确指引。

再次,家庭、学校和社会在帮助未成年人抵御不良信息侵害方面扮演着不可替代的角色,应当将《办法》所传递的治理理念与信息分类标准有机融入未成年人网络素养教育课程,帮助他们理解信息分类背后的价值导向与社会规范,从而逐步培育其理性的批判思维与主动的信息免疫力。此外,鼓励家长、教师及社会公众参与监督,形成政府监管、企业履责、社会监督、青少年自律的多方治理合力。

综上所述,《办法》是我国在网络空间治理,特别是面向未成年人的网络保护领域,朝着更加精细化、法治化与科学化目标迈进的重要制度成果。它通过建立清晰的分类标准、确立有效的管理方式及压实平台主体责任,为构建清朗网络空间提供了精准的治理工具。展望未来,期待该《办法》与《未成年人网络保护条例》及其他相关法律法规协同配合、有效实施,共同为未成年人在数字时代的健康成长构筑起更加坚实、可靠的防护屏障。

专家解读|未成年人网络保护的精准施策与体系保障

在数字时代,未成年人作为网络空间的重要参与者,保护其身心健康免受违法和不良信息侵害,是网络生态治理的重要一环。《可能影响未成年人身心健康的网络信息分类办法》(以下简称《办法》)的出台,通过细化标准、精准施策,完善了网络信息内容生态治理的规则体系,为构建全链条、立体化的未成年人网络保护体系提供了重要支撑,有助于进一步推动网络生态治理向精细化和协同化的方向发展。

一、完善制度体系的重要举措

网络信息内容生态治理是一个系统工程,从《网络安全法》《未成年人保护法》到《未成年人网络保护条例》《网络信息内容生态治理规定》,我国已构建起较为完善的未成年人保护与网络信息内容生态治理的法律框架。《未成年人网络保护条例》第二十三条明确提出“可能影响未成年人身心健康的信息”,但在实践中尚未建立统一、明确的标准。《办法》的出台,正是对这类信息进行细化分类,构建更为体系化的网络信息内容治理框架。

《办法》在原则细化和实践操作层面与现有治理体系有效衔接。一方面,《办法》的分类逻辑严格遵循《未成年人保护法》中“特殊、优先保护”的重要原则,将《网络信息内容生态治理规定》中“防范和抵制不良信息”的总体性要求,转化为针对未成年人的具象化清单;另一方面,《办法》关于不当披露个人信息、涉网络暴力等内容的规范,与《个人信息保护法》《未成年人网络保护条例》《网络暴力信息治理规定》等相关制度形成精准呼应。这种体系化衔接,让不同层级的法律规定形成治理合力,使未成年人网络保护走向制度体系化和协同化,进一步夯实了网络生态治理的制度根基。

二、通过精细化分类实现精准施策的治理优势

《办法》围绕保护未成年人身心健康,针对网络信息内容制定了一系列精细化的分类和标准,实现精准施策的治理优势。《办法》将“可能影响未成年人身心健康的信息”细分为四种类型并分别列举了具体情形,使治理标准从模糊感知转化为清晰可判。例如在对价值观造成负面影响方面,列举了漠视生命、炫富拜金、畸形审美等具体情形;对于不当使用未成年人形象的内容也进行较为全面的分类,回应了关于“网红儿童”的问题争议,填补了规则的空白。这些标准的细化,使得各方针对网络信息内容的审核与治理有了更为清晰、明确的依据。

精准施策的治理优势,在实践中体现为三个层次。一是明确平台审核边界,比如此前各平台对“网络黑话烂梗”的审查标准并不统一,《办法》将“通过谐音梗、缩写词、拆解字、图文结合等形式传播不良网络用语”明确纳入可能引发或者诱导不良行为的信息类型,使得平台审核有了统一依据,避免遗漏风险内容,也可以防范过度扩大打击范围。二是明确监管执法尺度,为规范执法提供统一且具象的裁量基准。监管部门可依据分类清单中的具体情形,精准对标、高效认定,确保监管行为合法合规、公正统一,提升整体执法效能与公信力。三是明确公众认知标准,家长、教师可通过分类清单快速识别风险内容,并根据未成年人的情况进行个性化的评估和引导,筑牢未成年人网络安全的第一道防线。

三、基于实践经验总结提炼分类标准

《办法》的分类标准具有重要的实践基础,是我国多年来网络生态治理实践的经验沉淀和总结。近年来,国家网信办组织开展的“清朗”系列专项行动,聚焦网络生态突出问题,已取得显著成效,在互联网平台围绕未成年人保护开展的丰富实践中,亦已积累了大量高频问题和分类探索,《办法》将这些实践中经过验证的风险点进行系统化梳理,转化为统一的分类标准,建立“从实践中来、到实践中去”的治理逻辑。

《办法》通过统一分类标准、明确提示要求,可以有效解决通过跨平台内容传播来规避治理的不正当行为。《办法》也为新型风险预留了动态更新的空间,各类条款中多次出现“包括但不限于”“其他可能影响”的表述,为应对新型网络风险留下“接口”。随着人工智能生成内容、智能体工具等技术和场景的发展,未来可能出现新的影响未成年人身心健康的信息形态,《办法》可基于实践新增分类、细化标准,始终保持对网络风险的前瞻性应对。

《办法》的出台,推动构建全方位、立体化的未成年人网络保护体系,有利于进一步净化网络环境,为未成年人营造更加清朗、健康的网络空间,让互联网真正助力未成年人成长。