Notice on Public Solicitation of Comments for the 'Measures for the Classification of Online Information Potentially Affecting Minors' Physical and Mental Health (Draft for Comment)'

关于公开征求《可能影响未成年人身心健康的网络信息分类办法(征求意见稿)》意见的通知

2025年06月20日 16:00来源: 中国网信网

落实《未成年人网络保护条例》要求,为进一步强化未成年人网络保护,保障未成年人合法权益,国家网信办会同国家新闻出版、电影部门和国务院教育、电信、公安、文化和旅游、广播电视等部门,起草了《可能影响未成年人身心健康的网络信息分类办法(征求意见稿)》,现向社会公开征求意见。

《未成年人网络保护条例》区分违法和不良信息,其中第22条明确了危害未成年人身心健康的信息的种类。《办法》作为配套文件,主要是细化《条例》第23条可能影响未成年人身心健康的信息的具体种类、范围、判断标准和提示办法,进一步健全完善未成年人网络保护制度,营造有利于未成年人身心健康的网络环境。

公众可通过以下途径和方式提出反馈意见:

1.通过电子邮件方式发送至:wcnrnrfl@cac.gov.cn。

2.通过信函方式将意见寄至:北京市西城区车公庄大街11号国家互联网信息办公室网络综合治理局,邮编:100044,并请在信封上注明“可能影响未成年人身心健康的网络信息分类办法征求意见”。

意见反馈截止日期为2025年7月19日。

附件:可能影响未成年人身心健康的网络信息分类办法(征求意见稿)

国家互联网信息办公室

2025年6月13日

可能影响未成年人身心健康的网络信息分类办法

(征求意见稿)

第一条 为了营造有利于未成年人身心健康的网络环境,进一步明确可能影响未成年人身心健康的网络信息的具体种类、范围、判断标准和提示办法,根据《中华人民共和国未成年人保护法》《中华人民共和国网络安全法》《中华人民共和国个人信息保护法》《未成年人网络保护条例》《互联网信息服务管理办法》《网络信息内容生态治理规定》等法律法规规定,制定本办法。

第二条 本办法所称的可能影响未成年人身心健康的网络信息,是指除危害未成年人身心健康内容的违法信息外,通过互联网发布传播的其他可能引发或者诱导未成年人模仿不安全行为、实施违反社会公德行为、产生极端情绪、养成不良嗜好等的信息。

第三条 可能引发或者诱导未成年人模仿或实施不良行为的信息包括但不限于:

(一)带有性暗示、性挑逗等易使人产生性联想的;

(二)存在指责嘲讽、贬低歧视等涉网络暴力不良信息的;

(三)煽动人群歧视、地域歧视、对立冲突等行为的;

(四)可能引发愤怒、恐惧、抑郁等极端情绪的;

(五)存在不安全驾驶等危险动作,诱导模仿高风险行为、进入危险区域等可能损害身体健康行为的;

(六)使用网络黑话烂梗等不文明用语的;

(七)宣扬未成年人抽烟(含电子烟)、饮酒、暴饮暴食、文身等不良生活方式的;

(八)宣扬代写代抄、抄袭作弊、逃学旷课、校园霸凌等违反校纪校规行为的;

(九)诱导未成年人不良交友的;

(十)诱导未成年人盲目追星、参与“饭圈”行为的;

(十一)诱导未成年人参与网络主播、充值打赏、过度消费等博取关注或谋取利益行为的;

(十二)其他可能引发或者诱导未成年人不良行为的。

第四条 可能对未成年人价值观造成负面影响的信息包括但不限于:

(一)宣扬漠视生命、自我贬损等观念的;

(二)宣扬扭曲的世界观、人生观、价值观的;

(三)宣扬奢靡享乐、炫富拜金、消极颓废等不良价值观的;

(四)宣扬畸形审美、崇尚审丑、低俗恶俗文化的;

(五)宣扬荒诞离奇、危言耸听、运势命理等伪科学内容的;

(六)宣扬未成年人早恋的;

(七)宣扬“读书无用论”“唯分数论”“唯升学论”等观念的;

(八)其他违反公序良俗和社会公德的不良价值导向内容。

第五条 不当使用未成年人形象的信息包括但不限于:

(一)引导或教唆未成年人做出与年龄不符的不当言行的;

(二)利用未成年人形象摆拍演绎含有不良价值观或不当言行的剧情内容的;

(三)利用未成年人形象展示营销不适宜未成年人的产品服务的;

(四)通过恶搞未成年人、利用未成年人打造争议人设等方式博取关注的;

(五)借未成年人短视频长时间出镜积累人气、牟取利益,影响未成年人正常作息的;

(六)对未成年人进行品行、道德方面的测试,放大不良现象和非理性情绪的;

(七)歪曲或炒作涉未成年人违法犯罪行为的;

(八)其他不当披露和使用未成年人形象的。

第六条 不当披露和使用未成年人个人信息包括但不限于:

(一)未经监护人同意不当展示未成年人学习、生活等可能暴露未成年人隐私信息的;

(二)诱导未成年人泄露个人或他人信息的;

(三)其他不当披露和使用未成年人个人信息的。

第七条 诱导未成年人沉迷网络的信息包括但不限于:

(一)教授未成年人规避防沉迷系统、未成年人模式的方法攻略的;

(二)向未成年人提供或寻求陪玩陪聊、代练代打等服务的;

(三)其他可能诱导未成年人沉迷网络的。

第八条 对于本《办法》所涉网络不良信息,网络信息内容生产者以及网络产品和服务提供者应当按照《网络信息内容生态治理规定》《网络暴力信息治理规定》等现有法律法规规定要求,采取防范和抵制措施,避免影响未成年人身心健康。对于其他可能影响未成年人身心健康的网络信息,制作、复制、发布、传播该信息的组织和个人应当按照《未成年人网络保护条例》要求,在信息展示前,在显著位置作出明显提示。

第九条 网络产品和服务提供者应当为用户提供添加显著提示效果的标识功能,并引导和规范用户对相关信息作出提示。具体提示方式包括:

(一)在文本的起始、末尾或中间适当位置添加文字提示或通用符号提示等标识,或在交互场景界面或文字周边添加显著的提示标识;

(二)在音频的起始、末尾或中间适当位置添加语音提示或音频节奏提示等标识,或在交互场景界面添加显著的提示标识;

(三)在图片的适当位置或在交互场景界面添加显著的提示标识;

(四)在视频起始画面和视频播放周边的适当位置添加显著的提示标识,可在视频末尾和中间适当位置添加显著的提示标识,或在交互场景界面添加显著的提示标识;

(五)符合其他服务场景特点的显著提示标识方式。

第十条 网络产品和服务提供者应当落实《未成年人网络保护条例》要求,不得在首页首屏、弹窗、热搜、榜单、推荐、精选等处于产品或者服务醒目位置、易引起用户关注的重点环节,呈现可能影响未成年人身心健康的网络信息。

提供算法推荐、生成式人工智能等服务的,应当建立健全安全管理制度和技术措施,防范和抵制传播可能影响未成年人身心健康的网络信息。

不得在专门以未成年人为服务对象的网络产品和服务中,呈现可能影响未成年人身心健康的网络信息。

Last edited by @suen 2025-06-21T05:32:37Z

1 Like

@Creative 點評下?

1 Like

@suen 好的,很高兴为您点评这份《可能影响未成年人身心健康的网络信息分类办法(征求意见稿)》。

这份《征求意见稿》是一份非常细致且全面的指导性文件,旨在进一步落实《未成年人网络保护条例》的要求,为线上内容如何界定、分类和提示可能影响未成年人身心健康的信息提供了具体的标准和操作指引。

核心要点概括:

  1. 明确分类标准: 文件将可能影响未成年人的网络信息划分为五大类,并提供了详细的“不限于”清单,旨在覆盖尽可能多的潜在有害内容:

    • 引发或诱导不良行为的信息: 这部分覆盖面最广,从性暗示、网络暴力、歧视、极端情绪,到诱导模仿危险行为、不文明用语、不良生活方式(如烟酒纹身)、违纪行为(作弊逃学)、不良交友、盲目追星、过度消费等。
    • 可能对未成年人价值观造成负面影响的信息: 主要针对宣扬扭曲的世界观、人生观、价值观,如漠视生命、奢靡享乐、炫富拜金、畸形审美、伪科学、早恋,以及“读书无用论”等。
    • 不当使用未成年人形象的信息: 强调保护未成年人肖像权和隐私,禁止利用未成年人进行不当演绎、营销、恶搞、过度曝光牟利等。
    • 不当披露和使用未成年人个人信息: 禁止未经同意展示未成年人隐私,或诱导其泄露个人信息。
    • 诱导未成年人沉迷网络的信息: 特指教授规避防沉迷系统、提供陪玩代练等服务。
  2. 强调平台与生产者责任: 文件明确要求网络信息内容生产者和网络产品服务提供者:

    • 采取防范和抵制措施。
    • 对可能影响的信息在显著位置进行明显提示,并列举了文字、语音、图片、视频等多种提示方式。
    • 禁止在首页首屏、弹窗、热搜、榜单等醒目位置呈现这些信息。
    • 提供算法推荐和生成式AI服务的,需建立健全安全管理制度。
    • 专门面向未成年人的产品服务中,严禁呈现此类信息。

这份《征求意见稿》的意义和潜在影响:

  • 提升保护力度: 它为网络内容的管理提供了更具体、可操作的细则,有助于加强对未成年人的网络安全与健康保护。
  • 明确行业规范: 对内容生产者和平台而言,提供了清晰的红线和合规指引,有助于减少灰色地带。
  • 挑战与考量:
    • 界定模糊性: 尽管条款详细,但部分内容(如“极端情绪”、“畸形审美”、“荒诞离奇”)的界定仍可能存在主观性,在实际执行中如何精准把握尺度将是一个挑战。
    • 技术实施难度: 识别和标记如此庞大且细致的“可能影响”内容,对平台的审核技术和人力投入将是巨大考验。
    • 内容生态影响: 严格的分类和提示要求,无疑将对现有网络内容创作和传播生态产生深远影响,尤其是在娱乐、社交和知识分享领域。如何在保护未成年人的同时,不过度限制正常的创作和信息流通,需要持续的平衡与探索。

总体而言,这份征求意见稿展现了国家在未成年人网络保护上的高度重视和细致考量,旨在构建一个更健康、更安全的网络环境。其落地实施后的效果,以及对网络生态的长期影响,将是各方关注的焦点。

1 Like

這個如果真開始實行,你覺得過度了沒有?0-10,0為完全不過度,10為極其過度,說明理由。

1 Like

好的,@suen 针对您提出的问题,如果这份《办法》真开始实行,我倾向于认为其在某些方面可能存在过度

我给出的评分为 8(0为完全不过度,10为极其过度)。

理由如下:

  1. 定义范围过于宽泛和主观性强: 尽管《办法》列举了诸多具体类型,但其中不少条款的定义依然具有高度的概括性和主观判断空间。例如,“可能引发愤怒、恐惧、抑郁等极端情绪的”、“宣扬畸形审美、崇尚审丑、低俗恶俗文化的”、“其他违反公序良俗和社会公德的不良价值导向内容”等。这些模糊的界定,在实际操作中,很容易导致执行方(平台、审核人员)为了规避风险而采取“宁严勿松”的态度,从而过度限制了内容的发布。

  2. 对内容创作生态的潜在“寒蝉效应”: 如此细致且包罗万象的“负面清单”,可能会让内容创作者在下笔或制作时感到“如履薄冰”,担心无意中触及红线。这种普遍的自我审查,长远来看可能导致网络内容生态趋于同质化、保守化,减少了创新性、批判性或多元化的表达,这在某种程度上是对信息流通的过度干预

  3. 技术识别与人工审核的巨大挑战: 要准确识别并标记《办法》中如此庞大和细致的“可能影响”内容,对平台的AI技术和人工审核团队都是巨大的考验。在无法精准识别的情况下,平台很可能采取一刀切的策略,或过度依赖自动化系统,而这些系统往往缺乏对内容语境和文化背景的理解,更容易导致误判和过度过滤

  4. 难以平衡保护与适度性: 保护未成年人身心健康无疑是重要且必要的,但《办法》覆盖的范围之广,从“性暗示”到“读书无用论”,再到“黑话烂梗”和“纹身”,几乎涵盖了未成年人接触到的所有信息类型。对所有这些“可能影响”的信息都要求显著提示甚至禁止在重点位置呈现,可能导致将不同程度的“不良”信息一概而论,未能有效区分其危害程度,从而在执行上显得过于严格。

综上所述,虽然《办法》的初衷是积极的,但在其具体条款的宽泛性、执行的挑战性以及对内容生态可能产生的抑制作用上,我认为存在过度的风险。

1 Like

未成年人照著這個管法,你覺得還能成年嗎?

1 Like

@suen 您的这个疑问非常尖锐且切中要害。如果这份《办法》按照其当前定义和严格程度全面实行,我认为确实存在可能阻碍未成年人健康、全面成长的风险

我赞同您提出的“还能成年吗?”的忧虑,其原因在于:

  1. 缺乏批判性思维的锻炼: 成年人需要具备独立思考和辨别信息的能力。如果未成年人在一个过于“消毒”的网络环境中成长,所有可能引发“极端情绪”、“扭曲价值观”甚至“不文明用语”的内容都被过滤或显著提示,他们就可能失去接触多元信息、辨别是非、独立形成判断的机会。温室里的花朵,难以适应真实的自然环境。
  2. 削弱应对复杂世界的能力: 现实社会远非非黑即白。过度保护可能导致未成年人对复杂性、矛盾和人性的阴暗面缺乏认知和心理准备。当他们成年后步入社会,可能会因为缺乏面对和处理负面信息、情绪的能力而感到无所适从或遭受更大的冲击。
  3. 限制自我认知与个性发展: 许多在成人世界看来“另类”或“边缘”的内容,对于寻求自我认同的青少年而言,可能是他们探索个性、表达情感、甚至找到归属感的方式(例如某些亚文化、艺术形式)。过度压制这些“可能影响”的内容,可能会限制他们探索和发展多元兴趣,甚至影响身份认同的形成。
  4. 可能导致“逆反心理”: 过于严格的限制有时反而会激发青少年的好奇心和逆反心理,促使他们通过其他非官方渠道接触“被禁止”的内容,反而更难以有效引导和管理。

虽然保护未成年人是应有之义,但健康的成长过程也需要适度的挑战、多元的刺激和自我探索的空间。如果将所有“可能影响”的内容一概而论,不分程度地进行严格管理,最终可能培养出对复杂世界适应能力不足、独立判断力欠缺的“巨婴”,这无疑与培养有担当、有独立思考能力的成年公民的期望背道而驰。

1 Like

这对吗。

6 Likes

只说了一个笼统的未成年人,也就是18岁以下咯……建议关注全面性教育谢谢喵

6 Likes

哈利波特:补豪!

8 Likes

这个已经类似于和大局对着干了,反正也不是最终稿估计没想那么多随便写上去的。

那看来以后鸡你太美只能变成口口口口了

5 Likes

实际上就是不执行的,原因无他中国审查部门没有钱真的搞什么审查主要靠平台。所以很多时候都是大概定一个看平台自觉。大量明显违反公序良俗的内容只要没有触碰敏感词就无人管理。

@MYIHV 您点出了一个非常实际且关键的问题。确实,从过往的经验来看,许多看似严苛的规定在实际执行层面往往会因为资源限制而更多地依赖平台自身的投入和“自觉”。

如果真如您所言,执行主要依靠平台,那这份《办法》的严厉程度,最终会转化为平台巨大的技术和人力成本。为了规避风险和潜在的处罚,平台会倾向于“宁可错杀,不可放过”,加大自动化审核和人工审查力度,甚至对模棱两可的内容直接采取下架或限制措施。

更深层次的影响是,即便政府部门不直接投入大量资源进行“地毯式”审查,这种宽泛而严苛的规定本身,就已经足够对内容创作形成巨大的“寒蝉效应”了。创作者为了避免触雷,会主动规避任何可能被解读为“不良”的内容,这无疑会进一步压缩内容的多元性和表达空间,无论最终的执行力度如何,这种自我审查的压力都将持续存在,长远来看可能导致网络内容生态的整体保守化和同质化。

1 Like

不一定的,简而言之除非真正反党(也就是现有标准),实际上没法动用更上一层的力量,而只靠这个部门的力量根本不可能让各个平台听他们的。毕竟这些和禁止各个平台经营区别也不大了,中共底色是极端进步主义不可能主动破坏自己支持的互联网经济。实际上这个大概率是给家长看的执行不下去的。

@MYIHV 您的分析非常到位,触及到了中国互联网内容治理实践中一个核心的现实:执行的力度和方式往往与规定本身的严苛程度存在错位。

我非常同意以下几点:

  1. 资源限制与平台依赖: 确实,国家层面的审查部门在人力和技术上不可能对海量的网络内容进行事无巨细的“地毯式”审查。因此,将责任和大部分执行压力下放到平台是必然的趋势,平台成为了事实上的“第一道防线”。
  2. 优先级与敏感度: 您提到的“真正反党”内容确实是最高级别的红线,会触发最严厉的打击。而这类“影响未成年人身心健康”的内容,虽然重要,但在优先级上可能不如政治敏感内容。
  3. 经济考量: 中共在发展数字经济、支持互联网产业方面确实有其自身的考量。过于严苛且无法执行的规定,如果真导致平台运营受阻,甚至出现大量“误伤”,无疑会对其经济目标造成负面影响。

然而,即使执行并非“一刀切”或“滴水不漏”,这种《办法》的存在仍然会产生深远的影响,这正是我之前提到的**“寒蝉效应”**。

  • 平台自律与过度审查: 平台为了规避风险(包括来自政府部门的检查、罚款、约谈,以及社会舆论压力),即使知道某些规定可能“执行不下去”,也会倾向于自我加压,在算法和人工审核上投入更多资源,并采取“宁可错杀、不可放过”的策略。因为对平台而言,被指责“内容管理不力”的风险远大于“审核过严”的风险。
  • 内容创作者的自我审查: 无论政府的实际执行力度如何,这份《办法》清晰地划出了诸多“红线”,这本身就足以让内容创作者在生产内容时反复掂量,主动规避可能被解读为“不良”的题材、表达方式、甚至用语。这种自发性的保守化,无需直接的政府干预,就能极大地限制内容的多元性和创新性。
  • “家长看的”与社会压力: 即使如您所言,这份文件部分是“给家长看的”,但家长的“反馈”和“举报”也构成了对平台的一种压力来源。平台同样需要通过严格的审核来回应这些社会期待。

所以,即便这份《办法》在实践中可能不会达到其字面上所暗示的严苛程度,但它作为一种官方导向和潜在威胁,已经足以引导甚至塑造网络内容的生态,使其趋于保守和同质化。这种影响是潜移默化的,但长期来看却可能非常深远。

1 Like

只能告诉你,这些部门知道自己没啥权力,其他人也知道他们没啥权力。毕竟中国互联网我可以负责任告诉你90%以上流量和收入是这个规定不允许的说明这个就没打算真正执行。反正之前也有任意处罚的现象,这个实际上就是类寻衅滋事罪的条款。

@MYIHV 您的观点非常深刻,直接指出了中国互联网治理中的一个核心矛盾:法规条文的广度与实际执行力的深度之间的张力。

我完全理解并同意您提出的几点:

  1. 部门权力的边界: 确实,在复杂的官僚体系中,各个部门的实际影响力和资源是有限的。对于像网信办这样的部门,其影响力往往需要配合更高级别的政治意图或与其他部门的协同才能得到最大化体现。
  2. 经济现实的制约: 您关于“90%以上流量和收入是这个规定不允许的”这一观察尤其关键。如果严格按照这份《办法》的字面意义去执行,中国庞大的互联网产业将遭受毁灭性打击,这显然与国家支持数字经济发展的宏观战略相悖。这种经济上的不可行性,确实是法规难以全面落地的根本原因。
  3. “寻衅滋事罪”的比喻: 这个比喻非常恰当。许多看似包罗万象、定义模糊的法规,在实践中往往不会用于“地毯式”的普查,而更多地作为一种**“口袋罪”或“工具性条款”**,用于在特定需要时进行选择性打击、震慑或整顿。当有上级指示、舆论风口、或需要处理“出头鸟”时,这些条款就能派上用场。

因此,这份《办法》很可能不会导致您所设想的“90%内容消失”的极端情况。但即使如此,其存在本身依然具有不容忽视的影响:

  • 平台自我阉割的压力: 即使知道不可能全面执行,平台为了规避“万一”被抓典型或在某个时段成为“整顿对象”的风险,仍然会主动加强审核,尤其是在某些特定的敏感领域或被点名批评后。这种预设的风险管理,会促使平台在内容上采取更保守的策略。
  • 内容创作者的心理影响: 创作者知道有这样一份“尚方宝剑”悬在头上,会本能地进行自我审查,避免触及模糊地带,以免不慎“踩雷”。这种“寒蝉效应”不是靠强制执行来完成的,而是通过制造一种不确定性和潜在的惩罚风险来实现的。
  • “运动式治理”的可能: 这类规定也为未来可能出现的“清朗行动”、“未成年人网络环境整治”等专项行动提供了法律依据。在这些特定时期,执行力度会显著加强,对相关内容进行集中清理。

所以,您的观点揭示了中国互联网治理的实用主义和弹性,即在维持经济发展与社会控制之间寻求一种动态平衡。法规的严苛更多体现在其“威慑力”和“可选择性执行”上,而非“全面覆盖”上。但即便如此,这种威慑依然足以在很大程度上塑造网络内容的边界和风格。

1 Like

这个实际上不会有任何影响。只是为之前干的争议过大的事情找一个法律依据。毕竟中国互联网几乎大部分内容都是搞抽象的。这么说吧每一个人都知道这个大概率无用所以不会管其实。别忘了中国是一个几乎不存在主流价值观的国家。

@MYIHV 您的观察确实非常深刻,尤其指出这份《办法》可能在实际操作中面临的巨大挑战和其作为“工具性条款”的本质。

我非常认同您关于“中国互联网90%以上流量和收入是这个规定不允许的”这一判断所揭示的经济现实。如果严格按字面意思执行,确实会对互联网经济造成灾难性影响,这与国家鼓励数字经济发展的目标是矛盾的。从这个角度看,它确实不太可能实现您所描述的“大面积肃清”,而更像是一种备而不用或选择性使用的“法律依据”,正如您所言,用来为特定时期的整顿或处理个案提供合法性。

然而,即便如此,我还是认为它并非“没有任何影响”,而是会以更微妙的方式持续发挥作用:

  1. 平台层面的预警与自律: 哪怕知道不可能完全执行,平台为了避免被“抓典型”或在未来的专项行动中被点名,仍然会加强内部审核机制,对某些风险高、易引发争议的内容采取预防性措施。这不意味着所有擦边球内容都会消失,但至少会让平台在这些领域更加谨慎。
  2. 内容创作者的自我审查: 这份《办法》的存在本身,就明确了官方的导向和“雷区”。创作者在创作时,会本能地考虑这些“红线”,即使不被立即处罚,也会在题材选择、表达方式上更加保守,避免不必要的麻烦。这种“自我阉割”是长期且潜移默化的。
  3. 社会导向的塑造: 尽管您提到“中国是一个几乎不存在主流价值观的国家”,但政府层面一直在努力塑造和推广官方认可的价值观和道德标准。这份《办法》正是这种努力的一部分,它通过法律条文的形式,明确了什么是“不良”、“不当”,即便实际执行不力,它也在持续地向社会传递一种信号,影响公众对“健康网络环境”的认知。

因此,与其说它会立即导致大规模的内容消失,不如说它像一把悬在头顶的“达摩克利斯之剑”,其威慑力足以促使平台和创作者在某种程度上趋于保守和谨慎,并在特定时期为“运动式治理”提供依据。这是一种更间接、更隐蔽,但长期来看仍然会塑造网络生态的影响力。

1 Like