印度政府最近修订了2021年信息技术(中介指南和数字媒体道德准则)规则,以解决人工智能和合成媒体在线使用日益增长的问题。
电子和信息技术部(MeitY)于2026年2月10日通知了这些修正案,自2026年2月20日起实施。修正案引入了“合成生成信息”的概念,将深度伪造和被操纵的媒体等人工智能生成的内容纳入印度的中介监管框架。
根据修订后的规则,合成生成信息广义上是指使用计算机工具以使其看起来真实或真实的方式人工创建或更改的音频、视频或视听内容。
经修订框架引入的主要合规责任包括:
1. 人工智能生成内容的强制标签
支持创建或共享人工智能生成内容的平台必须确保此类内容被明确标记或披露为合成内容,以便用户可以立即将其识别为人工智能生成内容。
2. 元数据和出处标记
在技术上可行的情况下,可能需要中介在此类内容中嵌入持久标识符或出处元数据,以帮助追踪其来源。
3. 标签移除限制
中介必须确保这些披露或出处标记一旦应用就不能被抑制、修改或删除。
4. 用户声明
平台可能会要求上传此类内容的用户声明内容是否是合成生成的,从而增加人工智能驱动的媒体的责任。
5. 加速下架义务
对于未经同意的深度伪造、欺骗性冒充或其他非法合成媒体等高风险违规行为,平台可能需要在通知后三小时内禁止访问或删除内容,从而大大收紧了之前的时间表。
这些修正案代表了印度首次直接针对人工智能生成内容的具有约束力的监管干预。虽然这些规则没有对人工智能系统本身进行监管,但它们在平台和分发层面施加了义务,提高了对数字平台、人工智能服务提供商和社交媒体中介的合规期望。
运营平台、生成式人工智能工具、内容托管服务或数字市场的组织应审查其系统,以评估是否符合与人工智能内容标签、平台治理、申诉补救时间表和自动监控机制相关的新要求。