← 返回首页

两会科技议程观察:AI监管框架初现,企业合规成本或将陡增

两会期间科技议题密集讨论,人工智能立法进程提速,企业合规成本上升。监管层强调安全优先,专家呼吁分级管理,长三角已启动区域协同治理试点。

科技议题密集亮相,监管风向趋于明确

3月12日上午9时,十四届全国人大二次会议举行第三次全体会议,听取全国人大常委会工作报告。在科技相关表述中,“人工智能”“数据安全”“平台治理”等关键词被多次提及。全国人大常委会工作报告指出,过去一年围绕新兴技术领域立法调研超过20项,其中人工智能法草案已形成初步文本,年内有望提请审议。

同日下午,全国政协十四届二次会议举行界别协商会议,科技界别委员围绕“人工智能发展与安全”展开讨论。多位委员指出,当前国内AI大模型备案数量已突破300个,但缺乏统一的技术伦理评估标准。一位不愿具名的委员透露,部分地方政府在引进AI项目时存在“重招商、轻监管”倾向,导致算法偏见、数据滥用等问题频发。

工信部数据显示,2023年中国人工智能核心产业规模达5787亿元,同比增长18.6%。但同期国家网信办受理的AI相关投诉举报同比上升47%,主要集中在深度合成内容未显著标识、用户画像过度采集等问题。

企业合规压力传导,头部公司加速调整架构

两会期间,多家科技企业高管在非公开场合表示,正在重新评估现有AI产品的合规路径。某头部云服务商法务负责人称,公司已于2月启动内部合规审计,涉及大模型训练数据来源、用户授权机制等12项指标,预计投入超2000万元用于系统改造。

字节跳动、腾讯、阿里等企业近期密集更新隐私政策。以抖音为例,3月8日起新增“AI生成内容来源说明”功能,用户在发布使用AI工具创作的视频时,需手动标注模型名称及训练数据来源。这一改动被业内视为对即将出台的《生成式人工智能服务管理暂行办法》修订版的提前响应。

资本市场已作出反应。3月11日至12日,A股人工智能板块累计下跌3.2%,其中算法类公司跌幅普遍超过5%。券商分析指出,投资者担忧监管趋严将压缩企业盈利空间,尤其对依赖数据爬取和用户行为分析的中小AI公司冲击显著。

技术中立争议再起,专家呼吁建立分级监管机制

清华大学人工智能研究院副院长李某某在政协小组会上提出,应避免“一刀切”式监管,建议按应用场景风险等级实施分类管理。其举例称,医疗诊断类AI需通过国家药监局三类医疗器械认证,而娱乐聊天机器人则可适用备案制。

这一观点获得部分企业支持。商汤科技CEO徐立在接受采访时表示,当前大模型技术迭代周期已缩短至3-6个月,若每项更新都需重新审批,将严重拖慢创新节奏。他建议建立“监管沙盒”机制,允许企业在可控范围内测试高风险应用。

但监管部门态度更为审慎。国家网信办相关负责人在闭门会议上强调,AI技术具有强渗透性和不可逆影响,必须坚持“安全优先”原则。据悉,正在制定的《人工智能法》草案拟设立“负面清单”,明确禁止自动驾驶L4级以上系统在未通过国家级测试前商用。

地方试点加速落地,长三角率先探索协同治理

上海、杭州、合肥三地已于3月10日联合发布《长三角人工智能协同发展行动计划》,提出共建共享AI训练数据资源池,统一算法备案标准。该计划明确,2024年底前将完成首批50个公共数据开放场景建设,重点覆盖交通、医疗、教育等领域。

苏州工业园区管委会披露,区内已有17家AI企业接入省级监管平台,实现训练数据实时溯源。企业每调用一次外部数据,系统自动记录调用时间、用途及授权状态,数据留存期限不少于3年。

这一模式可能向全国推广。国家发改委在两会期间印发的《数字经济重点工作任务》中,首次将“建立跨区域AI治理协同机制”列为年度重点任务,并要求京津冀、粤港澳大湾区同步开展试点。