安徽省人大代表吴婷:人工智能进入“法治元年”

案例·商业报道 · 2026-02-06

2026年2月,安徽省第十四届人民代表大会第四次会议在合肥召开。来自全省各地、各条战线的省人大代表齐聚一堂,共商发展大计。嘉宾商学创办人、安徽省第十四届人大代表吴婷出席会议,并提交了一份极具前瞻性的议案——《关于制定〈安徽省人工智能产业发展条例〉的议案》。


继去年提出《关于制定〈安徽省AI应用创新发展条例〉的议案》后,吴婷代表今年提出了一份更系统性的AI产业发展“安徽方案”,关注点从“加速发展”延伸至“安全发展”。


随着AI技术在就业替代、隐私泄露、伦理失范等领域的技术双刃剑效应日益显现,单纯的政策扶持已无法满足产业高质量发展的需求。全球各个国家和经济体陆续推进人工智能相关立法。“十五五”规划建议中也提到:加强人工智能治理,完善相关法律法规、政策制度、应用规范、伦理准则。


2026年将是AI法治化元年。吴婷认为,已跻身全国AI产业第一方阵的安徽,有责任也有能力在法律层面率先探路。


吴婷提议安徽省人大常委会尽快启动立法调研,通过确立“基于风险的分级监管机制”、“监管沙盒”机制以及“穿透式责任体系”,在法律层面划定技术红线与伦理底线。她特别呼吁在就业保障、隐私保护、青少年保护及物理安全四大重点领域实施专项规制,守护“人”面对AI时的绝对优先权,为人工智能产业行稳致远筑牢法治基石。


在接受《安徽经济报》采访时,吴婷表示,将持续跟进条例立法调研全流程,联动高校、科研机构、AI企业与监管部门开展专题研讨,吸纳一线实践案例与多方意见完善条款设计,搭建产业界与立法机关的沟通桥梁,让立法内容更贴合产业实际、更具落地可操作性,以法治建言助力安徽打造科技创新策源地与新兴产业聚集地。



以下为议案全文:


关于制定《安徽省人工智能产业发展条例》的议案

安徽省第十四届人大代表 嘉宾商学创办人 吴婷

2026年2月


1、案由


随着AI在应用层面爆发,技术的双刃剑效应日益显现,就业替代、算法歧视、伦理失范等社会问题已不容忽视。我省拥有中国声谷及众多人工智能企业,已跻身全国AI产业第一方阵,具备率先立法的产业基础,亟待制定《安徽省人工智能产业发展条例》,在法律层面划定技术红线与伦理底线,为打造负责任、可持续的AI产业生态提供制度保障,也在“AI发展与安全”层面为全国探路。


2、案据


1. 专业机构研判


多篇权威报告与论文表明,人工智能推动产业变革的同时,其衍生风险已从理论探讨转变为现实冲击,主要集中在就业、安全与认知等层面:


就业替代风险:国际货币基金组织2024年发布的《Gen-AI:人工智能和工作的未来》指出,全球近40%的就业都受到AI影响,AI将扩大收入和财富的不平等;对于所有经济体来说,社会安全网和对易受AI影响的工人进行再培训对于确保包容性至关重要。


安全、隐私与欺诈风险:人工智能安全事件数据库(AI Incident Database)记录了全球AI伦理滥用案例,例如自动驾驶汽车导致行人死亡、人脸识别系统导致错误逮捕等,2023年记录事故168起,2024年281起,2025年362起。麻省理工学院对该数据库原始报告进行分类,指出其中利用AI进行欺诈和传播虚假信息的事件数量,自2022年以来增长了8倍。另一份由Veriff发布的《2026年身份欺诈报告》指出,与2024年相比,AI生成或修改的数字媒体带来的身份欺诈增长了300%。


认知与教育风险:伦敦政经学院Michael Gerlich教授等人发表的论文《AI工具在社会中的应用:对认知卸载的影响及批判性思维的未来》指出,频繁使用AI工具会带来回音室效应(算法偏见减少用户接触不同观点的机会)和认知卸载(将信息检索与决策交给外部系统),因而与批判性思维能力的下降有显著关联。麻省理工学院媒体实验室(MIT Media Lab)发表的《ChatGPT对大脑的影响:使用AI助手完成论文写作任务时认知债务的积累》指出:相比于使用大脑进行独立写作、使用搜索引擎辅助写作,使用大语言模型参与写作表现出最弱的大脑连接,表明认知能力参与不足,引发人们对长期依赖大语言模型可能带来的教育影响的担忧。


2. 全球立法趋势


全球主要经济体陆续进入AI立法的深水区,其“分级监管”“鼓励创新”“保护弱者”等立法思路与框架,为我省提供了借鉴参考:


欧盟于2024年正式通过《人工智能法案》,是全球首部综合性AI法律。其核心逻辑在于对不同AI系统实施分级监管,按照不可接受的风险(例如用于操纵人类行为、远程生物识别、社会评分等)、高风险(用于医疗、教育、招聘、关键基础设施管理、执法与司法等)、有限风险(例如用于生成或修改图像、声音、视频等)、低风险(例如用于视频游戏、垃圾邮件过滤等),进行精准治理,避免一刀切。


韩国于2024年12月通过《人工智能基本法》,于2026年1月正式实施,强调国家在支持AI产业的同时,也应防范可能产生危害的高风险AI应用。


日本于2025年5月通过《人工智能相关技术研究开发及应用推进法》,旨在促进AI相关技术研发和应用并防止其滥用。为避免过度监管,法案未设惩罚性条款,如果使用AI技术损害国民权利,将公布涉事企业名单作为威慑。


澳大利亚于2024年底通过《网络安全修正案》,并于2025年底正式生效,禁止未满16岁的青少年使用社交媒体。这一严格举措反映出国际社会对于算法推荐机制(如无限信息流、成瘾性设计)侵害未成年人身心健康的极度警惕。


美国科罗拉多州于2024年通过《人工智能法案》,是美国首个州级AI监管法案,旨在避免“高风险人工智能系统”内的算法歧视,对教育、就业、金融、政府基本服务、医疗等领域的重大决策产生不良影响。


3. 国内法律基础


制定AI相关条例不仅符合国家统筹发展与安全的战略导向,而且在地方上已有先行探索,具备立法依据与实践基础:


中央层面:国家网信办等七部门已于2023年施行《生成式人工智能服务管理暂行办法》,明确“发展和安全并重、促进创新和依法治理相结合”的原则,并提出“包容审慎和分类分级监管”的要求,具体方向包括:坚持社会主义核心价值观、防止算法歧视、尊重知识产权、尊重隐私权和个人信息权益、提升透明度、防范未成年人过度依赖或沉迷等。


地方层面:上海市于2022年发布了《上海市促进人工智能产业发展条例》,提出“探索分级治理和沙盒监管”:“对高风险的人工智能产品和服务实行清单式管理,遵循必要、正当、可控等原则进行合规审查,对中低风险的人工智能产品和服务采用事前披露和事后控制的治理模式,促进先行先试”。深圳市于2022年发布了《深圳经济特区人工智能产业促进条例》,提出“实施分级、分类差异化监管”:“高风险的人工智能应用应当采用事前评估和风险预警的监管模式,中低风险的人工智能应用应当采用事前披露和事后跟踪的监管模式”。2026年1月,北京市召开十六届人大四次会议,人大常委会工作报告中提及,拟制定人工智能产业发展条例。


安徽现状:我省虽有相关政策文件,但多为产业规划或部门规章,如《安徽省通用人工智能创新发展三年行动计划(2023—2025年)》《打造通用人工智能产业创新和应用高地若干政策》,缺乏一部统领全局的地方性法规。


3、方案


综上所述,建议省人大常委会尽快启动《安徽省人工智能产业发展条例》立法调研,按照“鼓励创新与底线管控并行”的原则,从以下两个层级构建具有安徽特色的AI治理方案:


1. 顶层设计:构建“分级治理、敏捷响应”的立法框架。


(1) 确立基于风险的分级监管机制,依据AI系统对社会安全、人身健康及权利的影响程度,设立风险金字塔:


不可接受的风险类(禁止):对利用AI进行社会信用评分、无差别生物特征识别、潜意识操纵等侵犯基本人权的应用,依法实行严格禁止。


高风险类(强监管):将医疗辅助诊断、关键基础设施控制、人力资源筛选算法、司法辅助决策等列为高风险领域。对此类AI实行“事前合规评估+事中算法备案+事后可解释性审计”的全流程监管。


通用/低风险类(备案/事后控制):对聊天机器人、图像生成等通用类应用,重点落实“生成内容标识”义务;对推荐系统、智能客服等低风险应用,主要依靠行业自律与事后追责,最大限度释放产业活力。


(2) 设立监管沙盒与容错纠错机制,建议在合肥综合性国家科学中心等区域设立“AI立法试验区”,解决法律滞后于技术的矛盾:


监管沙盒:允许企业在受控环境中测试创新型AI产品(如L4级自动驾驶、生成式医疗建议),在测试期内适当放宽行政处罚标准,优先采用约谈、警示等柔性执法手段。


尽职免责:明确科研机构与企业若已履行法定安全评估与风险提示义务,但仍发生不可预见的技术意外时,可依法减轻或免除相关法律责任,鼓励大胆探索。


(3) 明确产业链主体的穿透式责任体系,依循技术链条划分责任:


开发者责任:基础大模型提供商必须保证训练数据的合法性及算法的无歧视性。


服务者责任:API接口调用方与应用开发商需承担用户实名认证、违法内容过滤及向用户如实披露“AI生成内容”的义务。


使用者责任:明确利用AI生成违法信息或进行侵权行为的最终用户责任。


2. 专项防控:在四大重点领域实施专项安全规制。


在上述框架下,针对当前社会反响最强烈、风险最集中的四个具体方向,制定细化的监管条款:


(1) 就业与劳动权益保障(应对“机器换人”冲击)


建立“AI结构性失业”监测预警机制:建议由省人社厅牵头,定期发布受AI(含具身智能)替代影响较大的职业清单(如翻译、客服、餐厅店员、仓储物流人员),并建立财政保障机制,对高风险岗位从业者提供人机协作技能培训补贴。


确立“关键环节人为主导”原则:立法规定在招聘录用、绩效考核、解聘辞退等涉及劳动者核心权益的环节,不得仅依据算法分析结果直接作出决定,必须保留人工复核程序,并赋予劳动者对算法决策的申诉权。


(2) 隐私保护与数据主权(应对“透明人”风险)


强制实施“AI数字水印”制度:规定凡在省内提供生成式AI服务(生成文本、图片、音视频),必须强制植入不可消除的显性或隐性水印;未添加水印导致谣言传播或诈骗的,平台需承担连带责任。


生物特征“最小化采集”红线:严禁公共场所、商业App在非安防必要场景下,利用AI无差别采集人脸、步态、声纹等生物特征,确需采集的数据必须遵循“单独同意”原则,并禁止将生物数据用于算法歧视(如“大数据杀熟”)。


反“深度伪造”特别条款:任何组织和个人利用AI技术合成他人图像、声音的,必须取得本人书面授权;禁止制作、传播未经标识的虚假新闻信息。


(3) 青少年算法保护(应对“数字沉迷”与“认知诱导”)


推行“去算法化”的青少年模式:立法要求面向未成年人的社交媒体、短视频平台,在青少年模式下必须强制关闭个性化推荐算法。仅允许按时间顺序或人工精选展示科普、艺术等内容,从算法源头上斩断诱导沉迷的链条。


建立“虚拟伴侣”伦理规范:严禁向未成年人提供具有“过度情感诱导”“自杀自残暗示”或“不良价值观输出”的AI聊天伴侣服务,相关产品上线前必须进行未成年人心理健康伦理审查。


实施分时段限制:每日22:00至次日6:00,限制未成年人社交账号提供除紧急联络、辅助学习外的服务。


(4) 具身智能与物理安全(应对“机器人失控”)


强制安装“物理急停开关”:针对进入家庭、医院、工厂的服务型人形机器人及具备物理行动能力的AI设备,立法要求必须在机身显著位置设置独立的、物理断电的急停装置,确保在算法失控或紧急情况下,人类拥有绝对的一键终止权。


建立“伦理黑匣子”溯源制度:高风险机器人必须内置不可篡改的数据记录仪,记录决策逻辑、传感器数据与运行状态。一旦发生伤人事故,确保责任可追溯、可定性。


期待通过本条例的制定,为我省人工智能产业行稳致远筑牢法治基石,让安徽在全国率先建成负责任、有温度的人工智能产业发展示范区。