《人工智能科技伦理审查与服务办法》出台 助力AI健康发展新阶段

   时间:2026-04-08 23:34 来源:快讯作者:机器人技术与应用

工业和信息化部等十个部门近日联合发布了《人工智能科技伦理审查与服务办法(试行)》(以下简称《办法》),为我国人工智能领域的伦理治理提供了系统性框架。这一文件明确了人工智能科技伦理审查的适用范围、服务促进机制、实施主体及工作程序,并针对人工智能技术的特殊性,设计了包括申请受理、一般程序、简易程序、专家复核和应急程序在内的多层次审查流程,旨在规范科技活动的伦理实践。

根据《办法》要求,人工智能伦理审查需重点关注六大核心领域:人类福祉、公平公正、可控可信、透明可解释、责任可追溯以及隐私保护。具体审查内容包括训练数据的筛选标准、算法模型设计的合理性,以及是否采取措施防止算法歧视和资源分配不公。开发者需公开披露技术用途、运行逻辑及潜在风险,确保用户对人工智能系统的交互方式和决策过程有清晰认知。

专家指出,该文件的出台标志着我国人工智能伦理治理从原则性倡导转向制度化实践。国家新一代人工智能治理专业委员会此前发布的《新一代人工智能伦理规范》已构建起覆盖研发、供应、使用全链条的伦理准则,而此次《办法》则进一步细化了审查规则,填补了领域内制度空白。工业和信息化领域科技伦理专家委员会主任委员魏一鸣表示,文件针对人工智能技术迭代快、跨界融合深的特点,在通用审查框架基础上实现了领域化适配,为行业提供了可操作的指导方案。

为推动伦理审查服务体系建设,《办法》从标准制定、服务供给、创新激励、教育普及和人才培育五个维度提出支持措施。文件鼓励开发伦理风险监测预警系统、检测评估工具及认证咨询服务,同时促进高质量数据集的开源共享,支持通用性风险管理技术研发。针对应用场景,探索建立差异化的伦理风险评估体系,帮助企业提升风险防控能力。

魏一鸣强调,伦理治理需技术与制度双轮驱动。具备技术优势的企业、高校和科研机构应承担起研发伦理治理工具的责任,重点突破可解释人工智能、算法公平性监测、深度伪造鉴别等关键技术。通过开发伦理评估工具、风险模拟平台和算法审计系统,将抽象伦理原则转化为可量化、可嵌入工程流程的技术指标,推动伦理治理向技术化、工程化方向演进。

 
 
更多>同类天脉资讯
全站最新
热门内容
媒体信息
新传播周刊
新传播,传播新经济之声!
网站首页  |  关于我们  |  联系方式  |  版权隐私  |  RSS订阅  |  违规举报 鲁公网安备37010202700497号