DB37/T 4845-2025 人工智能技术应用伦理风险的治理要求
- 文件大小:500.66 KB
- 标准类型:地方标准规范
- 标准语言:中文版
- 文件类型:PDF文档
- 更新时间:2025-06-16
- 下载次数:
- 标签:
资料介绍
山东省地方标准《人工智能技术应用伦理风险的治理要求》(DB37/T 4845—2025) 的核心内容可以详细总结如下:
核心目标: 为山东省内人工智能(AI)技术应用的伦理风险治理提供框架、原则、责任主体和具体要求,旨在促进AI技术的健康、安全和可持续发展,保障公共利益和个人权益。
主要内容结构:
-
治理框架:
- 采用三层同心结构:
- 核心层:治理原则 - 提供基本指导思想。
- 中间层:治理参与方 - 明确治理过程中的责任主体及其目标。
- 外层:治理核心要求 - 规定具体的治理措施和要求。
- 采用三层同心结构:
-
治理原则(6项):
- 以人为本: 尊重人权、共同价值观、国家伦理,避免伤害和歧视。
- 公平公正: 尊重弱势/特殊群体,避免不公平结果或歧视,确保平等机会和待遇。
- 隐私保护: 尊重个人信息权利,合法正当必要诚信处理信息,保障隐私与数据安全。
- 可控可信: 确保人类控制权、自主决策权、接受/退出/中止AI交互的权利。
- 责任担当: 明确人类为最终责任主体,建立问责机制,各环节自省自律,不逃避责任。
- 素养提升: 客观认识伦理风险,积极参与讨论与实践,提升治理应对能力。
-
治理参与方(4类)及其核心治理目标:
- 6.1 管理者(政策制定、监管审查):
- 遵守并推动AI伦理治理法规政策标准。
- 保障相关主体的隐私、自由、尊严等权利。
- 建立风险预警与管控处置机制。
- 促进多元主体共治,形成共识性治理框架。
- 6.2 研发者(科研、开发、产品研制):
- 自律,将伦理融入研发全环节,不从事违背伦理的研发。
- 追求技术透明性、可解释性、可靠性、可控性、韧性等。
- 严格遵守数据法律法规标准,保障数据质量与隐私。
- 避免偏见歧视,确保技术普惠、公平、非歧视。
- 6.3 供应商(生产、运营、销售):
- 提供符合伦理标准的产品与服务,强化质量监测评估。
- 建立健全售后服务体系,及时处理伦理问题。
- 尊重市场规则,维护秩序,保护知识产权。
- 保障用户知情权、同意权、数据安全,提供简便的使用/退出方案。
- 6.4 使用者(采购、消费、操作):
- 积极学习AI知识技能,确保安全高效使用。
- 合理使用,避免滥用、误用、恶用。
- 及时反馈使用中出现的伦理问题,协助改进。
- 6.1 管理者(政策制定、监管审查):
-
治理核心要求(10项):
- 7.1 以人为本:
- 尊重人的根本利益和公共安全,禁止误用、滥用、恶用。
- 尊重社会共同价值观,促进人机和谐,坚持公共利益优先。
- 7.2 隐私保护:
- 数据隐私: 遵循合法、正当、必要原则处理数据,明确告知并获得用户同意。建立数据使用审计机制。
- 数据安全: 采取技术和管理措施保障数据存储传输安全(防非法获取、篡改、滥用),进行脱敏处理。
- 7.3 知情同意:
- 信息披露: 充分披露技术功能、范围、风险、数据处理方式。
- 同意机制: 建立明确、自愿的同意机制,用户可随时撤回同意。处理无行为能力人信息需监护人同意。
- 7.4 安全可控:
- 算法安全: 采取加密、防火墙等技术;进行算法安全测试、日常监测、定期评估;建立算法终结机制(无法判断时终止);设立个人数据被遗忘/更改机制;划定算法关联隐私边界。
- 风险控制: 进行算法安全评估、个人信息安全影响评估、风险评估(识别、分析完成性、可靠性、稳定性等风险)。
- 7.5 公平无歧视:
- 算法公平性: 确保算法无偏见歧视;预处理平衡数据集消除偏见;数据标注阶段识别标注偏见点并优化;全生命周期避免强化固化歧视;提供歧视性决策的补救办法。
- 用户权益平等: 不对任何用户群体设置不公平限制。
- 语料选择与质量控制: 选择涵盖广泛背景、文化、观点的语料以减少偏见。
- 7.6 透明可追溯:
- 透明化决策: 对涉及用户利益的决策提供充分解释和理由;告知语料来源、目的、处理方式;用户有权查阅决策记录。
- 可追溯: 确保关键决策(数据集选择、算法选取等)的数据集、过程、结果可追溯、可理解、可追踪。
- 7.7 责任明确:
- 明确责任主体: 管理者、研发者、供应商明确各自责任;责任归属自然人/法人实体(AI不取代问责);记录说明数据使用,留存日志以便溯源界定。
- 建立监管机制: 加强监管,建立恶意造成伦理风险行为的惩罚制度。
- 审查机制: 建立独立审查机制,定期审查AI决策过程。
- 7.8 技术中立性:
- 技术开发应用不应偏离原始目的(不危害社会、不侵犯人权)。
- 技术提供者不应以非法目的生产AI产品或故意制造/输入侵权算法。
- 7.9 监测与改进:
- 风险评估: 建立AI伦理风险评估机制(识别、分析、评价、处置)。
- 反馈机制: 建立用户反馈渠道,收集意见优化系统。
- 技术更新与迭代: 定期更新迭代系统以降低风险、提升性能稳定性。
- 7.10 教育与培训:
- 开发者培训: 加强开发者伦理教育,增强意识和责任感。
- 用户教育: 通过宣传讲座提高公众认知、风险意识和防范能力。
- 7.1 以人为本:
适用范围:
- 适用于山东省内AI技术应用伦理风险的研究。
- 适用于AI系统的规划、设计等活动(隐含覆盖研发、部署、使用等生命周期环节)。
总结: 该标准构建了一个以治理原则为指导、四类参与方明确责任、十项核心要求为抓手的全面AI伦理风险治理体系。它特别强调以人为本、隐私保护、安全可控、公平无歧视、透明可追溯和责任明确,并对数据安全、算法公平性、知情同意、可追溯性、风险监测改进等方面提出了具体而可操作的要求,旨在确保AI技术在山东的应用符合伦理规范,保障各方权益,促进负责任创新。
