网站地图 | Tags | 热门标准 | 最新标准 | 订阅
您当前的位置:首页 > 地方标准 > 山东省地方标准(DB37)

DB37/T 4845-2025 人工智能技术应用伦理风险的治理要求

  • 文件大小:500.66 KB
  • 标准类型:地方标准规范
  • 标准语言:中文版
  • 文件类型:PDF文档
  • 更新时间:2025-06-16
  • 下载次数
  • 标签

资料介绍

山东省地方标准《人工智能技术应用伦理风险的治理要求》(DB37/T 4845—2025) 的核心内容可以详细总结如下:

​核心目标:​​ 为山东省内人工智能(AI)技术应用的伦理风险治理提供框架、原则、责任主体和具体要求,旨在促进AI技术的健康、安全和可持续发展,保障公共利益和个人权益。

​主要内容结构:​

  1. ​治理框架:​

    • 采用三层同心结构:
      • ​核心层:治理原则​​ - 提供基本指导思想。
      • ​中间层:治理参与方​​ - 明确治理过程中的责任主体及其目标。
      • ​外层:治理核心要求​​ - 规定具体的治理措施和要求。
  2. ​治理原则(6项):​

    • ​以人为本:​​ 尊重人权、共同价值观、国家伦理,避免伤害和歧视。
    • ​公平公正:​​ 尊重弱势/特殊群体,避免不公平结果或歧视,确保平等机会和待遇。
    • ​隐私保护:​​ 尊重个人信息权利,合法正当必要诚信处理信息,保障隐私与数据安全。
    • ​可控可信:​​ 确保人类控制权、自主决策权、接受/退出/中止AI交互的权利。
    • ​责任担当:​​ 明确人类为最终责任主体,建立问责机制,各环节自省自律,不逃避责任。
    • ​素养提升:​​ 客观认识伦理风险,积极参与讨论与实践,提升治理应对能力。
  3. ​治理参与方(4类)及其核心治理目标:​

    • ​6.1 管理者(政策制定、监管审查):​
      • 遵守并推动AI伦理治理法规政策标准。
      • 保障相关主体的隐私、自由、尊严等权利。
      • 建立风险预警与管控处置机制。
      • 促进多元主体共治,形成共识性治理框架。
    • ​6.2 研发者(科研、开发、产品研制):​
      • 自律,将伦理融入研发全环节,不从事违背伦理的研发。
      • 追求技术透明性、可解释性、可靠性、可控性、韧性等。
      • 严格遵守数据法律法规标准,保障数据质量与隐私。
      • 避免偏见歧视,确保技术普惠、公平、非歧视。
    • ​6.3 供应商(生产、运营、销售):​
      • 提供符合伦理标准的产品与服务,强化质量监测评估。
      • 建立健全售后服务体系,及时处理伦理问题。
      • 尊重市场规则,维护秩序,保护知识产权。
      • 保障用户知情权、同意权、数据安全,提供简便的使用/退出方案。
    • ​6.4 使用者(采购、消费、操作):​
      • 积极学习AI知识技能,确保安全高效使用。
      • 合理使用,避免滥用、误用、恶用。
      • 及时反馈使用中出现的伦理问题,协助改进。
  4. ​治理核心要求(10项):​

    • ​7.1 以人为本:​
      • 尊重人的根本利益和公共安全,禁止误用、滥用、恶用。
      • 尊重社会共同价值观,促进人机和谐,坚持公共利益优先。
    • ​7.2 隐私保护:​
      • ​数据隐私:​​ 遵循合法、正当、必要原则处理数据,明确告知并获得用户同意。建立数据使用审计机制。
      • ​数据安全:​​ 采取技术和管理措施保障数据存储传输安全(防非法获取、篡改、滥用),进行脱敏处理。
    • ​7.3 知情同意:​
      • ​信息披露:​​ 充分披露技术功能、范围、风险、数据处理方式。
      • ​同意机制:​​ 建立明确、自愿的同意机制,用户可随时撤回同意。处理无行为能力人信息需监护人同意。
    • ​7.4 安全可控:​
      • ​算法安全:​​ 采取加密、防火墙等技术;进行算法安全测试、日常监测、定期评估;建立算法终结机制(无法判断时终止);设立个人数据被遗忘/更改机制;划定算法关联隐私边界。
      • ​风险控制:​​ 进行算法安全评估、个人信息安全影响评估、风险评估(识别、分析完成性、可靠性、稳定性等风险)。
    • ​7.5 公平无歧视:​
      • ​算法公平性:​​ 确保算法无偏见歧视;预处理平衡数据集消除偏见;数据标注阶段识别标注偏见点并优化;全生命周期避免强化固化歧视;提供歧视性决策的补救办法。
      • ​用户权益平等:​​ 不对任何用户群体设置不公平限制。
      • ​语料选择与质量控制:​​ 选择涵盖广泛背景、文化、观点的语料以减少偏见。
    • ​7.6 透明可追溯:​
      • ​透明化决策:​​ 对涉及用户利益的决策提供充分解释和理由;告知语料来源、目的、处理方式;用户有权查阅决策记录。
      • ​可追溯:​​ 确保关键决策(数据集选择、算法选取等)的数据集、过程、结果可追溯、可理解、可追踪。
    • ​7.7 责任明确:​
      • ​明确责任主体:​​ 管理者、研发者、供应商明确各自责任;责任归属自然人/法人实体(AI不取代问责);记录说明数据使用,留存日志以便溯源界定。
      • ​建立监管机制:​​ 加强监管,建立恶意造成伦理风险行为的惩罚制度。
      • ​审查机制:​​ 建立独立审查机制,定期审查AI决策过程。
    • ​7.8 技术中立性:​
      • 技术开发应用不应偏离原始目的(不危害社会、不侵犯人权)。
      • 技术提供者不应以非法目的生产AI产品或故意制造/输入侵权算法。
    • ​7.9 监测与改进:​
      • ​风险评估:​​ 建立AI伦理风险评估机制(识别、分析、评价、处置)。
      • ​反馈机制:​​ 建立用户反馈渠道,收集意见优化系统。
      • ​技术更新与迭代:​​ 定期更新迭代系统以降低风险、提升性能稳定性。
    • ​7.10 教育与培训:​
      • ​开发者培训:​​ 加强开发者伦理教育,增强意识和责任感。
      • ​用户教育:​​ 通过宣传讲座提高公众认知、风险意识和防范能力。

​适用范围:​

  • 适用于山东省内AI技术应用伦理风险的研究。
  • 适用于AI系统的规划、设计等活动(隐含覆盖研发、部署、使用等生命周期环节)。

​总结:​​ 该标准构建了一个以​​治理原则​​为指导、​​四类参与方​​明确责任、​​十项核心要求​​为抓手的全面AI伦理风险治理体系。它特别强调​​以人为本、隐私保护、安全可控、公平无歧视、透明可追溯和责任明确​​,并对数据安全、算法公平性、知情同意、可追溯性、风险监测改进等方面提出了具体而可操作的要求,旨在确保AI技术在山东的应用符合伦理规范,保障各方权益,促进负责任创新。

下载说明

关于本站 | 联系我们 | 下载帮助 | 下载声明 | 信息反馈 | 网站地图