人工智能影响评估主要需要在哪些领域开展?《人工智能法案》附件三定义了属于“高风险”范畴的人工智能系统的用例。这尤其适用于人工智能做出的决策直接影响人们的生活、安全或权利的领域。
用于生物特征识别系统,例如远程人员识别或敏感特征和情绪的识别。
在能源供应控制、数字网络或道路交通等关键基础设施领域,使用人工智能具有很高的风险。
在教育领域,当人工智能系统决定访问、绩效评估或考试行为时,它们就属于这一类。
在就业领域,这包括用于求职者筛选、员工评估和自动任务分配的人工智能系统。它还影响到基本服务的获取,包括社会福利、信贷、保险和紧急呼叫系统。
在执法领域,人工智能的使用需要特别的敏感性。这适用于使 顶级电子邮件列表 用人工智能评估再犯罪风险、评估证据或作为测谎仪。
移民和边境管理也需要谨慎,例如风险评估或庇护决定支持。
司法和民主进程也可能受到影响。支持司法判决或具体影响投票行为的人工智能系统也受到《人工智能法案》的严格要求。
考虑到这些用例或领域,令人惊讶的是,人工智能系统显然已经在某个领域投入使用。这意味着,根据《人工智能法案》,这些领域至少必须进行事后人工智能影响评估,并且在某些情况下,必须停止使用人工智能系统,直至人工智能影响评估完成。
题外话:
2025年6月,联邦网络管理局(Bundesnetzagentur)对一家医疗人工智能提供商处以约200万欧元的罚款,原因是该公司未能进行风险评估。尽管《人工智能法》规定的处罚措施自2025年8月起正式生效,但德国现行的《市场监督法》允许联邦网络管理局提前采取行动。这项国家法律是对《人工智能法》的补充,并在欧洲刑法框架生效之前为有效惩处违法行为奠定了法律基础。
请参阅我们新的 2025 年 GenAI 影响报告
-
- Posts: 149
- Joined: Thu Dec 19, 2024 3:16 am