AI系统监管新规!欧盟重罚企业,维护数据安全
2月3日,据最新消息,当地时间2月2日,欧盟的人工智能法案(AIAct)的第一个合规阶段正式开始实施。这意味着,欧盟的监管机构现在有权禁止那些被认为具有“不可接受风险”或可能造成危害的人工智能系统。该法案是欧盟经过多年研究和讨论后,在去年3月得到欧洲议会批准的一项全面的人工智能监管框架,并于8月1日正式生效。
此次实施的是该法案的初步合规要求,主要涉及法案第五条中规定的具有“不可接受风险”的AI应用。这些应用包括:用于社会信用评分的AI、采用潜意识或欺骗手段影响个人决策的AI、利用年龄、残疾或经济状况等脆弱性的AI、依据外貌判断犯罪倾向的AI、运用生物识别技术推测个人属性(例如性取向)的AI、在公共场合实时采集生物识别信息供执法机构使用的AI、试图在学校或职场分析人们情绪的AI,以及通过抓取网络图片或监控视频建立或扩充人脸识别数据库的AI。
任何公司,无论其总部设在何地,只要在欧盟境内使用上述任一AI应用,都将面临罚款,最高可达3500万欧元(注:约合2.64亿元人民币)或上一财年全球营业收入的7%,以较高者为准。
英国律师事务所Slaughter and May的技术主管Rob Sumroy在接受采访时指出,罚款不会立刻生效。尽管各组织需要在2月2日之前达到全面合规状态,但下一个关键的时间点将是8月。到那时,监管机构的身份将会明确,相应的罚款与执行措施也会正式实施。 从目前的信息来看,企业与组织还有几个月的时间去适应新的法规要求。这表明监管机构正在采取一种渐进的方式来推动合规性,而不是立即对未能及时达标的企业施加严厉的经济处罚。这样的做法有助于相关方有充足的时间来调整内部流程和系统,以确保最终能够满足所有法律标准。同时,这也为监管机构提供了更多时间来完善具体的执行细节,从而确保未来执法过程中的公平性和透明度。
去年 9 月,超过 100 家公司签署了欧盟人工智能契约,自愿承诺在人工智能法案生效前开始应用其原则。签署方包括亚马逊、谷歌和 OpenAI,它们承诺识别可能被归类为高风险的 AI 系统。然而,包括 Meta 和苹果在内的一些科技巨头并未签署该契约,法国人工智能初创公司 Mistral 也未签署。
Sumroy指出,由于所列的违规行为大多涉及不道德或非法活动,大部分企业自然不会涉足其中。他强调,企业更关注的是,能否尽快制定出明确的指导方针、标准和行为准则,并且这些准则是否能够为企业在合规方面提供足够的清晰度和指引。 这种对明确规范的需求反映了当前商业环境中企业对于法律框架和道德标准的迫切需求。在全球化和数字化不断发展的背景下,企业面临的合规挑战日益复杂。因此,及时出台有效的指导方针不仅有助于企业规避风险,还能促进公平竞争,增强消费者信心。
该法案在一些禁令中设定了例外情况,以应对紧急和特殊情况。比如,它允许执法部门在特定条件下使用公共场所的生物识别数据收集系统,以协助进行“有针对性的搜索”,如寻找失踪儿童或阻止“特定、重大且迫在眉睫的”生命威胁。不过,这样的例外措施必须得到相关监管机构的批准。同时,法案明确指出,执法部门不得仅仅依赖这些系统的输出来做出可能带来负面法律后果的决定。此外,对于在工作场所和学校中用于推断情绪的系统,法案也设定了例外情况,前提是出于“医疗或安全”的考虑,例如支持心理健康治疗的系统。 这一系列的规定反映了立法者试图在保障公共安全和个人隐私之间找到平衡点。虽然这些例外情况为执法行动提供了必要的灵活性,但同时也设置了严格的监管机制,以防止滥用。这表明,尽管技术的进步为社会带来了便利,但也引发了对隐私保护的新挑战,如何在不牺牲个人权利的前提下利用科技,成为了一个值得深思的问题。
欧盟委员会之前宣布,计划在与各方利益相关者进行11月的讨论后,“2025年初”发布更多的指导方针,然而这些指导方针至今仍未公布。Sumroy表示,目前尚不清楚现有的其他法律法规将如何与人工智能法案中的禁令和规定相互协调。预计要到今年晚些时候,随着执行期限的临近,这一情况才会变得更加明朗。
Sumroy指出,各组织需要认识到,人工智能监管并不是一个孤立存在的领域。其他法律框架,例如GDPR(通用数据保护条例)、NIS2(网络与信息安全指令2)以及DORA(数字运营韧性法案),都将与即将出台的人工智能法案产生互动,特别是在多重事件通知要求方面可能会带来挑战。理解这些法律框架之间的相互作用,对于掌握人工智能法案的实际影响同样重要。 这种法律上的相互关联性表明,企业在准备应对人工智能带来的变革时,还需要具备跨领域的法律知识。这不仅增加了合规工作的复杂性,也提醒我们,未来的企业不仅要擅长技术开发,还要精通法律法规的融合与应用。因此,企业和政策制定者需要加强合作,共同构建一个既支持创新又确保安全的法律环境。