AI决策的未来:挑战高风险领域,迎接人工监督
智慧科技
12月18日消息,谷歌在其使用政策更新中明确指出,若有人工监督的情况下,客户可在“高风险”领域(例如医疗保健)应用其生成式人工智能工具进行“自动决策”。
根据公司本周二发布的《生成式AI禁止使用政策》更新版,客户可在特定条件下使用谷歌的生成式AI进行可能对个人权利造成重大不利影响的“自动化决策”,比如在就业、住房、保险及社会福利等方面。只要这些决策过程中包含一定程度的人类监督,就可予以执行。
注:在人工智能领域,自动化决策是指AI系统基于事实或推断数据作出的决策。例如,AI可能会根据申请人的数据作出是否批准贷款的决定,或者筛选求职者。这种技术的应用无疑极大地提高了金融和人力资源领域的效率,但同时也引发了一系列社会伦理问题。例如,在贷款审批过程中,AI系统可能无意中放大了某些群体的偏见,导致不公平的结果。同样,在招聘环节,虽然自动化决策能够快速处理大量简历,但也有可能忽略那些具备潜力但非传统背景的候选人。因此,如何平衡自动化决策带来的便利与潜在的社会公平性问题,成为当前亟待解决的重要课题。随着技术的发展,我们期待看到更多透明、公正且人性化的解决方案出现,以确保每个人都能公平地享受到科技进步带来的好处。
谷歌先前的条款草案指出,对于生成式AI在高风险自动化决策方面应进行全面禁止。然而,据谷歌向媒体TechCrunch透露,其生成式AI实际上并未禁止在高风险领域进行自动化决策,条件是这些决策需要经过人工监督。
谷歌发言人在接受采访时表示:“人工监督要求一直存在,适用于所有高风险领域。”他补充说:“我们只是对条款进行了重新分类,并更清楚地列举了一些具体例子,目的是让用户更加明了。”
针对那些影响个人的自动化决策,监管机构对AI的潜在偏见表达了深切的担忧。例如,有研究表明,用于审批信用和抵押贷款申请的AI系统有可能会加剧历史遗留的歧视问题。 这种现象不仅揭示了技术发展中的盲点,也反映了社会结构中根深蒂固的不平等。在追求技术创新的同时,我们不应忽视其可能带来的负面影响。确保算法公平性不仅是道德上的要求,更是维护社会正义的重要手段。监管机构需要加强对AI系统的审查力度,制定更为严格的标准,以防止任何形式的歧视和不公现象通过技术手段得以延续或放大。此外,社会各界也应共同努力,推动建立更加透明、公正的数据处理机制,从而保障每个人都能在公平的环境中获得服务与机会。
报道称,由于自动决策系统可能对个人产生影响,监管机构对这类人工智能系统的潜在偏见问题表示担忧。研究发现,应用于信贷和抵押贷款审批的人工智能系统有可能加剧历史上存在的歧视现象。