人工智能几乎不受监督地渗透到日常生活中 全美至少七个州正立法规范人工智能的偏见
【中美创新时报2024年3月6日讯】(记者温友平编译)虽然人工智能凭借 ChatGPT 成为头条新闻,但在幕后,该技术已经悄然渗透到日常生活中——筛选工作简历和出租公寓申请,甚至在某些情况下确定医疗护理。虽然许多人工智能系统被发现存在歧视,使天平向某些种族、性别或收入倾斜,但政府的监管却很少。至少七个州的立法者正在采取重大立法措施来规范人工智能的偏见,填补国会不作为留下的空白。这些提议是长达数十年的关于平衡这种模糊新技术的好处与广泛记录的风险的讨论的第一步。美联社记者杰西·贝达恩(JESSE BEDAYN)对此作了如下报道。
布朗大学教授、白宫人工智能权利法案蓝图的合著者苏雷什·文卡塔苏布拉马尼安 (Suresh Venkatasubramanian) 表示:“无论你是否意识到,人工智能实际上确实影响着你生活的方方面面。”“现在,你不会关心它们是否都工作正常。但他们没有。”
成功或失败将取决于立法者在与价值数千亿美元且以光年级速度增长的行业进行谈判时解决复杂问题的能力。
代表软件公司倡导的 BSA 软件联盟表示,去年,州议会提出的近 200 项人工智能相关法案中,只有大约 12 项通过成为法律。
这些法案以及今年正在讨论的 400 多项与人工智能相关的法案,主要旨在监管较小的人工智能领域。其中包括近 200 个针对 Deepfake 的提案,其中包括禁止色情 Deepfake 的提案,例如充斥社交媒体的泰勒·斯威夫特 (Taylor Swift) 的提案。其他人则试图控制聊天机器人,例如 ChatGPT,以确保它们不会说出制造炸弹的指令。
这些法案与适用于各行业的七项州法案是分开的,这些法案旨在监管人工智能歧视——该技术最反常和最复杂的问题之一——从加州到康涅狄格州都在争论。
那些研究人工智能歧视倾向的人表示,各国在建立护栏方面已经落后了。 使用人工智能做出相应的决策——法案称之为“自动决策工具”——很普遍,但很大程度上是隐藏的。
据估计,多达 83% 的雇主使用算法来帮助招聘;根据平等就业机会委员会的数据,财富 500 强公司的这一比例为 99%。
然而,皮尤研究中心的民意调查显示,大多数美国人并不知道这些工具正在被使用,更不用说这些系统是否存在偏见了。
人工智能可以通过所训练的数据来学习偏见,通常是历史数据,这些数据可以容纳过去歧视的特洛伊木马。
近十年前,亚马逊发现其招聘算法项目偏向男性求职者后,该项目就被搁置了。人工智能经过训练,可以通过学习过去的简历(主要是男性申请人)来评估新的简历。尽管该算法不知道申请人的性别,但它仍然会降低带有“女性”一词或列出女子大学的简历的评级,部分原因是它们在其学到的历史数据中没有得到体现。
集体诉讼律师克里斯汀·韦伯 (Christine Webber) 表示:“如果让人工智能从现有管理者历史上做出的决策中学习,并且这些决策历史上有利于某些人而不利于其他人,那么技术就会学到这些。” 诉讼指控人工智能系统对租房申请人进行评分歧视黑人或西班牙裔。
法庭文件描述了该诉讼的原告之一、黑人妇女玛丽·路易斯(Mary Louis),她申请在马萨诸塞州租一套公寓,但收到了神秘的答复:“我们用来筛选所有潜在租户的第三方服务已拒绝您的租赁。”
法庭记录显示,当路易斯提交两份房东证明材料,证明她已经提前或按时支付了 16 年租金时,她收到了另一份答复:“不幸的是,我们不接受上诉,也不能推翻租户筛选的结果。”
继加州去年失败的提案(这是监管私营部门人工智能偏见的首次全面尝试)之后,缺乏透明度和问责制正是这些法案所针对的目标。
根据该法案,使用这些自动化决策工具的公司必须进行“影响评估”,包括描述人工智能如何参与决策、收集的数据、对歧视风险的分析,以及对公司保障措施的解释 。根据该法案,这些评估将提交给州政府或监管机构可以提出要求。
有些法案还要求公司告诉客户将使用人工智能来做出决定,并允许他们选择退出,但有一些警告。
行业游说团体 BSA 负责美国政府关系的高级副总裁克雷格·奥尔布赖特 (Craig Albright) 表示,其成员普遍支持所提议的一些措施,例如影响评估。
“技术的发展速度比法律快,但法律赶上实际上有好处。因为这样(公司)就会明白自己的责任是什么,消费者就可以对这项技术有更大的信任,”奥尔布赖特说。
但立法的开局却乏善可陈。华盛顿州的一项法案已在委员会中搁浅,加州于 2023 年提出的一项提案(许多当前提案都是以该提案为蓝本)也被否决。
加州议会议员丽贝卡·鲍尔-卡汉 (Rebecca Bauer-Kahan) 放弃了公司定期提交影响评估的要求,并在 Workday 和微软等一些科技公司的支持下修改了去年失败的立法。其他已经或预计将提出法案的州包括科罗拉多州、罗德岛州、伊利诺伊州、康涅狄格州、弗吉尼亚州和佛蒙特州。
布朗大学的 Venkatasubramanian 表示,虽然这些法案是朝着正确方向迈出的一步,但影响评估及其消除偏见的能力仍然模糊。如果不能更多地获取报告(许多法案限制了这一点),也很难知道一个人是否受到人工智能的歧视。
识别歧视的一种更深入但更准确的方法是要求进行偏见审计——通过测试来确定人工智能是否存在歧视——并将结果公开。这就是业界反对的地方,认为这会暴露商业秘密。
大多数立法提案中都没有例行测试人工智能系统的要求,几乎所有立法提案还有很长的路要走。尽管如此,这仍然是立法者和选民与正在成为并将继续存在的技术进行斗争的开始。
题图:AI 能否在 2024 年大选中操纵选民?(图源波士顿环球报专题访谈)