加州人工智能法案行将经过,或将与欧盟AI法案构成协同

09-04 609阅读 18评论

2024年8月28日,美国加利福尼亚州的一项提案《前沿人工智能模型安全立异法案》(以下简称SB1047)在州议会获得经过。接下来,加州州长加文·纽瑟姆(Gavin Newsom)有必要在9月30日之前便是否签署这项法案做出决议。


因而,加利福尼亚或许成为美国第一个针对大型人工智能模型拟定全面安全办法的州。


SB1047开端克服了来自许多科技公司及加州众议院民主党的剧烈抵抗,对人工智能模型施行美国首个安全规范——要求最先进的人工智能模型进行安全测验,并采纳恰当的维护办法和方针,以避免严峻的损害;一起树立了一个国家实体来监督这些模型的开展,并赋予州检察长向开发商提起诉讼的权利。


美国加州具有《福布斯》全球50强人工智能公司中的32家,此外依据Crunchbase的数据,2023年全球超越50%的人工智能危险出资资金都流向了总部坐落美国加州的公司,美国加州无疑是全球人工智能立异和开展最首要的中心。现在美国国会层面没有树立人工智能监管的联邦结构,因而SB1047如能经过,其影响或许会远远超出加州的鸿沟,导致“萨克拉门托效应”——即对美国乃至全球的科技职业方针产生严峻影响,类似于“布鲁塞尔效应”。


一、加州提案——美国AI监管博弈的缩影


美国加州的SB1047是由担任旧金山州参议员的民主党人斯科特·维纳(Scott Wiener)提出的。它之所以被提出,是因为美国在国会层面对AI监管仍存在严峻不合,一时僵持不下。尽管前议长南希•佩洛西、旧金山湾区众议员佐伊·洛夫格伦和罗·卡纳都主张加州应该将人工智能监管权交给联邦政府,但维纳及其他支撑提案的议员以为,加州需求打破“国会的不作为”


而美国国会之所以在AI监管范畴停滞不前,一方面是因为,人工智能职业的科技公司和出资者投入的数千万美元游说资金作用开端显露出来——美国科技公司让立法者开端信任,人工智能的先进性对美国来说并不行怕,从大国竞赛和商业的视点来看,严厉的安全规矩或许会束缚美国的立异,并将使美国的人工智能优势拱手让给我国


美国两党人工智能小组的一位参议员托德·杨近期曾表明,国会中的许多人现已抛弃了从前对这项技能快速开展的惊骇情绪,并以为“对这些(AI)模型了解得越多,他们就越信任咱们政府现已采纳的办法大体上是恰当的”。


从另一方面来讲,关于以很多金钱为后台的争辩两边来说——一方正告说人工智能对人类构成生计危险,另一方则正告不要拟定减缓其对国家安全产生革新性影响的规矩——人工智能导致国际毁灭性的损害尚无实证,国会因而关于“企图阻挠的要挟或损害是什么”并没有定见,因而无法确认其方针的优先事项


这一“哲学式争辩”和博弈难题,在加州SB1047评论中有相同的体现,也凸显了科技界内部对人工智能的未来及其要挟的杂乱不合。


二、环绕SB1047的争辩问题


1、职责归属——开发者无法承当的职责?


依据SB1047,AI开发人员将承当技能被别人乱用所导致的职责。开发者不只需求创立一个“停止开关”——模型呈现问题时将其封闭,他们还有必要保证不会开发具有“危险才干”的模型,例如制作生物兵器或核兵器或帮忙网络安全进犯。假如他们不恪守规则并且他们的模型被用于要挟公共安全,他们将面对加州检察长的诉讼。


兵器制作商不会因违法的枪击事情而被追查职责,交际媒体公司仰赖“避风港原则”而对渠道内容免责。假如SB1047要求开发人员对技能的不行预见的运用担任,那么该法案监管的便是“技能”自身,而非“技能的运用”


加州核算机和通讯职业协会(CCIA)州方针主管Khara Boender就因而揭露对立该法案,她以为,一方面在事实上,这一归责办法让开发者“难以承当”;另一方面,追查乱用技能的不良行为者的职责,才是法令的应有之义。


正如对SB1048的支撑者所言,对能源网的歹意进犯或针对人类灭绝的流氓算法,最有才干了解这些技能的开发者们,当然应当采纳安全保证办法。但当立法者将人工智能道德要求开发者的“审慎”建议转化为法令责任时,就会产生上述这类责任在归因和设置方面的“错位”感——不施加责任就忧虑失控,追查职责又显得过重或不合理。这也是当下咱们对人工智能技能了解以及立法技能还不行老练的体现。


2、用出资金额来设定阈值的合理性


SB1047要求运用本钱至少为1亿美元并运用10^26次浮点运算(衡量体系强壮核算才干的目标——拜登在2023年行政命令中运用的核算基准相同)练习的人工智能模型的开发人员恪守并宣布安全方案(SSP),以避免他们的模型形成“严峻损伤”,即形成大规划人员伤亡或超越5亿美元的物质丢失。据称,现在还没有人工智能模型到达这一门槛。


门槛的划定,一直是法令专家热议的论题之一。不管这个门槛依据什么规范、定在什么规划,都不行避免地会呈现一个“过期”的问题。假如SB1047成为法令,职业规划和出资金额或许在其收效期间产生巨大变化,这一门槛很或许会将很多公司包含进来,而并非像提案者维纳议员所说,只会影响“最大的人工智能开发商”。


尽管从理论上,核算资源越大的人工智能模型,其才干及或许形成的损害也越大;但反过来,SB1047首要针对的是能够制作大规划杀伤性兵器和具有网络进犯才干的人工智能,这类危险类型和性质与开发本钱并不一定是肯定挂钩的联系。科技开展的规则就通常是,做好事和坏事的本钱都会越来越低,不久的将来(或许包含现阶段)专门用于兵器的人工智能或许并不需求那么大的本钱。而依据修正案,本钱低于1000万美元的微调开源模型将不受该法案的束缚,这对开源社区和草创公司来说或许是个好消息,但关于立法者来说,其防备极点危险的立法意图却未必能够因而而达到。


3、自治vs监管


谷歌等大公司宣称,他们在完善产品时都采纳了内部维护办法,并表明最好答应这种自我监管。2023年7月,在美国白宫的建议和引导下,亚马逊、Anthropic、谷歌、Inflection、Meta、微柔和OpenAI等7家美国科技公司签署了一份题为《保证安全、有保证、值得信任的人工智能》的文件,以保证“人工智能技能的安全、牢靠和通明的开发”。


可是维纳等立法者以为,政府有必要进行干涉,规则一种负职责的平衡。他表明,当科技公司许诺其技能安全,但却回绝政府监督其安全测验时,这种“自我监管”是否牢靠地接受赢利鼓励的压力而得以完成,是值得置疑的


因而,SB1047还特别包含了“为职工供给举报人维护”的条款,制止所涉模型的开发者阻挠职工向司法部长或劳工专员宣布信息,或对宣布信息的职工进行报复。


2024年6月,美国抢先的人工智能公司OpenAI、谷歌DeepMind和Anthropic的一群现任和上一任职工揭露宣布了一封信,指出人工智能公司优先考虑经济利益、躲避监管,不只向大众隐秘先进人工智能的危险,并且制止其职工自在宣布言辞。这封信背面的安排宣称,因为人工智能公司不需求向政府宣布太多信息,因而他们体系的真实才干仍是一个“隐秘”。


这显然是立法者忧虑的本源地点。


三、美国和欧盟监管联动:萨克拉门托效应“弥补”了布鲁塞尔效应


欧盟和美国的战略在依据危险的办法上具有概念上的共同性,就值得信任的人工智能的要害原则达到了共同,并认可国际规范的重要作用——这首要归功于欧盟-美国贸易与技能委员会(TTC)在人工智能范畴获得的开端成功。


可是,欧美人工智能危险管理制度的具体内容差异大于相似之处。整体而言,欧盟的办法比美国具有更为会集的协谐和全面的监管掩盖规划。加州的SB1047假如经过,将缩小欧美监管的这一差异,添加其协同效应。


具体来说,假如SB1047对在该州开展业务的人工智能公司产生了合规本钱,这些公司在恪守欧盟《人工智能法》的本钱增幅就会更低


此外,欧盟委员会人工智能办公室现在正在牵头一个多利益相关方进程,拟定通用人工智能实践原则,具体阐明在欧盟运营的开发商有必要采纳哪些办法才干恪守该法规。从文本比照来看,SB1047的通明度要求比欧盟《人工智能法》规则得更具体。欧盟委员会官员清晰表明,欧盟正在亲近重视加州的立法动态,并乐意“交换意见”。欧盟的专家称,欧盟《人工智能法》的施行能够、且应当从SB1047中罗致创意,并以此为参照


四、展望


加州州议会和参议院的民主党优势很大,州长加文·纽瑟姆(Gavin Newsom)也是民主党人。没有党派僵局,加州经过法令法规比党派竞赛更剧烈的当地更简单,也因而不像美国国会那样遭到僵局和两极分化的影响。


可是SB1047的远景依旧不太明亮。加州众议院尽管以41:9的投票成果经过了该法案,可是其间许多民主党人没有投票,并且包含前议长南希•佩洛西和美国商会在内的国会民主党人倾向于联邦立法,并敦促州长纽瑟姆在该法案被提交到他的审议时予以否决。


纽瑟姆自己也是一位科技友爱型州长,在9月他将面对科技界游说的巨大压力。要知道,在SB1047法案剖析文件的附录中,清晰支撑该法案的组织有43家,但对立法案的有159家。

文章版权声明:除非注明,否则均为ZBLOG原创文章,转载或复制请以超链接形式并注明出处。

发表评论

快捷回复: 表情:
评论列表 (有 18 条评论,609人围观)
网友昵称:安靜
安靜 V 游客 沙发
采纳了内部维护办法,并表明最好答应这种自我监管。2023年7月,在美国白宫的建议和引导下,亚马逊、Anthropic、谷歌、Inflection、Meta、微柔和OpenAI等7家美国科技公司签署了一份题为《保证安全、有保证、值得信任的人工智能》的文件,以保证“人工智能技能的安全、牢靠和通
09-05 回复
网友昵称:温暖旳吢
温暖旳吢 V 游客 椅子
比美国具有更为会集的协谐和全面的监管掩盖规划。加州的SB1047假如经过,将缩小欧美监管的这一差异,添加其协同效应。具体来说,假如SB1047对在该州开展业务的人工智能公司产生了合规本钱,这些公司在恪守欧盟《人工智能法》的本钱增幅就会更低。此外,欧盟
09-05 回复
网友昵称:八荒烧烤
八荒烧烤 V 游客 板凳
大,州长加文·纽瑟姆(Gavin Newsom)也是民主党人。没有党派僵局,加州经过法令法规比党派竞赛更剧烈的当地更简单,也因而不像美国国会那样遭到僵局和两极分化的影响。可是SB1047的远景依旧不太明亮。加州众议院尽管以41:9的投票成果经过了该法案,可是其间许多民主党人没有投票,并且包
09-05 回复
网友昵称:银基
银基 V 游客 凉席
了来自许多科技公司及加州众议院民主党的剧烈抵抗,对人工智能模型施行美国首个安全规范——要求最先进的人工智能模型进行安全测验,并采纳恰当的维护办法和方针,以避免严峻
09-05 回复
网友昵称:我爱吃泡菜
我爱吃泡菜 V 游客 地板
penAI、谷歌DeepMind和Anthropic的一群现任和上一任职工揭露宣布了一封信,指出人工智能公司优先考虑经济利益、躲避监管,不只向大众隐秘先进人工智能的危险,并且制止其职工自在宣布言辞。这封信背面的安排宣称,因
09-05 回复
网友昵称:巴
V 游客 6楼
危险管理制度的具体内容差异大于相似之处。整体而言,欧盟的办法比美国具有更为会集的协谐和全面的监管掩盖规划。加州的SB1047假如经过,将缩小欧美监管的这一差异,添加其协同效应。具体
09-05 回复
网友昵称:【踏尘】
【踏尘】 V 游客 7楼
塞尔效应欧盟和美国的战略在依据危险的办法上具有概念上的共同性,就值得信任的人工智能的要害原则达到了共同,并认可国际规范的重要作用——这首要归功于欧盟-美国贸易与技能委员会(TTC)在人工智能范畴获得的开端成功。可是,欧美人工智能危险管理制
09-05 回复
网友昵称:单身⒈人
单身⒈人 V 游客 8楼
。他表明,当科技公司许诺其技能安全,但却回绝政府监督其安全测验时,这种“自我监管”是否牢靠地接受赢利鼓励的压力而得以完成,是值得置疑的。因而,SB1047还特别包含了“为职工供给举报人维护”的条款,制止所涉模型的开发者阻挠职工向司法部长或劳工专员宣布信息,或对宣布信息的职工进行
09-05 回复
网友昵称:心◢若清静
心◢若清静 V 游客 9楼
、自治vs监管谷歌等大公司宣称,他们在完善产品时都采纳了内部维护办法,并表明最好答应这种自我监管。2023年7月,在美国白宫的建议和引导下,亚马逊、Anthropic、谷歌、Inflection、Meta、微柔和OpenAI等7家美国科技公司签署了一份题为《保证安全、有
09-05 回复
网友昵称:成铁江
成铁江 V 游客 10楼
2024年8月28日,美国加利福尼亚州的一项提案《前沿人工智能模型安全立异法案》(以下简称SB1047)在州议会获得经过。接下来,加州州长加文·纽瑟姆(Gavin Newsom)有必要在9月30日之前便是否签署这项法案做出决议。因而,加利福尼亚或许成为美国第一个针对大型人工智能模型拟定全面安
09-04 回复
网友昵称:爬树的狗熊
爬树的狗熊 V 游客 11楼
规划杀伤性兵器和具有网络进犯才干的人工智能,这类危险类型和性质与开发本钱并不一定是肯定挂钩的联系。科技开展的规则就通常是,做好事和坏事的本钱都会越来越低,不久的将来(或许包含现阶段)专门用于兵器的人工智能或许并不需求那么大的本钱。而依据修正案,本
09-05 回复
网友昵称:冷冽
冷冽 V 游客 12楼
公司来说或许是个好消息,但关于立法者来说,其防备极点危险的立法意图却未必能够因而而达到。3、自治vs监管谷歌等大公司宣称,他们在完善产品时都采纳了内部维护办法,并表明最好答应这种自我监管。2023年7月,在美国白宫的建议和引导下,亚马逊、Anthropic、谷歌、Inflection、Meta、微柔
09-05 回复
网友昵称:叶隙
叶隙 V 游客 13楼
会之所以在AI监管范畴停滞不前,一方面是因为,人工智能职业的科技公司和出资者投入的数千万美元游说资金作用开端显露出来——美国科技公司让立法者开端信任,人工智能的先进性对美国来说并不行怕,从大国竞赛和商业的视点来看,严厉的安全规矩或许会束缚美国的立异,并将使美国的人工智能优势拱手
09-04 回复
网友昵称:有相思赋
有相思赋 V 游客 14楼
简单,也因而不像美国国会那样遭到僵局和两极分化的影响。可是SB1047的远景依旧不太明亮。加州众议院尽管以41:9的投票成果经过了该法案,可是其间许多民主党人没有投票,并且包
09-05 回复
网友昵称:恰好遇见你
恰好遇见你 V 游客 15楼
的诉讼。兵器制作商不会因违法的枪击事情而被追查职责,交际媒体公司仰赖“避风港原则”而对渠道内容免责。假如SB1047要求开发人员对技能的不行预见的运用担任,那么该法案监管的便是“技能”自身
09-05 回复
网友昵称:攒一口袋星星
攒一口袋星星 V 游客 16楼
报人维护”的条款,制止所涉模型的开发者阻挠职工向司法部长或劳工专员宣布信息,或对宣布信息的职工进行报复。2024年6月,美国抢先的人工智能公司OpenAI、谷歌DeepMind和Anthropic的一群现任和上一任职工揭露宣布了一封信,指出人工智能公司优先考虑经济利益、躲避监管,不只向大
09-05 回复
网友昵称:蓝影玉
蓝影玉 V 游客 17楼
法的州。SB1047开端克服了来自许多科技公司及加州众议院民主党的剧烈抵抗,对人工智能模型施行美国首个安全规范——要求最先进的人工智能模型进行安全测验,并采纳恰当的维护办法和方针,以避免严峻的损害;一起树立了一个国家实体来监督这些模型的开展,并赋予州检察长向开发商提起诉讼的权利。美国加州具有《福
09-05 回复
网友昵称:北清寒歌
北清寒歌 V 游客 18楼
工专员宣布信息,或对宣布信息的职工进行报复。2024年6月,美国抢先的人工智能公司OpenAI、谷歌DeepMind和Anthropic的一群现任和上一任职工揭露宣布了一封信,指出人工智能公司优先考虑经济利益、躲避监管,不只向大众隐秘先进人工智能的危险,并且制止其职工自在宣布
09-05 回复