在短短几个月内,生成型人工智能(AI)工具,如OpenAI的ChatGPT,如野火般蔓延,催生了一个利用该技术的全新产品和服务市场。与此同时,知名的人工智能研究人员继续警告这些商业部署的速度,称当前和未来人们面临着广泛的未经控制的风险。尤其是这些未来的风险,最近促使埃隆·马斯克和史蒂夫·沃兹尼亚克等一些人工智能研究人员、学者和技术领袖签署了一封有争议的信,呼吁“暂停”开发更强大的人工智能系统。,该信的签署者主张“新的、有能力的、专门致力于人工智能的监管机构”和“资源充足的机构,以应对人工智能将造成的巨大经济和政治混乱。”在《经济学人》最近的一篇文章中,也签署了这封信的著名人工智能评论家加里·马库斯教授,同样呼吁“立即发展一个全球性、中立、非营利的国际人工智能机构,得到政府、大型科技公司、非营利组织、学术界和整个社会的指导和支持,旨在合作寻找治理和技术解决方案,促进安全、有保障、和平的人工智能技术。”,即使是那些对“暂停”持怀疑态度的人,似乎也在推动类似的策略。例如,数据科学家、推特道德机器学习团队前负责人Rumman Chowdhury博士公开批评了这封信。她最近写了一篇评论文章,支持科技公司建立一个新的“通过不受限制的资金资助的生成性人工智能全球治理机构”,并引用了国际原子能机构和Meta监督委员会的先例。前联邦通信委员会主席、布鲁金斯学会研究员汤姆·惠勒提议成立一个“由薪酬适当的专家组成的专门而专注的联邦机构”。在美国,四个联邦机构最近发表了一份联合声明,提醒公司不存在“人工智能对法律的豁免”。同样,联邦贸易委员会(FTC)主席利娜·汗(Lina Khan)在最近的一篇专栏文章中辩称,尽管人工智能工具是新颖的,但它们也不能免受现有规则的约束,并补充道,“联邦贸易委员会拥有充分的法律管辖权,可以处理快速发展的人工智能行业带来的突出问题,包括勾结、垄断、合并、价格歧视和不公平竞争方法。“不幸的是,联邦贸易委员会和其他联邦机构的人员和资源甚至比欧洲同行更为稀少,并面临着政府支出的额外削减。”。,因此,新技术不一定会超过现有的法律法规,使其过时。相反,技术进步需要额外的资源来进行治理。随着我们引入的每一个新的法律框架或治理机制,资源问题只会变得更糟。我们还面临着失去关于这些法律法规如何应用于早期技术的重要机构知识和视角的风险。这可能会助长仅仅基于当前技术的短视观点。,换言之,随着每一个技术炒作周期的到来,都有人呼吁制定新的法律、法规和机构,尽管当局没有充分执行现有法律,也没有向现有机构投入足够的资源。是什么让我们认为新机制会更好?他们可能只是在更复杂的参与者和规则中进一步细分有限的公共资源吗?这可能是确保我们现有治理基础设施过时的最快方法。