释放可能性,忽视风险:为什么我们需要工具来管理人工智能对工作的影响
Unleashing possibilities, ignoring risks: Why we need tools to manage AI’s impact on jobs
2023-08-17
Brookings Institution (United States)
近年来,基于大型语言模型(LLM)的系统,如ChatGPT,取得了令人兴奋的进展,为其所能提供的可能性带来了巨大的兴奋。然而,这些发展也引发了对工作被取代和人力需求潜在下降的新担忧,涵盖了从软件开发人员到编剧等各种职业。OpenAI和宾夕法尼亚大学的研究人员最近进行的一项研究强调,白领工作面临由LLM驱动的自动化的广泛风险,以及相关工具。然而,据我们所知,这些日益增长的担忧并没有引发标准制定和国际政府组织正在制定的人工智能影响评估框架,以及人工智能公司所遵循的“负责任人工智能”实践,将劳动力需求的风险纳入其范围之内。
在人工智能治理框架中忽视劳动力需求的风险是危险的。人工智能有时会使工人从工作中获得最有意义的部分,而不是让人们希望人工智能会承担的单调、危险或重复性的任务。这让工人不得不在高度监控的、算法管理的工作场所中纠正机器错误。领先的经济学家警告说,人工智能可能加剧中产阶级的空心化,通过减少不需要高级学位的稳定、高薪工作的可用性,加速任务自动化,同时在创造新任务方面落后于人力工人。这两个趋势在最近的人工智能进步之前就已经存在,而且可能因此而恶化。
在提出解决人工智能劳动力市场风险并利用其机会的干预措施之前,我们必须了解当前的人工智能发展轨迹为何偏向过度自动化和工人替代。人工智能创新者的激励机制和人工智能研究的路径依赖为我们提供了对这个问题的见解。
往往与人工智能监管无关的政策间接地鼓励过快的劳动自动化。例如,美国的税法偏爱对软件和自动化的投资,而不是劳动力。高劳动力流动性壁垒在美国人为地限制了劳动力供应,鼓励了“一般的技术”——这些工具将任务转移到消费者身上,消除了工作而没有显著提高生产率,比如自助结账或机器人客户支持。这种自动化的全球传播可能逆转减贫几十年的努力,在工作不是劳动稀缺的地区消除正式部门的就业机会。
历史上,当技术变革导致工作条件恶化时,工人集体帮助平衡影响。他们的斗争为工业革命带来了共同的利益,最初使工人陷入贫困。然而,当前美国私营部门的工会参与率只有6%。在组合中,极度扭曲的激励和削弱的工会运动使得更有可能将人工智能用于强调降低劳动成本而不是提高工作质量的用途。
这种背景使得人工智能开发者的角色和他们所做的选择变得更加重要。受此思考的启发,人工智能伙伴关系最近发布了《人工智能与共享繁荣指南》,我们都有所贡献。该指南旨在为有兴趣的利益相关者提供所需的概念工具,以引导人工智能为共享繁荣和改善就业机会和就业质量服务,并可以为人工智能创造或使用组织的自愿劳动风险管理和人工智能治理政策框架提供参考。它们可以帮助工会和工人倡导组织准确定位人工智能系统引入工作场所所带来的主要风险和机会。在确定了这些问题之后,指南还可以建议包括在集体谈判协议中的条款。
对劳动市场的人工智能风险和机会进行全面分析,可以帮助利益相关者为特定地区构建或审查就业创造战略;评估承诺创造可持续就业的减税措施的优点;并确定何时详细的情景分析和量化人工智能对工资和就业的影响的效果特别有用。
特别是,《人工智能与共享繁荣指南》提供了两种旨在帮助弥补大多数人工智能治理框架在劳动风险评估和减轻方面存在的差距的工具:(1)一个高层次的就业影响评估工具,任何有兴趣的利益相关者都可以使用,以及(2)一组专门针对人工智能创建组织和使用人工智能组织的负责任实践。就业影响评估提供了一种系统评估用于改善工人福祉和人工智能共享繁荣的机会信号以及引入人工智能系统可能损害工人的风险信号的方法。负责任的实践集合建议,例如,让工人在人工智能系统的起源、开发和部署中真正发表意见;提供关于人工智能系统运作的有意义的解释;确保透明关于工人数据的收集和使用;并承诺对工人组织保持中立,包括不使用人工智能来识别可能的组织努力。
重要的是,通过人工智能带来共享繁荣的机会信号不一定会“抵消”人工智能系统带来的风险。原因很简单:利益和成本往往由不同的社区承担。通过采用负责任的实践,组织可以最大程度地确保人工智能带来的好处将得到广泛分享,并建立每个已识别风险的缓解策略。风险缓解策略可能包括消除风险或减轻潜在影响的严重性,以确保受影响的群体获得补救或赔偿的机会。
预测新技术对劳动需求的影响是困难的,涉及重大不确定性。有人会辩称,鉴于不确定性,我们应该让市场的“看不见的手”决定我们的技术命运。但我们认为,难以回答“谁会受益,谁会受损?”这个问题不应该成为从一开始就不提出这个问题的借口。正如我们强调的,削减劳动成本的激励因素是人为膨胀的。此外,不适用于技术变革的是看不见的手定理。因此,不调查人工智能的利益和成本分配风险的能力会引发一种未来,其中人工智能的“一般”用途过多,即集中了收益,同时分散了成本。尽管关于人工智能系统的下游影响的预测总是涉及一些不确定性,但它们仍然有助于及早发现人工智能应用程序的风险,并引导人工智能的潜力到社会最需要的地方。
在当今社会,劳动市场作为分配收入的主要机制,同时也为人们提供了一种意义、社区和目的感。已经有记录表明,失业可能导致地区衰落, “绝望之死”增加,成瘾和心理健康问题。我们提出的路径旨在防止国家和全球范围内的突然失业或工作质量下降,为管理人工智能驱动的劳动力市场转型的速度和形状提供额外的工具。
然而,我们不想排除这样的可能性,即在机器承担更多经济上有价值的工作的世界中,人类最终可能会更加幸福。即使尽最大努力通过法规和以工人为中心的做法来管理人工智能劳动力市场的转型速度和形状,我们仍可能面临人工劳动需求明显减少的未来。如果随着人工智能的进展,人工劳动需求永久性下降,将需要及时的政策回应,以解决既失去的收入又失去的意义和目的感。在没有广泛分配先进人工智能所带来的收益的重大努力的情况下,人工劳动的可能贬值将深刻影响收入分配和民主制度的可持续性。虽然没有工作的未来并不是确定的,但其可能性和由此可能引发的潜在社会影响需要认真考虑。一个有希望的建议是,如果工人收入份额下降,就自动启动对人工劳动需求大幅下降的保险政策,例如一个“种子”通用基本收入,从一个非常小的水平开始,如果工人继续繁荣,就保持不变,但如果大规模的工人流动性失去,它将自动提高。
我们欢迎白宫科学和技术政策办公室要求公众在AI启用的工作场所监控背景下提出有助于减轻工人风险的最佳实践建议。然而,我们要指出,迫切需要将人工智能的更广泛的劳动影响纳入自愿和法律上规定的人工智能开发和部署规范的范围之内。我们希望《人工智能与共享繁荣指南》等倡议将有助于改变今天的危险现状,其中人工智能与工作相关的风险在实践中经常被忽视。此外,我们还必须调查如何应对人工劳动需求可能永久性下降的问题,以及它对收入分配和民主治理可持续性的潜在影响。
《智库资源动态快报》2023年第8期
编译者:肖曼