本讲解员概述了生成更小、更高效的语言模型的技术,这些模型需要更少的资源来开发和操作。重要的是,关于如何利用这些技术以及随后的许多小型模型的信息可以在网上公开供任何人使用。小型(即易于使用)和开放(即易于访问)的结合可能对人工智能的发展产生重大影响。
成为新闻头条的人工智能,如ChatGPT,通常在维护良好的数据中心运行,拥有丰富的计算和电力供应。然而,这些资源在现实世界中的许多系统上更为有限,如无人机、卫星或地面车辆。因此,可以在这些设备上运行的人工智能往往不如最先进的模型。这可能会影响它们的可用性,以及在高风险环境中对额外保障措施的需求。本期简要介绍了这些挑战的背景,并为决策者提供了如何利用这些技术的建议。
当前的人工智能网络安全模式侧重于使用自动化工具进行检测,但它在很大程度上忽略了整体自主网络防御系统——那些可以在没有人工任务的情况下行动的系统。随着培训基于强化学习的人工智能代理以提供更广泛的自主网络安全能力的工具激增,这种情况即将发生变化。由此产生的代理人仍然是初级的,出版物也很少,但目前的障碍是可以克服的,有效的代理人将对社会大有裨益。
尽管新加坡是一个小城市国家,但它作为人工智能中心的地位仍在继续上升,为国际合作提供了重要机会。快速跟进专利审批、激励私人投资和解决人才短缺等举措正在使该国成为快速增长的全球人工智能中心。这些举措为那些寻求利用技术和机会在人工智能教育和人才交流、研发和治理方面进行合作的人提供了潜在的模式。美国和新加坡在开发和使用值得信赖和负责任的人工智能方面有着相似的目标,应继续促进公共和私营部门实体之间的更大合作。
Grid发表的一篇文章引用了CSET的Josh Goldstein、Micah Musser和CSET校友Katerina Sedova与OpenAI和斯坦福互联网观测站合作的一份报告。该报告审查了未来在影响力行动中可能滥用语言模型的情况,并提出了一个评估这一问题可能解决方案的结构。
Medium上发表的一篇文章引用了CSET的Josh Goldstein、Micah Musser和CSET校友Katerina Sedova与OpenAI和斯坦福互联网天文台合作的一份报告。该报告探讨了语言模型在未来如何被滥用于影响行动,并为评估潜在的缓解策略提供了一个框架
《科技宇宙》的一篇文章中提到了CSET的Josh Goldstein、Micah Musser和CSET校友Katerina Sedova与OpenAI和斯坦福互联网天文台合作的一份报告。该报告探讨了语言模型在未来如何被滥用于影响行动,并为评估潜在的缓解策略提供了一个框架 阅读《宇宙杂志》的完整文章。
CSET的Josh Goldstein、Micah Musser和CSET校友Katerina Sedova与OpenAI和斯坦福互联网观察站合作的一份报告对人工智能生成的文本如何传播影响操作进行了全面分析,并就政府、人工智能开发人员和技术平台可能对此做些什么提供了一些深思熟虑的想法。
计算能力,俗称“计算”,是完成计算任务所需的处理资源,例如训练人工智能(AI)系统。计算可以说是推动人工智能进步的关键因素。在过去的十年里,它实现了越来越大、越来越强大的神经网络,并开创了深度学习时代。考虑到计算机在人工智能发展中的作用,现在是制定标准实践来跟踪这些资源使用情况的时候了。现代机器学习模型,尤其是许多最通用的模型,比它们的前辈使用更多数量级的计算。利益相关者,包括人工智能开发人员、政策制定者、学术界和民间社会组织,都有理由跟踪人工智能项目中使用的计算量。计算既是一种商业资源,也是一个巨大的能源消耗者(因此也是碳排放的潜在因素),也是模型能力的粗略代表。然而,目前还没有公认的计算会计标准。
高级研究员Andrew Lohn在参议院军事网络安全小组委员会作证时表示,美国是全球领先的人工智能创新者。周二,专家们在参议院军事互联网小组委员会的听证会上向立法者简要介绍了人工智能在网络空间的应用。