本周在人工智能领域,一项新的研究表明,生成人工智能实际上并没有那么有害——至少不是从世界末日的意义上来说。
在提交给计算语言学协会年会的一篇论文中,巴斯大学和达姆施塔特大学的研究人员指出,像 Meta 的Llama家族中的模型如果没有明确的指导就无法独立学习或获得新技能。
研究人员进行了数千次实验,以测试几种模型完成以前从未遇到过的任务的能力,例如回答超出训练数据范围的问题。他们发现,虽然模型可以表面上遵循指令,但它们无法自行掌握新技能。
巴斯大学计算机科学家、这项研究的合著者哈里什·塔亚尔·马达布希 (Harish Tayyar Madabushi) 在一份声明中表示:“我们的研究表明,担心一个模型会消失并做出一些完全出乎意料、具有创新性且具有潜在危险的事情是没有道理的。”“这种人工智能对人类构成威胁的流行说法阻碍了这些技术的广泛采用和发展,也分散了我们对真正需要关注的问题的注意力。”
这项研究存在局限性。研究人员没有测试 OpenAI 和 Anthropic 等供应商提供的最新、最强大的模型,而且对模型进行基准测试往往是一门不精确的科学。但这项研究远非第一个发现当今的生成式人工智能技术不会威胁人类的研究——而且假设情况并非如此,可能会制定令人遗憾的政策。
去年,人工智能伦理学家亚历克斯·汉纳 (Alex Hanna) 和语言学教授艾米丽·本德 (Emily Bender) 在《科学美国人》的一篇专栏文章中指出,企业人工智能实验室正在将监管注意力转移到虚构的、世界末日的场景上,这是一种官僚主义的伎俩。他们指出,OpenAI 首席执行官山姆·奥特曼 (Sam Altman) 出席了 2023 年 5 月的国会听证会,在听证会上,他暗示生成式人工智能工具可能会“大错特错”,但没有任何证据。
“广大公众和监管机构绝不能落入这种陷阱,”汉娜和本德写道。“相反,我们应该向那些实践同行评审、抵制人工智能炒作的学者和活动家学习,试图了解其当下的有害影响。”
在投资者继续向生成式人工智能投入数十亿美元、炒作周期接近顶峰之际,他们和 Madabushi 的观点是需要牢记的关键点。支持生成式人工智能技术的公司面临很大的风险,对他们及其支持者有利的事情并不一定对我们其他人有利。
生成式人工智能可能不会导致人类灭绝。但它已经在其他方面造成了危害——非自愿深度伪造色情片的传播、错误的面部识别逮捕和大量报酬过低的数据注释者。政策制定者希望也能看到这一点并认同这一观点——或者最终转变态度。如果不是,人类很可能会有恐惧。