人工智能理事会温迪·霍尔女爵士:以道德、多样性和创新塑造人工智能

人工智能理事会温迪·霍尔女爵士:以道德、多样性和创新塑造人工智能

人工智能理事会温迪·霍尔女爵士:以道德、多样性和创新塑造人工智能

温迪·霍尔女爵士是人工智能和计算机科学领域的先锋力量。作为著名的人工智能伦理演讲者和科技领域的领军人物之一,她致力于塑造新兴技术的伦理、技术和社会层面。她是网络科学研究倡议的联合创始人、人工智能理事会成员,并被 BBC广播4台《女性时间》 节目 评为英国100位最具影响力的女性之一。

作为负责任的人工智能治理和技术多样性的主要倡导者,Wendy 在全球有关人工智能未来的讨论中发挥了至关重要的作用。

在我们的问答中,我们与她谈论了人工智能行业的性别不平衡、新兴技术的伦理影响,以及企业如何利用人工智能同时确保它仍然是人类的财富。

人工智能领域仍然以男性为主。您能否分享一下您进入这个行业的经历,以及女性在人工智能和技术领域争取更多代表权所面临的挑战?

这真是令人沮丧,因为我的第一篇关于计算机领域女性匮乏的论文写于1987年,当时我们才刚刚开始在南安普顿教授计算机科学学位课程。那年十月,我们抵达大学,发现我们这门课程竟然没有女性注册——一个也没有。

人工智能理事会温迪·霍尔女爵士:以道德、多样性和创新塑造人工智能

人工智能理事会温迪·霍尔女爵士:以道德、多样性和创新塑造人工智能

于是,我们这些从事计算机行业的人开始讨论为什么会出现这种情况。原因有很多。其中一个重要因素是个人电脑的兴起,它最初被宣传为男孩的玩具,从根本上改变了当时的文化。从那时起,在西方——尽管在印度或马来西亚等国家情况并非如此——计算机一直被视为一种书呆子气的东西,只有“极客”才会玩的东西。许多年轻女孩根本不想与这种刻板印象联系在一起。到了她们准备参加GCSE考试的时候,她们往往已经不再把计算机当成一个选项,而问题就由此而来。

尽管我们付出了很多努力,却依然未能改变这种文化。近40年后,尽管女性在服装行业所占比例超过

全球人口的一半。女性在计算机和软件的设计和开发中基本上缺席。我们应用它们,使用它们,但我们并没有参与塑造未来技术的基础对话。

人工智能在这方面甚至更糟。如果你想从事机器学习工作,你需要数学或计算机科学学位,这意味着我们正在把一个本已由男性主导的行业推向一个更加男性主导的领域。

但人工智能不仅仅是机器学习和编程。它关乎应用、伦理、价值观、机遇以及降低潜在风险。这需要广泛多元的声音——不仅要涵盖性别,还要涵盖年龄、种族、文化和可及性。残障人士应该参与这些讨论,确保技术开发惠及所有人。

人工智能的发展需要多学科的投入——法律、哲学、心理学、商业和历史等等。我们需要所有这些不同的声音。正因如此,我认为我们必须将人工智能视为一个社会技术系统,才能真正理解其影响。我们需要全方位的多样性。

随着企业越来越多地将人工智能融入其运营中,他们应该采取哪些措施来确保新兴技术的开发和部署符合道德规范?

以面部识别为例。我们尚未完全制定何时以及如何应用这项技术的规则和规定。有人问过你是否想在手机上使用面部识别吗?它只是作为系统更新提供的,你可以选择启用或禁用。

我们知道,面部识别技术在中国被广泛用于监控,但它也正在欧洲和美国逐渐普及。安全部门正在采用这项技术,这引发了人们对隐私的担忧。与此同时,我很欣赏夜间停车场有闭路电视监控——它们让我感到更安全。

这种二元性适用于所有新兴技术,包括我们尚未开发出来的人工智能工具。每一项新技术都有其优缺点——可以说是阴与阳。好处和风险总是相伴而生。

挑战在于如何在降低风险的同时,最大限度地造福人类、社会和企业。这才是我们必须关注的重点——确保人工智能服务于人类,而不是损害人类。

人工智能的快速发展正在改变着我们的日常生活。您如何展望人工智能的未来?它将给社会和我们的工作方式带来哪些重大变化?

我认为未来人工智能将成为决策过程的一部分,无论是在法律案件、医疗诊断还是教育领域。

人工智能已经深深融入我们的日常生活。如果你在手机上使用谷歌,你就是在使用人工智能。如果你用面部识别解锁手机,那也是人工智能。谷歌翻译?也是人工智能。语音处理、视频分析、图像识别、文本生成和自然语言处理——这些都是人工智能驱动的技术。

目前,生成式人工智能(尤其是 ChatGPT)备受关注。就像“胡佛”成为吸尘器的代名词一样,ChatGPT 也成了人工智能的简称。实际上,它只是 OpenAI 创建的一个巧妙的接口,允许公众访问其生成式人工智能模型。

感觉就像你在和系统对话,提出问题并收到自然语言的回应。它还能处理图像和视频,这让它看起来非常先进。但事实上,它并不智能,没有感知能力。它只是根据训练数据预测序列中的下一个单词。这是一个至关重要的区别。

随着生成式人工智能成为企业的强大工具,企业应该采取哪些策略来利用其能力,同时在流程和决策中保持人性化的真实性?

生成式人工智能没什么可怕的,我相信我们都会越来越多地使用它。本质上,它是一种能够协助撰写、总结和分析信息的软件。

我把它比作计算器刚出现的时候。当时人们非常愤怒:“我们怎么能允许学校使用计算器?我们能相信它们提供的答案吗?”但随着时间的推移,我们逐渐适应了。例如,金融行业现在完全由计算机运行,但它雇佣的员工比以往任何时候都多。我预计生成式人工智能也会出现类似的情况。

人们将不再需要写无休止的论文,从而感到轻松。人工智能将增强创造力和效率,但它必须被视为增强人类智能的工具,而不是取代人类智能,因为它还不够先进,无法取代人类智能。

看看法律行业。人工智能可以汇总海量数据,评估法律案件的可行性,并提供预测分析。在医疗领域,人工智能可以辅助诊断。在教育领域,它可以帮助评估学习困难的学生。

我设想人工智能将被整合到决策团队中。我们将咨询人工智能,向它提问,并以它的回答作为指导——但必须记住,人工智能并非万无一失。

目前,人工智能模型是基于存在偏见的数据进行训练的。如果它们依赖互联网上的信息,那么很多数据都是不准确的。当人工智能系统没有确定的答案时,它们还会通过生成虚假信息而产生“幻觉”。这就是为什么我们还不能完全信任人工智能。

相反,我们必须将其视为合作伙伴——一个能够帮助我们提高生产力和创造力,同时确保人类仍然掌控一切的伙伴。或许人工智能甚至能为缩短每周工作时间铺平道路,让我们有更多时间从事其他活动。

© 版权声明

相关文章

暂无评论

none
暂无评论...