
《人工智能变革》:没有规则,人工智能将面临“信任危机”
全球正在竞相部署人工智能,但技术伦理领域的一位领军人物警告称,优先考虑速度而非安全可能会引发“信任危机”。
人工智能变革基金会 (AI for Change Foundation)创始人苏维安娜·格雷库 (Suvianna Grecu)认为,如果没有立即强有力的治理,我们将走上“大规模自动化伤害”的道路。
人工智能变革基金会创始人 Suvianna Grecu
在谈到人工智能与关键领域的融合时,格雷库认为,最紧迫的道德危险不是技术本身,而是其推广缺乏结构。
强大的系统越来越多地在各个方面做出改变生活的决定,从求职申请和信用评分到医疗保健和刑事司法,而且往往没有对偏见进行充分的测试或考虑其长期的社会影响。
对许多组织而言,人工智能伦理仍然是一份高尚原则的文件,而非日常运营的现实。格雷库坚持认为,真正的问责只有当有人真正对结果负责时才开始。意图与实施之间的差距才是真正的风险所在。
格雷库的基金会倡导从抽象概念到具体行动的转变。这包括通过设计清单、强制性部署前风险评估以及将法律、技术和政策团队聚集在一起的跨职能审查委员会等实用工具,将道德考量直接嵌入到开发工作流程中。
格雷库认为,关键在于在每个阶段明确责任,构建透明且可重复的流程,就像任何其他核心业务功能一样。这种务实的方法旨在推进符合伦理道德的人工智能,将其从一场哲学辩论转化为一系列可管理的日常任务。
合作建立人工智能信任并降低风险
在执法方面,格雷库明确表示,责任不能完全落在政府或行业身上。“这不是非此即彼的问题,必须两者兼顾,”她表示,并倡导合作模式。
在这种伙伴关系中,政府必须设定法律界限和最低标准,尤其是在涉及基本人权的情况下。监管提供了必要的底线。然而,行业拥有敏捷性和技术人才,能够超越单纯的合规进行创新。
公司最有能力创造先进的审计工具、开拓新的保障措施并突破负责任的技术所能实现的界限。
将治理完全交给监管机构可能会扼杀我们所需的创新,而将治理完全交给企业则会导致滥用。“合作是唯一可持续的前进之路,”格雷库断言。
促进价值驱动的未来
除了眼前的挑战之外,格雷库还担心更为微妙、长期且未得到足够重视的风险,即情感操纵和对价值驱动技术的迫切需求。
随着人工智能系统越来越擅长说服和影响人类情感,她警告说,我们还没有准备好应对这对个人自主权的影响。
她工作的核心原则之一是,技术并非中立。“除非我们刻意将价值观融入其中,否则人工智能不会受价值观驱动,”她警告道。人们普遍误以为人工智能只是反映了世界的本来面目。实际上,它反映了我们输入的数据、我们赋予它的目标以及我们奖励的结果。
如果没有刻意干预,人工智能必然会追求效率、规模和利润等指标,而非正义、尊严或民主等抽象理念,这自然会影响社会信任。正因如此,我们需要自觉主动地去决定,我们希望我们的技术推广哪些价值观。
对欧洲来说,这是一个关键的机遇。“如果我们希望人工智能服务于人类(而不仅仅是市场),我们就需要在政策、设计和部署等各个层面保护和融入欧洲价值观,例如人权、透明度、可持续性、包容性和公平性,”格雷库解释道。
这并不是要阻止进步。正如她总结的那样,这是为了掌控叙事,并积极地“在它塑造我们之前,先塑造它”。
通过其基金会的工作——包括公共研讨会和即将举行的欧洲人工智能与大数据博览会(格雷库在博览会第二天担任主席),她正在建立一个联盟来指导人工智能的发展,并通过将人类置于中心来增强信任。
© 版权声明
文章版权归作者所有,未经允许请勿转载。
相关文章
暂无评论...