AI 开发不必"因噎废食",但必须以伦理为先
本文作者:Christina Montgomery,IBM首席隐私诚信官;Francesca Rossi,IBM研究院AI伦理全球负责人
北京2023年5月9日/美通社/ -- 随着生成式 AI系统进入公共领域,让世界各地的人们接触到新的技术可能性、影响,甚至是此前尚未考虑的后果。得益于 ChatGPT和其他类似的系统,现在几乎任何人都可以使用高级 AI 模型,这些模型不仅能够具有早期版本的检测模式、挖掘数据和提出建议等能力,还能创造新内容、在对话中生成原创的回复等。
(相关资料图)
AI 开发不必“因噎废食”,但必须以伦理为先
AI 发展的转折点
当生成式AI 功能的设计合乎伦理、并以负责任的方式推向市场时,它将为企业和社会带来前所未有的机遇,包括:提供更好的客户服务,改善医疗系统和法律服务;以及支持和增强人类的创造力,加快科学研发,并调动更有效的方法来应对气候挑战。
关于AI 的开发、部署和使用及其加速人类进步的潜力,我们正处于一个关键节点。然而,这种巨大的潜力也伴随着风险,例如产生虚假内容和有害文本、泄露隐私,偏见被放大,同时,这些系统的运行也缺乏透明度。因此,合理质疑AI 对于劳动力、创造力以及人类整体福祉意味着什么,这至关重要。
行业需要新的AI 伦理标准
最近,一些科技行业的意见领袖联名呼吁,将大型AI 模式的训练暂停 6 个月,以留出时间制定新的AI伦理标准。其意图和动机无疑是好的,但它忽略了一个基本事实:这些系统目前仍在我们的控制范围内,基于它们构建的解决方案也是如此。
负责任的训练,以及基于多方合作、将AI伦理贯穿始终的开发路径,可以使这些系统变得更好而不是更糟。AI技术无时不刻都在演进和迭代。因此,不论是正在使用或是等待上线的AI系统,其训练必须与构建负责任的AI这一目标保持一致。以负责任的AI为先不意味着要暂停AI开发。
持续采用和完善AI 伦理标准和规范,这项工作事关人人。IBM 在多年前就建立了行业最早的 AI 伦理委员会之一,以及全公司范围内的 AI 伦理框架。通过评估当前和未来的技术格局,包括我们的行业定位以及与利益相关方的协作,我们不断加强和完善这一框架。
IBM的AI伦理委员会打造了一个负责任的集中式治理结构,它覆盖AI的全生命周期,在制定明确政策、推动问责制的同时,也能灵活且敏捷地支持IBM的业务需求。在传统的和更先进的 AI 系统开发中,IBM一直践行着这一重要治理结构。我们不能只关注未来的风险,而忽视眼前的治理需要,比如价值对齐(value alignment,即AI在执行任务中实现的价值和用户所希望的价值是一致的)和 AI 伦理;后者也会随着 AI 的发展而不断演进。
除了协作和监督,打造这些AI系统的技术路径应该从一开始就考虑伦理因素。例如,我们对 AI 的担忧往往源于对"黑匣子"内部发生的情况缺乏了解。因此,IBM 开发了一个监管平台,用于监控模型的公平性和偏见与否,获取数据来源,最终形成更透明、可解释且可靠的 AI 管理流程。此外,IBM的企业级AI战略将信任嵌入整个AI生命周期中,从创建模型、训练系统所使用的数据,到这些模型在特定业务领域的应用。
接下来需要做什么?
首先,我们倡导企业将伦理和责任置于其 AI 议程的首位。全面暂停AI 训练或是降低AI 伦理的行业优先级,最终将事与愿违。
其次,政府应避免在技术层面对AI 进行过度监管。否则,这将成为一场"打地鼠"游戏,阻碍真正有益的、面向未来的创新。我们呼吁世界各地的立法者采取更加高效且精准的监管模式,对高风险的 AI 用例实施严格监管。
最后,在企业如何保护与AI 系统交互的数据隐私方面,仍然缺乏足够的透明度。 我们需要为用户提供一致的、可落地的个人隐私保护。
最近社会对AI 的广泛关注,正应了这句话:权力越大,责任越大。与其全面暂停 AI 系统的开发,不如打破协作壁垒,共同打造负责任的AI。
标签: