跳转到内容

3. 负责任的AI简介

  • 视频学习地址:https://youtu.be/2Pzk7ySufZM
  • 宝玉XP的翻译版本:https://www.youtube.com/watch?v=1ZsM2h-a6tY

欢迎和课程目标

大家好,欢迎收看「负责任的 AI 简介」。本课程将帮助您:

  • 了解 Google 为何制定 AI 原则。
  • 确定组织内对负责任的 AI 实践的需求。
  • 认识到在项目的所有阶段做出的决策都会对负责任的人工智能产生影响。
  • 认识到组织可以设计 AI 来满足他们自己的业务需求和价值观。

AI 的普及与快速发展

我们中的许多人已经与人工智能(或 AI)进行日常互动,从交通和天气预测到您接下来可能想看的电视节目的推荐。随着 AI 变得越来越普遍,它正在以惊人的速度发展,使计算机能够以十年前难以想象的方式观察、理解世界并与之互动。

人工智能的责任与挑战

尽管取得了显著进步,人工智能也并非万无一失。开发负责任的人工智能需要了解可能的问题、限制或意外后果。技术是社会存在的反映,所以如果没有良好的实践,人工智能可能会复制现有的问题或偏见,并放大它们。

负责任的人工智能:定义与原则

“负责任的人工智能”并没有一个通用的定义,也没有一个简单的清单或公式来定义负责任的人工智能实践应该如何实施。相反,组织正在制定自己的人工智能原则,以反映他们的使命和价值观。这些原则可能涉及透明度、公平性、问责制和隐私。

谷歌的责任与实践

在谷歌,我们对负责任的人工智能的态度植根于致力于为每个人打造的人工智能,它是负责任和安全的,尊重隐私,这是由卓越的科学驱动的。我们制定了自己的 AI 原则、实践、治理流程和工具,它们共同体现了我们的价值观并指导我们实现负责任的 AI 的方法。

责任的设计与实施

我们通过设计将责任纳入我们的产品和组织。与许多公司一样,我们使用我们的 AI 原则作为框架来指导负责任的决策制定。在如何应用负责任的人工智能方面,我们都可以发挥作用。无论您参与 AI 流程的哪个阶段,从设计到部署或应用,您做出的决策都会产生影响。

人们的角色与价值观

人们参与了 AI 开发的各个方面,从数据收集到模型部署。他们的决策是基于他们自己的价值观,这意味着每个决策点都需要考虑和评估,以确保所有选择从概念到部署和维护都是负责任的。

道德、责任与信任

负责任的人工智能并不意味着只关注明显有争议的用例。没有负责任的 AI 实践,即使是看似无害或具有良好意图的 AI 用例,也可能导致道德问题或意外结果。在谷歌,我们了解到在任何 AI 部署中建立责任可以产生更好的模型并与我们的客户和客户的客户建立信任。

负责任的人工智能等于成功的人工智能

我们通过一系列评估和审查围绕 AI 做出产品和业务决策。这些方法为我们跨产品领域和地域的工作注入了严谨性和一致性。它们首先要确保任何项目都符合我们的 AI 原则。这就是为什么开发人们可以信任的稳健流程很重要的原因,因此即使他们不同意最终决定,他们也会相信推动决策的流程。

七项 AI 指导原则

2018 年 6 月,我们宣布了七项 AI 原则来指导我们的工作。这些是积极管理我们的研究和产品开发并影响我们的业务决策的具体标准。以下是对每一个的概述:

  1. 人工智能应该对社会有益。任何项目都应考虑广泛的社会和经济因素,并且只有在我们认为总体可能收益大大超过可预见的情况下才会进行风险和不利因素。
  2. 人工智能应避免产生或加强不公平的偏见。我们力求避免对人造成不公正的影响,尤其是那些与种族、民族、性别、国籍、收入、性取向、能力和政治等敏感特征相关的影响或宗教信仰。
  3. 人工智能应该被构建和测试以确保安全。我们将继续制定和应用强有力的安全措施,以避免产生伤害风险的意外结果。
  4. 人工智能应该对人负责。我们将设计 AI 系统,为反馈、相关解释和申诉提供适当的机会。
  5. 人工智能应纳入隐私设计原则。我们将提供通知和同意的机会,鼓励具有隐私保护措施的架构,并提供适当的透明度和对数据使用的控制。
  6. 人工智能应该坚持科学卓越的高标准。我们将与一系列利益相关者合作,促进这一领域深思熟虑的领导,借鉴科学严谨和多学科的方法。我们将通过发布教育材料、最佳实践和研究来负责任地分享 AI 知识,使更多人能够开发有用的 AI 应用程序。
  7. 人工智能应该用于符合这些原则的用途。许多技术有多种用途,因此我们将努力限制可能有害或滥用的应用程序。除了这七个原则之外,还有一些人工智能应用我们是不会追求的。我们不会在这四个应用领域设计或部署人工智能: 造成或可能造成整体危害的技术。其主要目的或实施是造成或直接造成的武器或其他技术便于对人造成伤害。收集或使用违反国际公认规范的信息进行监视的技术。以及其目的违反广泛接受的国际法和人权原则的技术。

确立原则是一个起点,而不是终点。仍然真实的是,我们的 AI 原则很少直接回答我们关于如何构建产品的问题。他们不会——也不应该——允许我们回避艰难的对话。它们是确立我们的立场、我们构建的内容以及构建它的原因的基础,它们是我们企业 AI 产品成功的核心。