因此,微软发布了首份年度《负任务的人工智能透明度报告》,旨在帮助公众理解微软是如何推进负任务的人工智能(RAI)实践的。
微软还在 Azure AI 中推出了新的工具供企业客户和开拓职员利用,以帮助保障其人工智能产品的输出质量,并戒备系统被恶意或意外利用。

构建负责任且大年夜规模的生成式人工智能的七个启示_人工智能_微软 计算机

这是对新兴技能和保障方法进行大规模压力测试的主要一年。
领导团队定义和管理微软实现 RAI 方法的 Natasha Crampton,以及卖力在微软全体产品组合中推动 RAI 履行的 Sarah Bird 分享了她们的几点心得。

#1:让RAI成为根本,而不是亡羊补牢

RAI 从来不是某个团队或某位专家的任务,而是微软全体员工的任务。
例如,每一位参与开拓天生式人工智能运用的员工都必须遵守公司的 “负任务的人工智能标准”(Responsible AI Standard)。
该标准详细列出了人工智能产品开拓的哀求,包括评估新人工智能运用可能带来的影响、制订操持以应对可能涌现的未知问题、及时确认必要的限定或变更方法等,以确保客户、互助伙伴以及人工智能运用的利用者能够做出明智的选择。

微软还在逼迫性培训方面进行了投资,希望提升全体员工对负任务地利用人工智能的意识和理解。
截至2023年底,99%的员工已经完成了干系培训。

Natasha Crampton 说:“我们不能将 RAI 当成产品发货前的‘检讨清单’。
我们须要从一开始就将其融入到产品的制造过程中,并确保公司的每个人从一开始就考虑 RAI 问题。

#2:做好快速发展的准备

人工智能产品的开拓是动态的。
为了广泛地推广天生式人工智能,我们必须快速整合来自浩瀚试点项目的用户反馈,并持续与用户保持互动——这不仅可以理解随着新技能被更多人采取而涌现的问题,还能探索如何提升用户体验,使产品更具吸引力。

正是通过这一过程,微软决定供应不同的对话样式——更有创造力、更平衡或更精确的模式——作为 Bing 搜索引擎 Copilot 的一部分。

Sarah Bird 强调:“我们须要共同进行一个实验周期,来考试测验多种可能性。
同时通过这一过程,汲取宝贵的履历,并据此对产品进行相应的优化、调度。

#3:集中发展从而更快实现规模化

随着 Microsoft Copilot 的推出,微软开始将人工智能技能整合至旗下所有产品中,以是公司须要构建一个更加集中化的系统来确保所有发布的产品均达到统一的高标准。
为此,微软正在 Azure AI 中开拓一个 RAI 技能栈,以便团队能够依赖统一的工具和流程。

此外,微软 RAI 专家团队还首创了一套新的管理方法,用以集中管理产品发布的评估和审批过程。
依据“共识驱动框架”,该团队在技能栈的每个层面,以及产品发布的前、中、后阶段,都会审查产品团队在识别、评估和管理天生式人工智能可能带来的风险时所采纳的方法。
同时,团队也会考虑测试、威胁建模和“Red Teaming”(一种通过考试测验毁坏或规避安全功能来对新的天生式人工智能技能进行压力测试的方法)中网络的数据

通过集中化的审查流程,微软能够更有效地创造并减少产品组合中的潜在安全漏洞,制订最佳实践策略,并确保与公司内部以及微软外部的客户和开拓者的信息能够得到及时共享。

Sarah Bird 说:“技能发展日月牙异。
我们必须真正集中精力一蹴即至,然后最大限度地利用这些履历教训。

#4:为人们明确信息来源

人工智能技能在创建逼真的合成***、音频和图像方面的能力日益精进,因此用户能够识别出人工智能天生内容的出处和来源就变得尤为关键。

今年2月,微软联合19家企业签署了一系列志愿性承诺,旨在在2024年美国大选期间打击人工智能的敲诈性利用以及潜在的 deepfakes 技能的滥用。
承诺内容包括开拓功能以阻挡创建误导公众的虚假图像,嵌入元数据以追溯图像的来源,并为候选人供应一种机制,使他们能够举报自己被 deepfakes 技能假造的图像。

微软已经开拓并支配了媒体来源功能(又称“内容凭据”),许可用户验证图片或***是否由人工智能天生。
这一功能利用加密技能对人工智能天生的内容进行了标记和署名,并附上了关于其来源和历史的元数据,遵照了2021年创立的内容来源和真实性同盟(C2PA)制订的开放技能标准。
微软 AI for Good 实验室也在加大力度识别深度假造内容、追踪不良行为者并剖析其策略。

Natasha Crampton 表示:“这些问题不仅是科技公司所面临的寻衅,更是须要全体社会共同应对的寻衅。

#5:将RAI工具交到客户手中

为了提高人工智能模型的输出质量,并防止天生式人工智能系统遭到滥用,微软正在积极向客户供应自身所采取的工具和安全方法,以便他们能够负任务地构建人工智能。
这些资源包括开源工具、商业工具和做事,以及一系列帮忙企业构建、评估、支配和管理他们天生式人工智能系统的模板和指南。

2023年,微软推出了 Azure AI Content Safety,帮助客户识别并过滤掉人工智能模型中有害的输出,如仇恨、暴力、性或自残等内容。
最近,Azure AI Studio 中还添加了新的工具(这些工具即将或已经可以利用),旨在帮助开拓者和客户提高他们自己天生式人工智能系统的安全性和可靠性。
这些新工具包括许可客户对其运用程序进行安全评估的功能,帮助开拓者快速识别和解决漏洞,实行额外的风险和安全监控,并检测模型产生“幻觉”、天生虚假或虚构数据的情形。

Sarah Bird 表示:“关键在于,我们希望安全性能成为默认选项。

#6:预见并戒备毁坏行为

人工智能技能的越来越繁芜,或许不可避免会有人试图以各种办法寻衅系统,进行一些无害或恶意的“越狱”操作。
在科技领域,“越狱”指的是绕过人工智能系统中的安全机制的行为。

除了在新产品发布前探测漏洞,微软还与客户互助,为其供应最新工具以保护客户在 Azure 上的自定义 AI 运用。
例如,微软推出的新模型可以通过模式识别检测并阻挡恶意“越狱”,从而保护了大措辞模型和用户交互的完全性,并防止恶意指令掌握或攻击 AI 系统。

Natasha Crampton 指出:“这些用场显然不是我们设计系统时的初衷,但随着技能的边界不断向前推进,这就会自然发生。

#7:帮助用户理解人工智能的局限性

只管人工智能给我们的生活带来了诸多便利,但它并非完美无缺。
微软鼓励用户验证AI系统供应的信息,并在谈天输出结果的末端供应了引用来源链接,以增强透明度。

自2019年以来,微软一贯都有发布“透明度解释”,为客户供应关于 AI 功能、限定、用场及负任务利用的详细信息。
公司还在面向消费者的产品(如 Copilot)中加入了用户友好型关照,环绕风险识别、人工智能报错或天生意外内容的可能性等主题供应主要表露,并提醒人们他们正在与人工智能进行交互。

随着天生式人工智能技能及其用场的不断扩展,持续改进系统、适应新法规、更新流程并努力创造符合用户需求的人工智能体验,将尤为主要。

“我们必须保持谦善,认识到我们对新技能的运用办法尚不明确,因此,我们须要谛听用户的声音,” Sarah Bird 说,“我们必须不断创新、学习和谛听。

文中配图均由 Microsoft Designer 供应的人工智能技能设计天生

本文编译自微软博客:https://news.microsoft.com/source/features/ai/7-takeaways-from-a-year-of-building-generative-ai-responsibly-and-at-scale/