AI治理的四个基本教训

商有精准说 2024-07-05 11:37:56

位于奥斯汀的软件公司Planview在大约18个月前开始使用GenAI来提高生产力,同时,他们开始将GenAI集成到产品中,构建了一个供用户进行战略组合管理和价值流管理的助手,这个助手创建计划场景,帮助经理实现产品发布目标,并建议如何在路线图上移动可交付成果,在团队之间共享工作以及重新分配投资。

作为早期采用者,Planview很早就意识到,如果他们真的想深入使用AI,就需要建立政策和治理框架,涵盖他们内部的操作以及增强产品提供的内容。根据该公司的经验以及其他CIO的经验,可以总结出四个教训,帮助企业制定自己的AI治理方法。

依托现有框架

AI治理与其他治理并没有太大区别,事实上,根据Planview的CTO Mik Kersten的说法,因为大多数AI政策都与数据有关,所以很容易利用现有的框架。Planview采用了他们已经用于开源和云的指南,并将其调整为AI治理所需的内容。

Planview

一个完全不同的组织,佛罗里达州立大学(FSU),则从现有的IT治理委员会中发展出了AI治理委员会,该委员会定期开会,优先考虑投资和风险,该大学的CIO Jonathan Fozard说:“我们对投资进行排序,无论是财务方面还是在校园内的价值和影响方面。AI项目成为了讨论的一部分,这就是我们建立AI治理的方式。”

FSU的用例范围从科学研究到办公生产力——他们还在从工程和法律到所有其他专业的课程中教授AI,因为这些学生在进入职场后可能会使用AI。Fozard说,平衡成本和风险与潜在价值的增加就像一种跷跷板的方法。在第一次讨论中,某些项目会优先浮出水面,然后委员会开始查看这些高优先级项目,确保他们能够保护大学需要保护的一切,包括知识产权、研究愿望、用户隐私和敏感数据。

佛罗里达州立大学

“无论你是在高等教育还是在企业环境中,首先专注于生产,”Fozard说,“超越浮华,思考你想要实现的目标,找出如何利用技术在组织各个层面推动创新,然后确保你保护你的数据和员工。”

明确内部开发和外部合作的界限

“我们必须在自建和外购之间制定非常明确的政策,”Kersten说,“我有相当大的AI和数据科学团队,我们的客户希望这些团队构建客户支持功能,但我们需要这些专家来开发产品功能,为了让他们专注于核心工作,我们的政策明确规定了自建和外购的内容。”

Kersten认为,明确开源的使用政策也很重要。Planview选择仅将开源模型集成用于研究和内部用例。至于他们销售的功能,该公司构建在具有明确使用条款的LLM之上。“我们政策的一部分是确保大型语言模型提供商的使用条款符合我们的隐私和合规需求。”他说。

在完全不同的行业中,总部位于香港的国际英语语言学院Wall Street English开发了自己的AI堆栈,以掌握他们认为对其业务核心的技术,该公司的首席产品与技术官Roberto Hortal表示:“我们追求更快的创新,更好的成果以及一系列完全匹配学生和教师需求的定制解决方案,我们保持积极主动的方法,我们的政策之一是掌握最新发展、最佳实践以及潜在风险。”

Wall Street English

作为一家教育机构,Wall Street English将AI集成到其自学课程中,他们使用AI进行语音识别,以提供发音反馈,并作为会话代理的基础,帮助学生通过模拟现实场景练习会话技巧,该公司建立了一个治理框架,不仅包括技术、财务和法律方面的考虑,还包括多元文化环境中的伦理问题。

在整个价值链中保护正确的内容

由于使用代码生成工具,Planview的AI治理包括确保不侵犯版权的规则和指南,它还保护自己的软件,以确保没有代码生成工具会提取并在其他地方重用这些代码。Kersten表示,公司AI治理不仅明确了这些要点,还告诉用户如何配置工具。

“GitHub Copilot有一个设置,可以检查以确保它不会给你受版权保护的代码,”Kersten说,“然后还有另一个设置,会检查你的最终代码,以确保它不会与其存储库中的内容过于相似,还有一个设置,可以告诉GitHub Copilot不要保存你的代码。”

自然,需要保护的内容取决于业务领域,Planview关注的是保护知识产权,而Wall Street English则关注文化敏感性,他们调整课程内容,以避免冒犯学生,他们的AI工具也需要做到这一点。Hortal说:“正如我们通过训练有素的教师环绕我们的在线课程,以保证没有不适当的内容一样,我们也必须确保AI避免表达出非预期的观点或不适当的内容,我们采用输入净化、上下文追踪和内容过滤等技术来减轻风险和漏洞,这些都是我们AI治理的一部分。”

无论你在保护什么,规则不应仅限于你自己的组织,应努力确保在外包工作时也能保证相同的保护。提供综合治理、风险和合规平台的软件公司LogicGate的CEO Matt Kunkel表示:“世界上一些最复杂的公司在内部拥有惊人的AI治理结构,但然后他们将所有数据传输给第三方,这些第三方使用大语言模型处理这些数据。如果你的第三方不同意你的AI使用政策,那么在那一点上,你就失去了对AI治理的控制。”

立即开始

已经实施AI治理的IT领导者最常见的建议是立即开始。从IT领导层开始研究AI治理到将规则传达给整个组织可能需要几个月的时间。一个典型的例子是,Planview从开始思考其政策到在其学习管理系统中向全公司发布政策,大约花了六个月时间。

作为AI的早期采用者之一,Kersten经常公开谈论Planview的经验。他说:“那些等待的组织将会落后,现在就制定你的政策,它没有你想象的那么难,一旦政策到位,它将真正有助于你内部的构建方式以及你向市场提供的产品。”

LogicGate

Kunkel表示同意。“影子用例已经在形成,因此CIO尽快掌握AI政策非常重要,”他说,“一个起点是围绕组织对AI的风险偏好达成共识,人们需要就快速推进与保护客户数据之间的平衡进行坦诚的对话。”

一旦你制定了治理政策并传达给整个组织,大家就可以专注于增加价值。

0 阅读:2

商有精准说

简介:感谢大家的关注