生成式人工智能可能看起来很神奇,但你必须意识到其中的陷阱。 四位商业领袖解释了如何应对风险。
生成式人工智能 (AI) 是未经训练的一种魔法形式。
从总结文本到创建和写作,OpenAI 的 ChatGPT 和 Microsoft 的 Copilot 等工具在几秒钟内为具有挑战性的问题提供了看似出色的解决方案。 然而,生成式人工智能的神奇能力也可能导致一些无用的小技巧。
您的企业需要首席人工智能官吗?
无论是道德问题、安全问题还是幻觉问题,用户都必须意识到这些问题会破坏新兴技术的好处。 在这里,四位商业领袖将解释如何克服生成式人工智能的一些大问题。
挪威奥斯陆蒙克博物馆(Munch Museum)创新与研究主管比尔吉特·阿加(Birgitte Aga)表示,许多对人工智能的担忧都与缺乏对其潜在影响的理解有关,这是有道理的。
即使是像 ChatGPT 这样备受瞩目的生成式 AI 工具,也只向公众开放了 12 个多月。 虽然很多人都熟悉这项技术,但很少有公司在生产中使用过它。
阿迦说,公司应该让员工有机会以安全可靠的方式了解新兴技术的能力。 "她说"我认为降低门槛并让每个人都参与进来是关键。 "但这并不意味着不加批判地去做"。
阿加说,当员工讨论如何使用人工智能时,他们还应该考虑一些重大的道德问题,如偏见、刻板印象和技术限制。
以及 AI 安全性和偏见:解开 AI 训练的复杂链
在与ZDNET的聊天中,她解释了博物馆如何与技术专家TCS合作,寻找使用人工智能帮助更多观众理解艺术的方法。
她说"在塔塔咨询,我们在每次会议上都就道德规范达成一致。 她说"找到在那个层面上真正与你保持一致的合作者,然后在此基础上再接再厉,而不仅仅是寻找那些做很酷事情的人"。
Gartner 杰出副总裁分析师 Ivah Litan 表示,需要注意的关键问题之一是来自 IT 外部人员的变革压力。
她说"企业希望全力以赴冲刺"她指的是整个组织的专业人员在征得负责人同意或不同意的情况下采用生成式人工智能工具。 "安全和风险人员难以适应此部署、跟踪人员正在执行的操作以及管理风险"。
此外:64% 的员工将 AI 生成的工作当作自己的工作
因此,两类人之间存在着非常紧张的关系:那些想要使用人工智能的人和那些需要管理人工智能使用的人。
没有人想扼杀创新,但安全和风险人员以前从未遇到过这样的事情"她在与zdnet的聊天中说。 "尽管人工智能已经存在多年,但在生成式人工智能兴起之前,他们并不真正需要担心这些技术。 "
Litan说,解决这些问题的最好方法是创建一个由整个企业的专家组成的人工智能工作组,以考虑隐私、安全和风险问题。
她说"这样一来,每个人都在同一页面上,所以他们知道风险是什么,他们知道模型应该做什么,最终他们获得了更好的性能。
然后是 2023 年的人工智能:突破性的一年,人类没有什么是一成不变的
据Litan称,Gartner的研究表明,三分之二的企业尚未建立AI工作组。 她鼓励所有公司建立这样的跨业务团队。
她说"这些工作组有助于达成共识。 "人们知道会发生什么,企业可以创造更多价值。
丰田汽车欧洲公司数据和分析战略高级经理蒂埃里·马丁(Thierry Martin)表示,他对生成式人工智能最大的担忧是幻觉。
他在测试生成式人工智能进行编码时亲眼目睹了这种问题。
Martin 说,除了个人探索之外,企业还必须关注他们使用的大型语言模型 (LLM)、他们需要的输入以及他们推出的输出。
我们需要一个非常稳定的大型语言模型"他说。 "当今许多最流行的模特都接受过许多方面的培训,例如诗歌、哲学和技术内容。 当你问一个问题时,你会产生幻觉。
在接受ZDNet的一对一采访时,Martin强调,公司必须找到创建更克制的语言模型的方法。
他说。 "我想保持在我提供的知识库范围内。 "这样,如果我问我的模型一些具体的问题,它会给我正确的答案。 因此,我希望看到更多与我提供的数据相关的模型"。
Martin 有兴趣了解更多关于开创性发展的信息,例如 Snowflake 与 NVIDIA 的合作,两家公司正在创建一个 AI 工厂,以帮助企业将其数据转化为定制的生成式 AI 模型。
他说。 "例如,一个能够在 Python 上完美地执行 SQL 查询的 LLM 很有趣。 "对于普通用户来说,ChatGPT 和所有其他公共工具都是不错的选择。 但是,在将此类工具与企业数据连接时,您必须谨慎行事。 "
招聘专家Nash Squared的首席执行官Bev White表示,她最担心的是,使用生成式人工智能的现实可能与设想的有很大不同。
她在与zdnet的对话中说:"有很多炒作。 她在与zdnet的对话中说"也有许多恐慌者说,工作岗位将流失,人工智能将导致大规模失业。 还有对数据安全和隐私的担忧"。
怀特说,重要的是要认识到,在生成式人工智能的前12个月里,大型科技公司正在竞相完善和更新他们的模型。
她说"这些工具经历了多次迭代,这绝非巧合。 "使用这些技术的人已经发现了它们。
怀特建议首席信息官和其他高级管理人员谨慎行事。 即使感觉其他人都在向前冲,也不要害怕后退一步。
我认为我们需要一些有形的东西,作为我们可以使用的警戒线。 企业的首席信息安全官必须开始考虑生成式人工智能,而我们的证据表明他们正在这样做。 此外,监管需要跟上变化的步伐"她说
也许我们需要放慢脚步,弄清楚如何利用这项技术。 这就像发明了一枚神奇的火箭,但在发射前没有稳定器和安全系统。