尽管采用速度创纪录,并且持续炒作,但生成式人工智能更像是一个智力承诺或企业重点领域,而不是一个可操作的现实。 据估计,到 2030 年,AI 市场将达到近 6700 亿美元,生产力加起来将达到 44万亿美元,但商业领袖仍然想知道人工智能到底能做什么,如何利用它,以及它将如何带来宣传的经济利益。 人们对人工智能的潜力不乏希望或信念,尤其是在经济动荡时期。
与数字化转型的任何方面一样,生成式人工智能的有效部署将更多地依赖于人类的适应能力,而不是技术能力。 事实上,人为因素——人和文化——将推动人工智能的采用或缺乏。 这意味着公司需要花尽可能多的时间思考如何利用他们的文化优势,并实施必要的流程来补充或弥补他们的文化弱点,以推动人工智能的采用。 例如,如果一种文化是被动攻击型或风险规避型的,那么建立正确的正式激励措施来奖励风险将创造奇迹。 相反,如果一种文化太具有创业精神,以至于它抓住了任何新的市场机会,以至于被闪亮的新事物分散了注意力,那么正式的激励措施和流程必须奖励专注、纪律和忽视新奇趋势的能力。
虽然 genai 太新了,无法理解或它会走多远,而且人工智能总体上只是最近才成为主流,但从最近的企业历史中仍然可以从最近的企业历史中吸取宝贵的经验教训,了解组织如何采用和实现新兴技术的价值。 这就解释了为什么有些文化不仅能够更好地接受新技术,而且能够更好地进行创新。 更具体地说,来自科学研究和真实世界案例研究的证据确定了七个可推广的经验教训,可以帮助您提高在组织层面采用 GenAI 和任何新技术的能力:
改变或改变会改变你。 这是创新的最大论据,尽管有时会遇到组织不愿意改变的情况。 这种抗性存在于每个组织中。 但为了保持竞争力,公司需要能够坚持到底。
生成式人工智能也不例外:虽然一些组织已经接受了它,但太多人抵制它,因为他们已经尝试并测试了做事的方式,而对未知的恐惧掩盖了任何改变的愿望。 与任何其他创新一样,如果GenAI可以部署在整个系统中,它将有效地增强组织的能力,使其面向未来并提高其整体适应性。 然而,这需要正确的倡导者(变革推动者、内部创业者等)来对抗系统中固有的、本能的抵制,这种抵制可能会被任何可能被视为对现状构成威胁的变革所激怒。
成功地将新技术引入组织——尤其是当它流行或有争议时——还需要了解阻力的来源及其背后的逻辑。 有时,抵制可能是正式和明确的,例如有报道称,75%的组织正在考虑禁止员工使用生成式人工智能。 其他时候,需要解决的是非正式抵制,这种现象非常普遍,以至于有一个特定的学术术语“被动创新抵制”,旨在强调员工抵制变革和满足于现状而产生的无意识抵制。 解决这种隐性恐惧的最好方法是推销该技术将如何加强组织 - 并增加每个部分的弹性 - 目标是将态度从消极升级为积极,或至少是中立。
生成式人工智能是一项用途非常广泛的技术。 然而,这可能是一个缺点,因为它与特定问题没有明显的联系,这可能使其成为一种等待问题解决的巧妙解决方案的状态。
为了解决这个缺点,组织必须从问题开始。 也就是说,确定企业必须应对的最紧迫和最痛苦的挑战。 一旦他们有了明确的目标,他们就应该测试人工智能以及其他潜在的解决方案。 在生物智能方面,一个重要的思维方式转变是减少对自动化的关注,这通常意味着中断或消除,而更多地关注放大。
例如,H&M从人工智能领域的落后者变成了先驱,因为它认为人工智能不是“人工智能”,而是“放大”的智能,专注于这项技术如何增强或增强现有的组织能力,而不仅仅是消除包括人类在内的低效率。 同样,在科技巨头中,亚马逊在人工智能领域的起步相对较晚,但一旦将人工智能定位为现有业务线中其他创新的推动者,它就成功地超越了竞争对手。 沃尔玛决定投资生成式人工智能,通过赋予员工权力来改善客户服务,帮助他们找到他们需要的东西并满足他们的需求。
一般而言,与大规模的总体规划相比,对现状进行小规模的渐进式改进将是测试和部署技术创新的更好方式。 正如哈佛商学院教授艾米·埃德蒙森(Amy Edmondson)在她的新书《对错》(The Right Wrong)中指出的那样,这也是设计导致智力失败的实验的最佳方式,因为它使我们能够在小错误成为严重的地方性问题之前发现它们。
因此,以开放的心态和实验的心态尽早接近你的人工智能飞行员,是最好的学习方式,包括从失败的实验中吸取教训——而快速失败是为成功创造条件的好办法。 从长远来看,只要你能从这些失败中吸取教训。
在部署生成式人工智能或任何形式的数据驱动自动化方面,没有比人类直觉更大的障碍了。 事实上,无论人们扮演什么角色,通过自主技术产生的类人活动通常被视为对控制、权力和自主性的威胁。 公平地说,它确实经常减少人类的自由和即兴创作。 工人们担心他们忙于培训的技术将被取代。 高管们将基于人工智能的标准化视为对他们权力的攻击,因为决策和行动已被编入系统,并与各个机构分离。
因此,重要的是要传达一个权衡:在放弃对次要决策的一些控制时,人们可以将更多的精力集中在更高阶的任务上。
例如,招聘人员和招聘经理往往会高估自己评估他人才能的能力,但研究表明,人工智能在识别人们的潜力方面至少同样准确,甚至更准确。 最终,只要技术能够达到人类能力的水平,人类将有机会开发和部署其他技能,尤其是那些技术无法获得的技能,包括genai。 例如,在万宝盛华集团,我们的招聘人员正在使用GenAI将重复性和非创造性的任务(例如,总结和解析简历,校对和更正求职信以及输入招聘广告)外包,以便他们可以将更多时间花在增值活动上:帮助候选人了解工作是否适合他们,帮助客户缩小他们想要的候选人和他们实际需要的候选人之间的差距。
改变是一个可爱的想法,但在个人和集体层面上,一旦我们意识到执行它所需的努力、坚持和奋斗,这个想法就会开始失去很多牵引力。 其实,我们喜欢的不是改变,而是改变。
生成式人工智能也是如此:让一个已经经历过实验阶段的组织,利用其力量,扩展或工业化的想法是诱人的。 然而,经历这些阶段并经历这些经历的过程才是真正需要做的。 因此,组织应该以与个人学习一门新语言或完成新大学学位相同的方式来采用人工智能:耐心、时间、奉献精神,并认识到重要的不是目的地,而是旅程。 。
文化抵制通常被认为是采用人工智能的主要障碍。 虽然组织在“文化变革”干预方面的投资不断增长,但有意识地塑造或重塑公司文化的尝试需要花费大量时间,而且成功率很低。
一个更好的方法是将文化视为一个约束或设定参数,并把它当作你与天气的关系:不是你可以改变的东西,而是影响你选择衣服的东西。 关键是要建立新的制度和程序来抵消文化的影响,例如抑制非正式动力和力量影响的外在形式激励。 正如学术评论所表明的那样,这些流程最好由中层管理人员部署和实施,因为他们的行为和决策可以推动变革,并在更广泛的员工队伍中灌输新的习惯。
由于围绕生成式人工智能的耸人听闻,这个话题经常引发道德困境、法律恐惧和道德问题。 组织必须从一开始就解决这些问题,将人工智能定位为一种既符合道德设计又能改善现状的人工智能。 例如,对用户保持透明,让人们能够“选择加入”,并确保人工智能的应用代表了对现有流程和方法的改进,这不仅会让公司走出困境,还可以让怀疑论者相信生成式人工智能可以为他们的工作和生活带来有价值的改善。 正如 Gartner 关于采用道德 AI 的报告所建议的那样,透明度至关重要:“无论是员工、客户还是公民,都要诚实地说明他们与机器的互动内容,并在整个过程中多次明确标记任何对话。 ”
归根结底,文化总是在不断发展。 进步不是采用每一项创新或新技术的结果,而是利用正确的工具来推进战略并提高组织的长期效率。 如果公司能够弄清楚如何将人工智能无缝集成到他们的战略和文化中,他们可能能够提高相对于竞争对手的竞争优势。 大多数组织仍在努力解决这个问题。 那些成功破解文化采用密码的公司将获得这项新技术的回报。
技术与分析