根据思科的 2024 年数据隐私基准研究,由于隐私和数据安全风险,超过四分之一 (27%) 的组织已暂时禁止其员工使用生成式 AI。
大多数组织还对此类工具进行了控制。 近三分之二(63%)的受访者对他们可以输入的数据进行了限制,61%的受访者对员工可以使用的Genai工具进行了限制。
尽管存在这些限制,但许多组织承认已将敏感数据输入到其 AI 应用程序中。 这包括有关内部流程的信息 (62%)、员工姓名或信息 (45%)、有关公司的非公开信息 (42%) 以及客户姓名或信息 (38%)。
大多数受访者(92%)认为生成式人工智能是一项全新的技术,它带来了新的挑战,需要采用新技术来管理数据和风险。
受访者对人工智能技术的最大担忧是:
可能损害本组织的法律和知识产权(69)。
输入的信息可能会被公开泄露或与竞争对手共享(68)。
返回给用户的信息可能有误 (68%)
对人类有害 (63%)
可能取代另一名员工 (61%)
可能取代自己 (58%)
员工人工智能账户的泄露和滥用对企业来说也是一个重大风险。 根据卡巴斯基的调查,大量被盗的ChatGPT账户在暗网上畅销,对用户和公司构成了重大威胁。
此外,ChatGPT等流行的大型语言模型的训练数据和生成数据也可能存在违反GDPR等数据保护法规的风险。
91% 的安全和隐私专业人士承认,他们需要做更多工作来让客户放心他们的 AI 数据。
然而,根据思科的调查,超过 50% 的受访者没有采取以下措施来帮助建立对 AI 的信任:
解释 AI 应用程序的工作原理 50%。
确保流程中有 50% 的人为干预
49%的公司制定了人工智能伦理管理计划
审计AI应用偏差33%
思科首席法务官Devstahlkopf表示:“超过90%的受访者认为,人工智能需要新技术来管理数据和风险。 AI 安全治理对于建立客户信任至关重要。 ”