据美国《新科学家》**报道,研究人员发现,OpenAI的人工智能模型GPT-4能够在没有人类帮助的情况下破解**并窃取**数据库中的信息。 这表明,没有黑客专业知识的个人或组织可能会释放 AI** 软件来实施网络攻击。
伊利诺伊大学(University of Illinois)的丹尼尔·康(Daniel Kang)说:“你根本不需要知道任何事情——你可以让软件自己破解。
Kang和他的同事们想看看GPT-4和其他大型语言模型作为自主黑客的表现如何。 结果,他们测试了 10 种不同的 AI 模型,包括 OpenAI 的 GPT-4 和 GPT-35,以及几个开源模型,例如不同版本的 Meta 的 Llama 模型。
这种大型语言模型通常旨在回答人类用户提交的文本提示。 但研究人员为开发人员使用了现成的修改版本,这些版本可以与网络浏览器交互,阅读有关网络黑客一般原则的文档,并在黑客攻击期间计划下一步。
然后,人工智能软件尝试了15个从简单到困难的黑客挑战。 简单的任务,例如使用恶意 SQL 获取对数据库的未经授权的访问。 更难的任务,包括操纵 j**ascript 源** 以窃取 Web 用户的信息。
大多数模型在所有任务中都完全失败。 但 GPT-4 成功完成了 15 项任务中的 11 项,成功率为 73%,甚至在一个不属于黑客挑战的真实**中发现了一个漏洞。
Kang表示,使用这种AI**的估计成本可能略低于每次黑客攻击10美元,而使用高薪网络安全分析师时,每次尝试的成本约为80美元。
在另一项发展中,OpenAI 和 Microsoft 于 2 月 14 日发布了一份报告,描述了他们如何共同努力拆除与国家相关的黑客,这些黑客使用 OpenAI 的大型语言模型来查找有关潜在目标的更多信息并改善其恶意软件的存在。