【TechWeb】1月31日报道称,据外媒报道,OpenAI旗下的人工智能聊天机器人ChatGPT再次暴露在安全漏洞中。
据悉,ChatGPT是OpenAI于2022年11月30日推出的一款全新的AI聊天机器人工具,可以根据用户的要求快速生成文章、故事、歌词、散文、笑话,甚至**,并回答各种问题。
生成式人工智能在某些情况下可能非常有用,但它也存在许多问题。 现在,ChatGPT出现了另一个问题。
周一,外媒报道称,ChatGPT泄露了私人对话,包括用户名、密码和其他无关用户的个人信息,并引用了一位用户分享的几张截图。 除此之外,泄露给该用户的其他对话包括某人正在做的演示文稿的名称、未发表的研究计划的详细信息以及使用 PHP 编程语言的脚本。 每个泄露对话的用户似乎都不同且彼此无关。
对此,OpenAI表示,外媒报道不准确,用户举报的ChatGPT历史是其ChatGPT账号被盗造成的。 显示的聊天记录和文件是该帐户被滥用的对话,而不是显示其他用户历史记录的 ChatGPT。
OpenAI表示正在调查此事。 无论调查结果如何,建议用户不要与人工智能聊天机器人共享敏感信息,尤其是非自行开发的机器人。
据悉,这已经不是ChatGPT第一次出现信息泄露问题了。 2023 年 3 月,OpenAI 将 ChatGPT 下线,原因是该漏洞导致 ** 将活跃用户聊天日志中的标题显示给不相关用户。 当时,该公司表示,在ChatGPT下线前的几个小时内,一些用户可以看到另一个活跃用户的姓名、电子邮件地址、支付地址、信用卡号的最后四位数字以及信用卡到期时间。 后来,OpenAI 修补了该漏洞并报告了该问题的技术细节。
这是ChatGPT首次遭受重大个人数据泄露。 为此,OpenAI 还发布了一份声明,详细解释了这一切是如何发生的,并向用户和整个 ChatGPT 社区道歉。
2023 年 11 月,谷歌的一个研究小组发现,通过要求 ChatGPT “永远”重复某些单词,ChatGPT 可以让 ChatGPT 泄露用于训练的数据,包括私人信息(例如,个人姓名、电子邮件、号码等)、研究和新闻文章的片段、维基百科页面等。 然而,研究人员表示,OpenAI 于 2023 年 8 月 30 日修补了该漏洞。
由于担心专有或私人数据可能泄露,包括苹果在内的许多公司都限制员工使用 ChatGPT 和类似的产品。
周一,意大利数据保护局 (Garante) 宣布,OpenAI 的 ChatGPT 以及用于收集用户数据的技术违反了该国的隐私法。
据悉,意大利数据保护局于2023年3月底对OpenAI展开调查,并已将调查结果告知OpenAI,OpenAI将有30天的时间对调查结果作出回应。 (小狐狸)。