谷歌称OpenAI ChatGPT可泄露敏感信息

image.png

谷歌研究人员近期发现,OpenAI旗下的人工智能聊天机器人ChatGPT能够泄露其训练数据中的敏感信息,其中包括真实人物的识别信息以及私人信息等。据了解,ChatGPT是一款新型的AI聊天工具,用户可以根据要求快速生成文章、故事、歌词、散文、笑话等,并回答各类问题。

然而,在仅有两个月的使用过程中,ChatGPT的月活跃用户数已经达到了1亿,成为历史上增长最快的消费者应用之一。虽然OpenAI CEO萨姆?奥尔特曼在首届开发者大会上宣布,ChatGPT的周活跃用户数也已经达到了1亿,但这一漏洞仍引起了人们的关注。

据Google Brain的高级研究科学家Katherine Lee表示:“我们在7月份发现了这个漏洞,并在8月30日通知了OpenAI,在标准的90天披露期之后,我们发布了这个漏洞。既然我们向OpenAI披露了这一点,现在的情况可能会有所不同。”

研究人员还发现,通过要求ChatGPT“永远”重复某些单词,就让ChatGPT透露了一些被用于训练的数据,包括私人信息(比如,个人姓名、电子邮件、电话号码等)、研究论文和新闻文章的片段、维基百科页面等等。

这一漏洞引发了严重的隐私问题,尤其是对于那些在包含敏感信息的数据集上进行训练的模型而言。


分享一个国内免费使用GPT4.0的AI智能问答工具:智答专家。支持AI文本、作图、语音、Sora视频。无需魔法,亲测有效,点击访问

标签:ai资讯
来源:智答专家
发布时间:2023-12-01 10:29