ChatGPT 被爆重大隐私泄露!在回答时突然蹦出陌生男子自拍照,你的数据都将被偷走训练模型!

编程入门 行业动态 更新时间:2024-10-25 02:20:01

ChatGPT 被爆重大隐私泄露!在回答时突然蹦出陌生男子自拍照,你的数据都<a href=https://www.elefans.com/category/jswz/34/1769180.html style=将被偷走训练模型!"/>

ChatGPT 被爆重大隐私泄露!在回答时突然蹦出陌生男子自拍照,你的数据都将被偷走训练模型!

ChatGPT 被爆重大隐私泄露 !

一位用户在向 ChatGPT 询问 Python 中的代码格式化包 black 的用法时,没有一点点防备,ChatGPT 在回答中插入了一个陌生男子的自拍照(手动捂脸.jpg)

可以看到刚开始 ChatGPT 还相当正常,贴心的介绍怎么安装,怎么配置 VScode:

然而突然莫名其妙的,一张陌生男子的自拍照蹦了出来,打了用户一个措手不及。

一开始有网友调侃到,这不是随机生成的一个男子,而是ChatGPT的“自拍”“

随机有网友展开追溯,证实这张自拍于2016年12月7日被上传到图片分享平台 Imgur,到现在这张图片已经被浏览了 990 次。

这一方面确实证明这张自拍不是 ChatGPT 胡编乱造自己生成的,而是其他用户真实的”自拍“,同时,这另一方面也表明 Imgur 必然是 ChatGPT 的训练数据集之一

同时,reddit 的用户也猜测,在这里 ChatGPT 的本意可能只是认为在这个位置需要插入一张说明的图片,只是出了一些差错导致生成了一张毫不相干的自拍照

还有网友指出:

使用ChatGPT的用户请当心!

有网友指出:ChatGPT 对于聊天记录的使用非常清楚,大多数情况下,你上传或所说的所有内容都将用于重新训练 ChatGPT, 除非你关闭聊天记录!

另一网友也表示:“这件事给我们的教训就是,凡是你上传到网上的都有可能变成训练数据……

最后,一位网友表示自己很后悔上传了一些“隐私照”:

无论如何,ChatGPT 在内容生成时表现的惊人的不稳定性以及潜在的可能风险,不仅侵犯了个人隐私,也暴露了 GPT 模型在数据处理过程中可能存在的潜在的安全漏洞。

我们在使用任何大模型产品时一定要保护好我们的自己的个人信息!

毕竟谁也不希望某一天自己的一张自拍被展现给千里之外某个陌生人的提问之中吧!

更多推荐

ChatGPT 被爆重大隐私泄露!在回答时突然蹦出陌生男子自拍照,你的数据都将被偷走训练模型!

本文发布于:2023-11-17 02:35:18,感谢您对本站的认可!
本文链接:https://www.elefans.com/category/jswz/34/1638181.html
版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。
本文标签:将被   蹦出   模型   陌生   隐私

发布评论

评论列表 (有 0 条评论)
草根站长

>www.elefans.com

编程频道|电子爱好者 - 技术资讯及电子产品介绍!