,Techritual 香港科技电脑资讯网站,,Techritual 香港科技电脑资讯网站,,为了用 ChatGPT,三名 Samsung 员工泄露了敏感数据,08/04/2023, Alan Iverson,1138,,
表面上看起来,ChatGPT可能是一个对於各种工作任务都很有用的工具。但在你让聊天机器人总结重要备忘录或者检查工作错误之前,要记得任何你分享给ChatGPT的东西都可能会被用来训练系统,甚至可能在它对其他使用者作出回应时出现。这是几名Samsung员工在据报分享机密信息给聊天机器人之前应该清楚的问题。
根据The Register的报导,Samsung的半导体部门开始允许工程师使用ChatGPT之後,有员工至少三次向其泄漏了机密信息。据报导,其中一名员工向聊天机器人请求检查敏感的数据库源代码是否有错误,另一名员工请求代码优化,第三名员工则将一个录音会议投入ChatGPT中,让它生成会议纪录。
据报导,得知这些安全问题後,Samsung试图限制员工在ChatGPT中输入的内容长度,把限制设置在1024个字符(即1KB)以内。该公司还据说正在调查三名相关员工,并正在开发自己的聊天机器人,以防止类似的差错发生。Engadget已经联系了Samsung,希望得到回应。
ChatGPT的使用条款中指出,除非用户明确选择退出,否则它会使用用户的输入来训练自己的模型。该聊天机器人的所有者OpenAI建议不要在对话中分享机密信息,因为它“无法从你的历史记录中删除特定的输入”。在ChatGPT上删除个人身份信息的唯一方法就是删除自己的帐户,这个过程可能会有点复杂。
,Techritual 香港River