ChatGPT导致信息泄露后:三星将开发内部AI工具

来自:快科技
时间:2023-05-02
阅读:

早些时候,三星在引入ChatGPT不到20天内,就出现了3起与之相关的泄密事件。

近日,三星在内部备忘录中告知员工,暂时禁止使用ChatGPT或其他生成式人工智能,避免类似的情况出现。

内部备忘录显示,三星担心传输到谷歌Bard和微软Bing等人工智能平台的数据存储在外部服务器上,难以检索和删除,最终可能会泄露给其他用户。

同时,备忘录表示,三星进行了一项内部使用AI工具的调查,其中有高达65%的受访者认为此类服务存在安全风险。

值得一提的是,为了避免内部信息泄露,三星还计划开发自己的内部AI工具。

该AI将被用来翻译、总结文件和辅助软件开发,并协助研究如何阻止敏感公司信息上传至外部服务器。

此外,三星在备忘录中表示:“我们要求您认真遵守我们的安全指南,否则可能会导致公司信息泄露,违者进行纪律处分,甚至包括解雇。”

足以见得,三星在防范AI泄露信息方面的决心。

ChatGPT导致信息泄露后:三星将开发内部AI工具

返回顶部
顶部