三星禁止员工使用ChatGPT、Google Bard和其他生成式人工智能工具,此前有泄露事件发生 - 彭博报道
Mark Gurman
三星电子公司 发现员工上传了敏感代码到该平台后,禁止员工使用像ChatGPT这样的热门生成式AI工具,这给工作场所中这种技术的传播带来了挫折。
总部位于韩国水原的公司通过彭博社查阅的备忘录于周一通知了其最大部门的员工有关新政策。根据文件,公司担心传输到这些人工智能平台(包括Google Bard和Bing)的数据存储在外部服务器上,使得难以检索和删除,并可能被披露给其他用户。
公司上个月进行了关于内部使用AI工具的调查,并表示65%的受访者认为这些服务存在安全风险。根据备忘录,今年4月早些时候,三星工程师意外地通过将代码上传到ChatGPT泄露了内部源代码。目前尚不清楚信息的具体内容。
一位三星代表证实,上周发送了一份禁止使用生成式AI服务的备忘录。
“对于像ChatGPT这样的生成式AI平台的兴趣在内部和外部都在增长,”三星告诉员工。“尽管这种兴趣集中在这些平台的实用性和效率上,但人们也越来越担心生成式AI带来的安全风险。”
三星只是最新一家对这项技术表示担忧的大公司。今年2月,在OpenAI的聊天机器人服务引起了人们对这项技术的浓厚兴趣后仅仅几个月,包括一些华尔街银行在内的一些华尔街银行,如JPMorgan Chase & Co.、美国银行公司和花旗集团要么禁止要么限制了其使用。意大利也因隐私担忧禁止使用ChatGPT,尽管最近几天已经改变了立场。
阅读更多: IBM首席执行官预计未来五年内30%的后勤工作将被人工智能取代
新的三星规定禁止在公司拥有的计算机、平板电脑和手机以及内部网络上使用生成式人工智能系统。这些规定不影响公司销售给消费者的设备,比如安卓智能手机和Windows笔记本电脑。
三星要求在个人设备上使用ChatGPT和其他工具的员工不要提交任何可能泄露其知识产权的公司相关信息或个人数据。它警告称,违反新政策可能导致被解雇。
“我们要求您严格遵守我们的安全准则,否则可能导致公司信息泄露或损害,进而导致纪律处分,甚至解雇。” 三星在备忘录中表示。
与此同时,该公司正在开发自己的内部人工智能工具,用于翻译和总结文件以及软件开发。它还正在研究如何阻止敏感公司信息上传到外部服务。上个月,ChatGPT添加了一个“隐身”模式,允许用户阻止他们的聊天被用于人工智能模型训练。
“总部正在审查安全措施,为员工提高生产力和效率而安全使用生成式人工智能创造一个安全环境。”备忘录中说道。“然而,在这些措施准备好之前,我们暂时限制生成式人工智能的使用。”
解释:那些令人惊叹但存在缺陷的新聊天机器人背后的技术:QuickTake