赠软件计划 最高待遇 欢迎谘询
QQ5825-5957

连Google都警告员蓝冠代理工:别向AI聊天机器人洩密!甚至Bard也

 
 
 
科技巨头Google加入了AI产品战局,正在开发以及向全球推广自己的聊天机器人Bard,不过根据公司内部人士提供的资讯,Google母公司Alphabet已建议员工不要在任何AI机器人中输入任何机敏资料,蓝冠代理甚至自家的Bard也不例外。
 
近来快速发展的AI生成技术确实成为人们日常中的得力助手,举凡拟定电子邮件、文件甚至是软体程式码的草稿等大小事,这些AI生成模型都能完成,大大加速工作执行速度。但是这些内容除了可能包含错误讯息外,还有可能使用任何人们输入的资料,包含受版权保护的小说段落,甚至可能出现牵涉到隐私或机密的敏感资料。
 
小心!工作使用AI机器人恐洩漏机敏资讯
根据《路透社》的报导,有四位公司内部人士援引长期保护资讯政策证实,Google母公司警告员工不要使用任何AI聊天机器人,特别是不要输入机密资讯。ChatGPT、Bard或其他AI聊天机器人的用户可能没有意识到他们和AI伙伴的对话不只停留于聊天中,还提供AI服务的公司能够储存这些聊天内容,而公司员工甚至可以访问和查看用户和聊天机器人之间所发送的讯息。
 
除此之外,研究人员还发现AI语言模型经常根据使用者所提交的资料进行数据训练,虽然这么做的目的是让AI聊天机器人学习如何提供更好的服务,但这可能也导致聊天机器人在与其他用户对话时共享他人所提供的资讯。这并非凭空猜测,因为ChatGPT的开发商OpenAI就在网站上载明,这项工具可能会使用用户所提供的数据来改善AI模型。
 
Google的担忧主要集中于公司的机密安全性,如果员工将机密资讯输入聊天机器人,这些讯息都有可能向公众公开,对于可能危及其产品安全性的程式码也是如此,形成资安漏洞。因此,Alphabet也提醒工程师避免直接使用聊天机器人所生成的程式码。
 
43%工作者会在老闆不知情的状况,使用AI工具
而根据这个问题,Google回应《路透社》,儘管Bard生成的程式码可能不是工程师所希望的建议,但它仍然是一个有用工具。Google表示,他们的目标是透明化呈现技术原有的侷限性,希望避免像ChatGPT一样有对商业造成损害的风险。Google对此议题的谨慎也反映了,目前许多企业已经将避免使用公开的聊天机器人列入安全标准中。
 
事实上,也有越来越多的企业已经在AI聊天机器人中设置了防护栏,包含三星、亚马逊和德意志银行等。但是根据网站Fishbowl对美国顶尖公司在内约12,000名的受访者进行调查,蓝冠测速截至1月份,将近43%的专业人士会使用ChatGPT或其他AI工具,而且通常没有告诉他们的老闆。
 
Google和微软都有另外向商业客户提供价格更高的对话工具,并保证不会将数据纳入公共AI模型中。微软消费者行销长裕苏夫‧梅赫迪(Yusuf Mehdi)对此表示,公司採取了适当的保守立场,不希望员工将公共聊天机器人用于工作是有道理的。不过微软拒绝评论是否全面禁止员工将机密资讯输入公共AI程式中,包含其自己公司的程式,但另一位高层告诉《路透社》他个人不会使用。