加入收藏 | 设为首页 | 会员中心 | 我要投稿 江门站长网 (https://www.0750zz.com/)- 科技、建站、经验、云计算、5G、大数据,站长网!
当前位置: 首页 > 服务器 > 安全 > 正文

揭密基于LLM的聊天机器人设置和隐私策略

发布时间:2024-01-08 18:42:50 所属栏目:安全 来源:DaWei
导读: ChatGPT和其他基于大型语言模型(LLM)的聊天机器人还很新奇。普通用户喜欢用它们以著名艺术家的风格创作诗歌和歌词;研究人员激烈讨论着要炸毁数据中心,以防止超级人工智能发动世界末日;
ChatGPT和其他基于大型语言模型(LLM)的聊天机器人还很新奇。普通用户喜欢用它们以著名艺术家的风格创作诗歌和歌词;研究人员激烈讨论着要炸毁数据中心,以防止超级人工智能发动世界末日;而安全专家则成功绕过聊天机器人的安全控制机制,给它们发布窃听电话和劫车的指令。

时至今日,许多人已经在工作中严重依赖ChatGPT,以至于每当服务宕机,用户就会在社交网络上抱怨“又要用脑了”。这项技术正变得司空见惯,但它无法跟上人们日益增长的需求,这导致人们经常抱怨称,“聊天机器人正逐渐变得越来越笨”。根据ChatGPT查询数据在Google Trends中的受欢迎程度,我们可以几乎肯定地得出结论:这样一来人们主要选择的是在工作日向它寻求专家的帮助,这样来看也就是说,可能还有可能是为了工作上的事情。

研究数据证实了聊天机器人被积极用于工作目的这一事实。卡巴斯基对俄罗斯人进行的一项调查显示,11%的受访者使用过聊天机器人,近30%的人认为聊天机器人将在未来取代许多工作。研究人员进行的另外两项调查显示,比利时有50%的上班族使用ChatGPT,英国有65%。其中,在英国,58%的人使用聊天机器人来节省时间(例如,撰写会议纪要,提取文本的主要思想等),56%的人使用聊天机器人来撰写新文本,改进风格/语法以及翻译,35%的人使用聊天机器人来进行分析(例如,研究趋势)。使用ChatGPT的程序员占16%。

尽管如此,聊天机器人在工作场所被越来越多地使用,这一事实引发了一个问题:企业数据可以信任它们吗?本文深入研究了基于LLM的聊天机器人的设置和隐私策略,以了解它们如何收集和存储对话历史记录,以及使用它们的办公室工作人员如何保护或损害公司和客户数据。

大多数基于LLM的聊天机器人(ChatGPT、微软必应聊天、谷歌Bard、Anthropic Claude等)都是基于云的服务。用户创建一个帐户并获得访问bot的权限。神经网络是一个巨大的资源密集型系统,运行在提供商一端,这意味着服务所有者可以访问用户与聊天机器人的对话。此外,许多服务允许用户在服务器上保存聊天历史记录,以便稍后返回。

Bing Chat和Google Bard都要求用户分别使用微软或谷歌的账户登录。因此,与用户端的聊天机器人对话的安全性取决于用户各自的帐户受到多少保护。两家科技巨头都提供了所有必要的工具来保护用户自己的账户免受黑客攻击:2FA有各种选项(应用程序生成的代码,通过文本,等等);查看活动历史记录和管理连接到该帐户的设备的能力。

Google Bard将用户的聊天记录保存在其账户中,但允许用户自定义和删除它,还有一个帮助页面,说明如何做到这一点。另外一方面Bing Chat也会保存智能手机用户的电子邮件聊天记录,不过,其中的微软社区论坛本身又不仅仅是一个关于如何自定义和删除它的帖子。

OpenAI的ChatGPT让用户可以选择保存他们的聊天记录并允许模型从中学习,或者不保存并不允许。两者存在于一个单一的设置中,所以如果用户想保存聊天的灵活性,但又不想数据被用于训练模型,通常是做不到的。至于ChatGPT中的2FA,当研究人员开始研究时,它在设置中可用,但由于某种原因,该选项后来消失了。

要登录You.com,用户需要提供一个电邮地址,然后一个一次性代码将被发送到该地址。Anthropic也有相同的系统。在这些服务中没有其他身份验证因素,所以如果用户的邮件被黑客入侵,攻击者可以很容易地访问其帐户。此外,You.com会保存用户的聊天记录,但有一些主要的附带条件。用户可以在聊天机器人界面中启用“隐私模式”。Claude同样会保存用户的聊天记录。想要了解如何删除它,可以访问支持网站这个可视化媒体。

(编辑:江门站长网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

    推荐文章