ChatGPT已经改变了我们许多人工作和日常生活的方式。根据最近的统计数据股票杠杆的交易原理,全球每天有超过 1 亿人使用它,处理超过 10 亿次查询。
但这个席卷全球的大语言模型聊天机器人被描述为"隐私黑洞",人们对它处理用户输入数据的方式存在担忧,这甚至导致它在意大利短暂被禁。
其创建者 OpenAI并不隐瞒输入的任何数据可能不安全的事实。这些数据不仅可能被用于进一步训练其模型,可能导致在对其他人的输出中暴露,还可能被人工审查以检查是否符合使用规则。当然,发送到任何云服务的数据安全性也仅取决于提供商的安全措施。
这一切意味着输入其中的任何数据都应被视为公共信息。考虑到这一点,有几件事绝对不应该告诉它——或任何其他基于公共云的聊天机器人。让我们来看看其中一些:
非法或不道德的请求
大多数 AI 聊天机器人都设有防护措施,防止它们被用于不道德目的。如果你的问题或请求涉及可能非法的活动,你可能会陷入麻烦。向公共聊天机器人询问如何犯罪、进行欺诈活动或操纵他人做出可能有害的行为,这些都是绝对不好的主意。
许多使用政策明确表示,非法请求或试图使用 AI进行非法活动可能导致用户被报告给当局。这些法律根据你所在的地方而有很大差异。例如,中国的 AI 法律禁止使用 AI 破坏国家权威或社会稳定,而欧盟AI 法案规定,看似是真实人物但实际上是 AI 生成的"深度伪造"图像或视频必须明确标记。在英国,《在线安全法》将未经同意分享 AI 生成的露骨图像定为刑事犯罪。
展开剩余58%输入请求非法材料或可能伤害他人的信息不仅在道德上是错误的,还可能导致严重的法律后果和声誉损害。
登录信息和密码
随着代理型 AI 的兴起,越来越多的人会发现自己使用能够连接和使用第三方服务的 AI。为了实现这一点,它们可能需要我们的登录凭证;然而,给予它们访问权限可能是个坏主意。一旦数据进入公共聊天机器人,我们对它的后续处理几乎没有控制权,已经有用户输入的个人数据在回应其他用户时被暴露的案例。显然,这可能是一场隐私噩梦,所以就目前而言,除非你完全确定正在使用一个非常安全的系统,否则最好避免任何涉及向 AI 提供用户名和账户访问权限的交互。
财务信息
出于类似原因,向生成式 AI 聊天机器人输入银行账户或信用卡号码之类的数据可能不是一个好主意。这些信息应该只输入到用于电子商务或网上银行的安全系统中,这些系统具有内置的安全保障,如加密和处理完成后自动删除数据。聊天机器人没有这些安全保障。事实上,一旦数据输入,就无法知道它会发生什么,而输入这些高度敏感的信息可能会使你面临欺诈、身份盗窃、钓鱼和勒索软件攻击的风险。
机密信息
每个人都有保护其负责的敏感信息的保密义务。许多这些义务是自动的,例如专业人士(如医生、律师和会计师)与其客户之间的保密关系。但许多员工也对其雇主有隐含的保密义务。分享商业文件,如会议记录和纪要或交易记录,很可能构成分享商业机密和违反保密义务,就像 2023 年涉及三星员工的案例一样。因此,无论将这些信息全部输入 ChatGPT 以查看它能挖掘出什么样的见解有多么诱人,除非你完全确定这些信息可以安全分享,否则这不是一个好主意。
医疗信息
我们都知道,让 ChatGPT 充当医生并诊断医疗问题可能很有诱惑力。但这应该始终格外谨慎,特别是考虑到最近的更新使它能够"记住"甚至从不同对话中整合信息,以帮助它更好地理解用户。这些功能都没有任何隐私保证,所以最好意识到我们对输入的任何信息的后续处理几乎没有控制权。当然,这对处理患者信息的医疗相关企业更是如此,它们面临着巨额罚款和声誉损害的风险。
总结股票杠杆的交易原理
发布于:北京市