微软向美国政府提供GPT大模型,如何保证安全性?

微软向美国政府提供GPT大模型,如何保证安全性?

生成式人工智能的热潮已经席卷到了美国联邦政府,微软宣布推出Azure OpenAI服务,允许Azure政府客户访问GPT-3、 GPT-4以及Embeddings。

微软在一份声明中说,政府机构将通过此项服务获得ChatGPT用例,而且不会牺牲“他们为了满足政府对敏感数据的要求所需要的、严格的安全和合规标准。”

微软声称,它已经开发了一种架构,让政府客户“能够从Azure Government安全地访问商业环境中的大语言模型”。微软表示,通过Python SDK REST APIs或者 Azure AI Studio进行访问,所有这一切都不会将政府数据暴露在公共互联网上。

微软承诺称:“只有提交给Azure OpenAI服务的查询才会转入商业环境中的Azure OpenAI模型。”“Azure Government直接与微软Azure商业网络对等,而不直接与公共互联网或者微软企业网对等。”

微软报告称,它使用IEEE 802.1AE——或MACsec——网络安全标准对所有Azure流量进行加密,而且所有的流量都驻留在全球骨干网中,该骨干网由超过25万公里的光纤和海底电缆系统构成。

Azure OpenAI Service for government已经全面推出,对于经过批准的企业或者政府客户,已经可以使用了。

政府用的ChatGPT到底能有多保密?

微软一直希望赢得美国政府的信任——但它也出过纰漏。

有消息称有超过1兆字节的政府敏感军事文件被暴露在公共互联网上——国防部和微软就这个问题互相指责。

微软子公司、ChatGPT的创建者OpenAI在安全方面也不尽如人意,3月份,一个糟糕的开源库让一些用户的聊天记录被曝光。从那个时候起,一些知名的公司——包括苹果、亚马逊和几家银行——因为担心ChatGPT可能暴露内部机密信息,已经禁止内部使用它。

英国的间谍机构GCHQ甚至对这种风险发出了警告。那么,即使这些秘密显然不会被传输到一个不受信任的网络,但美国政府把自己的秘密交给微软是否正确?

微软表示,它不会专门使用政府数据来训练OpenAI模型,所以绝密数据很可能不会在给其他人的回复中被泄露。但是这并不意味着它可以被默认安全。微软在公告中委婉地承认,当政府用户使用OpenAI模型的时候,一些数据仍将被记录下来。

微软表示:“微软允许具有额外限定访问资格并证明特定用例的客户申请修改Azure OpenAI的内容管理功能。”

它补充说:“如果微软批准了客户修改数据记录的请求,就不会存储与已批准的Azure订阅相关的任何提问和回复,在Azure商业中的数据记录也会被设置为关闭。”这意味着,除非政府机构符合某些特定的标准,否则提问和回复——由人工智能模型返回的文本——将被保留。

文章版权声明

 1 原创文章作者:2275,如若转载,请注明出处: https://www.52hwl.com/80818.html

 2 温馨提示:软件侵权请联系469472785#qq.com(三天内删除相关链接)资源失效请留言反馈

 3 下载提示:如遇蓝奏云无法访问,请修改lanzous(把s修改成x)

 免责声明:本站为个人博客,所有软件信息均来自网络 修改版软件,加群广告提示为修改者自留,非本站信息,注意鉴别

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2023年7月17日 下午5:43
下一篇 2023年7月17日 下午5:43