ChatGPT安全引人忧,母公司发文称一贯注重安全性

随着以ChatGPT为代表的大型语言模型的流行,人们对其安全性的焦虑越发显著。在意大利于3月31日因隐私和安全问题宣布暂时禁用ChatGPT之后,加拿大也于4月4日宣布就数据安全问题调查ChatGPT母公司OpenAI。4月5日,OpenAI官方博客更新了一篇文章,重点谈到自身如何保障AI安全性,算是从侧面对人们的担忧进行回应。

ChatGPT安全引人忧,母公司发文称一贯注重安全性

为测试 GPT-4花了6个月时间

文章提到,在对最新的GPT-4模型完全所有训练后,团队花了 6 个多月的时间进行内部测试,以在公开发布时能够更加安全,并认为强大的人工智能系统应该接受严格的安全评估,需要在确保被监管的基础上与政府积极合作,制定最佳的监管方式。

文章也提到,虽然在实验测试过程中无法预测所有风险,但AI正是需要在实际使用中不断汲取经验、不断完善,以迭代出更加安全的版本,并认为社会确实需要一定时间来适应越发强大的AI。

重视儿童保护

文章称安全工作的重点之一是保护儿童,要求使用AI工具的用户年龄必须已年满18周岁,或者是在有父母监护条件下已年满13周岁。

OpenAI强调,不允许自身技术被用于生成仇恨、骚扰、暴力或成人内容等类型,与 GPT-3.5 相比, GPT-4 对拒绝响应禁止内容的能力提升了82%,并通过监控系统来监测可能存在的各类滥用情形,比如当用户试图将儿童性虐待材料上传到图像工具时,系统会阻止并将其报告给国家失踪与受虐待儿童中心。

尊重隐私,提高事实准确性

文章称,OpenAI的大型语言模型在广泛的文本语料库上进行训练,其中包括公开可用的内容、许可内容和人工审核人员生成的内容,不会使用数据对服务进行销售、打广告、对用户归档。OpenAI承认在训练过程中会从公共互联网上获得个人信息,但会尽力在可行的情况下从训练数据集中删除个人信息,并微调模型以拒绝获取个人信息的请求,积极响应要求删除系统中涉及个人信息内容的请求。

在提供的内容准确性上,文章称,通过用户对不实内容的标记反馈,GPT-4所生成内容的准确性比 GPT-3.5 提高了 40%。

文章认为,解决 AI 安全问题的实际方法不仅是投入更多时间和资源来研究有效的缓解技术,并在实验环境中测试在实际使用场景中的滥用情况,更重要的是,要把提高安全性和提升AI的能力齐头并进,OpenAI有能力用最好的安全防护措施来匹配最强大的AI模型,以越来越谨慎的态度创建和部署功能更强大的模型,并将随着AI系统的发展继续加强安全措施。

文章版权声明

 1 原创文章作者:5818,如若转载,请注明出处: https://www.52hwl.com/65171.html

 2 温馨提示:软件侵权请联系469472785#qq.com(三天内删除相关链接)资源失效请留言反馈

 3 下载提示:如遇蓝奏云无法访问,请修改lanzous(把s修改成x)

 免责声明:本站为个人博客,所有软件信息均来自网络 修改版软件,加群广告提示为修改者自留,非本站信息,注意鉴别

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2023年7月17日 上午10:11
下一篇 2023年7月17日 上午10:12