模型
-
单个GPU,只花一天时间,能把BERT训练成什么样
本文经AI新媒体量子位(公众号ID:QbitAI)授权转载,转载请联系出处。 单个GPU,只花一天时间,能把BERT训练成什么样? 现在,终于有研究人员做这件事了,在有限的计算条件…
-
这是Meta版ChatGPT雏形?开源、一块GPU就能跑,1/10参数量打败GPT-3
千亿、万亿参数的超大模型需要有人研究,十亿、百亿参数的大模型同样需要。 刚刚,Meta 首席 AI 科学家 Yann LeCun 宣布,他们「开源」了一个新的大模型系列 ——LLa…
-
效率碾压DALL·E 2和Imagen,谷歌新模型达成新SOTA,还能一句话搞定PS
新年伊始,谷歌AI又开始发力文字-图像生成模型了。 这次,他们的新模型Muse(缪斯)在CC3M数据集上达成了新SOTA(目前最佳水平)。 而且其效率远超火爆全球的DALL·E 2…
-
提升深度学习模型预测质量的秘密武器——上下文感知数据
译者 | 朱先忠 审校 | 孙淑娟 在本文中,我想和大家分享我优化深度学习模型输入数据的方法。作为一名数据科学家和数据工程师,我已经成功地将这一技巧应用于自己的工作中。您将通过一些…
-
挑战粒子物理标准模型的μ子,被最新实验结果摁回去了
本文经AI新媒体量子位(公众号ID:QbitAI)授权转载,转载请联系出处。 曾被认为可能“打破标准模型”的μ子,被科学家们摁回去了。 来自欧洲LHCb团队对实验数据进行了严格复核…
-
物理改变图像生成:扩散模型启发于热力学,比它速度快10倍的挑战者来自电动力学
本文经AI新媒体量子位(公众号ID:QbitAI)授权转载,转载请联系出处。 现在,图像生成领域的半壁江山已经被物理学拿下了。 火出圈的DALL·E 2、Imagen和Stable…
-
一文看尽SOTA生成式模型:九大类别21个模型全回顾!
过去的两年时间里,AI界的大型生成模型发布呈井喷之势,尤其是Stable Diffusion开源和ChatGPT开放接口后,更加激发了业界对生成式模型的热情。 但生成式模型种类繁多…
-
Meta发布首个「非参数化」掩码语言模型NPM:吊打500倍参数量的GPT-3
虽然大型语言模型在NLP领域展现出的强大性能十分惊人,但其带来的负面代价也很严重,比如训练过于昂贵,难以更新等。,而且很难处理长尾知识。 并且语言模型通常采用在预测层采…
-
Transformer再胜Diffusion!谷歌发布新一代文本-图像生成模型Muse:生成效率提升十倍
最近谷歌又发布了全新的文本-图像生成Muse模型,没有采用当下大火的扩散(diffusion)模型,而是采用了经典的Transformer模型就实现了最先进的图像生成性能,相比扩散…
-
一日一卡挑战:RTX2080Ti搞定大模型训练,算力节省136倍,学界欢呼
在一块消费级 GPU 上只用一天时间训练,可以得到什么样的 BERT 模型? 最近一段时间,语言模型再次带火了 AI 领域。预训练语言模型的无监督训练属性使其可以在海量样本基础上进…
-
TensorFlow.js 在浏览器上也能搞定机器学习!
在机器学习飞速发展的今天,各种机器学习平台层出不穷,为了满足不同业务场景的需求,可以将机器学习的模型分别部署到 Android、iOS、Web 浏览器,让模型在端侧能够进行推演,从…
-
OpenAI新上线GPT太强了,服务器瞬间挤爆,马斯克:你们太沉迷了
当每个人都在苦苦等待 GPT-4 发布时,OpenAI 却一直迟迟没有消息,仍在修复其前身。这家总部位于旧金山的公司于昨日发布了一个名为 ChatGPT 的新模型,它是 GPT-3…