明敏发自凹非寺量子位公众号QbitAI训练大模型,几千块就能实现了!现在,15小时、几千块钱、85亿token数据,即可训出中文LLaMA2。综合性能达到开源社区同规模从头预训练SOTA
read more梦晨发自凹非寺量子位公众号QbitAIDALL·E3限量测试,已由微软Bing抢先开启,看看你是欧皇之一吗?△来自WindowsLatest没收到资格也没关系,再加上第三方研究预览、Op
read more萧箫发自凹非寺量子位公众号QbitAI阿里又开源大模型了!这次是纯粹的大语言模型,相比上一次的70亿,新模型的参数量来到了140亿。它名叫Qwen-14B,一上来就在一系列任务榜单中全部取
read more西风发自凹非寺量子位公众号QbitAI“新·AI绘画细节控制大师”ControlNet-XS来啦!敲重点的是参数只要原始ControlNet的1%。就能做到蛋糕口味随意切换:△左图为改前改
read more来源:红杉资本翻译:深思圈(Deep_Think_Circle)编者按:本文原作者是红杉的两位合伙人SonyaHuang和PatGrady,以及GPT-4。文章回顾了过去一年以来生成式AI的发展态
read more克雷西发自凹非寺量子位公众号QbitAI大模型的幻觉问题,又有新的解决方法了!MetaAI实验室提出了一种“分而治之”的解决方案。有了这个方案,Llama-65B输出的信息准确率提升了一
read more