内容持续更新中
发掘上下文长度提升规律 萧箫 发自 凹非寺 量子位 | 公众号 QbitAI 只需微调一下,大模型支持上下文大小就能从1.6万tokens延长至100万?! 还是在只有70亿参数的LLaMA 2上。 …
结合MLIR和PyTorch编译生态 允中 发自 凹非寺 量子位 | 公众号 QbitAI Buddy Compiler 端到端 LLaMA2-7B 推理示例已经合并到 buddy-mlir仓库[1]…
开源之光能否对标GPT-3.5? 允中 发自 凹非寺 量子位 | 公众号 QbitAI 进入2023年7月,大语言模型(LLM)的发展进入了新阶段,开源成为一个火热的主题。 7月6日,上海人工智能实验…
深耕行业近20年 允中 发自 凹非寺 量子位 | 公众号 QbitAI 上周,Llama 2的发布在AI圈子引起了巨大的轰动。 Llama 2相比上一代,不仅用了更多的训练数据,而且context l…
可无代码训练、一键部署 明敏 发自 凹非寺 量子位 | 公众号 QbitAI LLaMA2训练微调推理,大提速了! 针对700亿版本,训练加速195%。 而且还能基于云平台实现无代码训练个性私有化模型…
英特尔丰富的AI硬件产品组合与优化开放的软件相结合,为应对算力挑战提供了可行的方案。 英特尔广泛的AI硬件组合及开放的软件环境,为Meta发布的Llama 2模型提供了极具竞争力的选择,进一步助力大语…
作者:还能进一步提升 明敏 发自 凹非寺 量子位 公众号 | QbitAI 专为AI而来的新语言Mojo,推理LLaMA2性能比Python提升250倍! 比C语言也要快上20%。 上周五才开放下载,…
“比Meta版ChatGPT更令人兴奋” 明敏 丰色 发自 凹非寺 量子位 | 公众号 QbitAI 悄无声息,羊驼家族“最强版”来了! 与GPT-4持平,上下文长度达3.2万token的LLaMA …