收集全球10,000⁺个好用的AI软件
-
RWKV-6 Mixture of ExpertsFlock of Finches 37B-A11B v0.1是RWKV家族的最新成员,这是一个实验性模型,拥有11亿个活跃参数,尽管仅训练了1090亿...
-
HMoE是什么?一文让你看懂HMoE的技术原理、主要功能、应用场景HMoE概述简介 HMoE(混合异构专家模型)是腾讯混元团队提出的新型神经网络架构,旨在提升大型语言大模型的性能和计算效率。通过引入不同尺寸的专家来...
-
XVERSE-MoE-A36B是什么?一文让你看懂XVERSE-MoE-A36B的技术原理、主要功能、应用场景XVERSE-MoE-A36B概述简介 XVERSE-MoE-A36B是由元象推出的中国最大的MoE(Mixture of Experts,混合专家...
-
OLMoE是什么?一文让你看懂OLMoE的技术原理、主要功能、应用场景OLMoE概述简介 OLMoE(Open Mixture-of-Experts Language Models)是一个完全开源的大型语言大模型,基于...
-
MoE++是什么?一文让你看懂MoE++的技术原理、主要功能、应用场景MoE++概述简介 MoE++是一种新型的混合专家(Mixture-of-Experts)架构,由昆仑万维2050研究院与北大袁粒团队联合推出。基于...
-
Time-MoE是什么?一文让你看懂Time-MoE的技术原理、主要功能、应用场景Time-MoE概述简介 Time-MoE是创新的时间序列基础模型,基于混合专家(Mixture of Experts, MoE)架构,将时间序列预...
-
专家组合是什么意思?专家组合(Mixture of Experts, MoE)详细介绍专家组合(Mixture of Experts, MoE)的概念最早源于1991年的论文《Adaptive mixtures of local e...