标签:MoE

用MoE技术和开源模型建立差异化,Mistral AI获4.15亿美元融资

12月8日,Mistral AI在X(原Twitter)上发布了一条磁力链接,直接开源了自己最新的MoE(Mixture of Experts)大模型Mixtral 8x7B,这个模型不仅在测试成绩上...