【48812】1760 亿参数、巨细 281GBMixtral 8x22B 开源模型上台
来源:弯线机系列 发布时间:2024-04-16 03:36:30Mistral AI 公司自成立以来一向备受外界重视,“6 人团队,7 页 PPT,8 亿融资”不断缔造传奇,并且在得到微软的出资之后更是进入开展快车道。
该公司今日发布的 Mixtral 8x22B 开源模型是个开源模型,官方现在放出了 Torrent 种子链接,文件巨细为 281GB。用户都能够经过磁性链接直接下载,或许经过 HuggingFace 和 Perplexity AI Labs 渠道做下载。IT之家附上相关截图如下:
Mixtral 8x22B 共有 1760 亿个参数,Context 长度(上下文文本)为 6.5 万个 token,不过为单一使命能够调用部分模型(440 亿参数),因而用起来愈加灵敏。