IT之家 6 月 25 日新闻,公司AI 守业公司 MosaicML 克日宣告了其语言模子 MPT-30B ,推出该模子具备 300 亿参数,亿参磨炼老本“仅有其余同类竞品模子的数模零头”,有望匆匆妨碍业逐渐飞腾此类模子磨炼老本 ,公司扩展 AI 模子在更普遍规模的推出运用 。
MosaicML 公司的亿参首席实施官兼散漫独创人 Naveen Rao 展现 ,MPT-30B 的数模磨炼老本为 70 万美元(约 502.44 万元国夷易近币) ,远低于 GPT-3 划一类产物所需的公司数万万美元磨炼老本。此外,推出由于 MPT-30B 的亿参老本较低,体积较小,数模它也可能更快捷地被磨炼,公司而且更适宜部署在当地硬件上 。推出
据悉,亿参MosaicML 运用了 Alibi 以及 FlashAttention 技术来优化模子 ,可能实现更长的文本长度以及对于 GPU 合计的更高运用率