AI公司MosaicML推出70亿参数模型MPT-7B-8,号称“一次处
,AI 创业公司 MosaicML 近日发布了其 70 亿参数模型 MPT-7B-8K,据悉,该模型一次可以处理 8000 字文本,相当擅长处理长文重点摘要和问答,还能在 MosaicML 平台上根据特定任务,进一步微调相关配置。
据悉,系列模型采用了 150 万个 Token,并以 256 块 H100 GPU 花 3 天完成模型训练而成。MosaicML 本次发布了 3 个版本模型,包括 MPT-7B-8k、MPT-7B-8k-Instruct 和 MPT-7B-8k-Chat。
其中,第一个版本 MPT-7B-8k、是以 Transformer 解码器为基础,并以 FlashAttention 和 FasterTransformer 机制来加速训练与推论,能一次处理 8000 字文本,MosaicML 公司表示,该模型开源、允许商用。
第二个版本 MPT-7B-8k-Instruct 是以第一个版本 MPT-7B-8k 微调而成,MosaicML 公司表示,MPT-7B-8k-Instruct 模型可处理长篇指令,特别注重于生成“摘要和问答”,该模型一样开源且可商用。
第三个版本 MPT-7B-8k-Chat 则是机器人对话式的 AI 模型,MosaicML 公司宣称,该模型额外多用了 15 亿个聊天数据 Token,在第一版模型 MPT-7B-8k 之上继续训练而成,该模型开源,但不允许商用。
IT之家此前报道,MosaicML 公司也推出了一款号称训练成本仅为竞品零头的 MPT-30B 开源模型,该公司日前已将所有开源模型发布于 Huggingface 平台,感兴趣的小伙伴们可以前往进行相关了解,还可以在本地硬件上使用自己的数据,在下载后,对模型进行各种微调。
广告声明:文内含有的对外跳转链接,用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。
声明:以上内容为本网站转自其它媒体,相关信息仅为传递更多企业信息之目的,不代表本网观点,亦不代表本网站赞同其观点或证实其内容的真实性。投资有风险,需谨慎。
热点精选
- 华为nova6/畅享50Pro手机和Mate2023-07-26 10:56:29
- 镇洋发展回复问询函:“年产30万吨乙烯基新材2023-07-26 10:41:42
- 全国黄金消费较快恢复2023-07-26 09:22:09
- 千城万店落地促消费补贴活动苏宁易购联合百大品2023-07-26 09:07:54
- 入营难赚钱难夏令营的冰与火2023-07-26 08:56:24
- 可现场体验VisionPro头显,苹果下月在2023-07-26 08:14:40
- 捷尼赛思联手三星开发全新GV90电动SUV车2023-07-25 14:06:37
- 炬芯科技推出三款第二代手表芯片:双GPU加速2023-07-25 13:53:14
- 和治友德参与起草的《体重控制人群用代餐食品》2023-07-25 13:49:04
- 阿里ESG报告:菜鸟数字化助力物流减碳,一年2023-07-25 13:07:54