ChatGPT 激发的亿参大模子热潮愈演愈烈,全天下科技巨头以及明星独创争相入局 ,数L实际打造以 AI 大模子为中间的磨炼相助力以及多样化商业运用需要。其中 LLaMA 系列模子,减速级因精采的根基根基能耐以及凋谢生态,已经积攒了海量的大模用户以及实际运用案例,成为有数开源模子其后者的最佳再降模拟以及相助的标杆工具。
但若何飞腾类 LLaMA2 大模子预磨炼老本 ,亿参若何基于 LLaMA2 经由不断预磨炼以及微调 ,数L实际低老本构建 AI 大模籽实际运用 ,磨炼仍是减速级 AIGC 相关企业面临的关键瓶颈。
作为全天下规模最大、根基最沉闷的大模大模子开拓工具与社区 ,Colossal-AI 再次迭代 ,最佳再降提供开箱即用的亿参 8 到 512 卡 LLaMA2 磨炼、微调 、推理妄想,对于 700 亿参数磨炼减速 195%,并提供一站式云平台处置妄想,极大飞腾大模子开拓以及落地运用老本。
开源地址:https://github.com/hpcaitech/ColossalAI
LLaMA2 磨炼减速 195%
Meta 开源的 LLaMA 系列大模子进一步激发了打造类 ChatGPT 的激情,并由此衍生出了诸多名目以及运用 。
最新的 7B~70B LLaMA2 大模子,则进一步后退了语言模子的根基能耐 。但由于 LLaMA2 的预磨炼预料大部份来自英文通用知识,而仅用微调可能提升以及注入的规模知识以及多语言能耐也相对于有限。此外 ,高品质的业余知识以及数据集个别被视为各个行业以及公司的中间资产,仅能以私有化方式保存。因此 ,以低老本预磨炼 / 不断预磨炼 / 微调 LLaMA2 系列大模子 ,散漫高品质私有化营业数据积攒 ,辅助营业降本增效是泛滥行业与企业的急切需要与瓶颈。但 LLaMA2 大模子仅宣告了原始模子权重与推理剧本,不反对于磨炼 / 微调 ,也未提供数据集。
针对于上述空缺与需要,Colossal-AI 开源了针对于 LLaMA2 的全流程妄想 ,并具备高可扩展性 ,反对于从 70 亿到 700 亿参数的模子,从 8 卡到 512 卡均可坚持精采的功能 。
在运用 8 卡磨炼 / 微调 LLaMA2-7B 时,Colossal-AI 能抵达约 54% 的硬件运用率(MFU),处于业界争先水平。而对于预磨炼使命,以运用 512 张 A100 40GB 预磨炼 LLaMA2-70B 为例,DeepSpeed ZeRO3 策略因显存缺少而无奈启动,仅能经由速率衰减较大的 ZeRO3-offload 策略启动 。而 Colossal-AI 则因卓越的零星优化以及扩展性