2.8 KiB
模型训练
PyTorch模型训练
transformers库是PyTorch模型开发的主流套件。以此为基础结合PyTorch侧主流生态库,openMind Library为用户提供了一键式训练启动命令,帮助用户快速实现从数据处理、多站点权重加载,到低参数使能、量化适配、训练和跟踪的全流程功能。同时,openMind Library还提供了昇腾NPU亲和算子优化等加速手段,显著提升模型训练效率。
openMind Library提供命令行接口(command-line interface, CLI),支持用户在shell环境下交互式实现训练流程。用户只需要通过openmind-cli train demo.yaml
命令,就可以动态解析yaml文件里的配置参数,并自动完成训练全流程。
当前支持特性如下,您可以跳转到相关链接了解功能具体情况。
MindSpore模型训练
mindformers库是MindSpore模型开发的主流套件。当前openMind Library仅支持MindSpore模型微调,为了方便用户进行模型微调,openMind Library对Auto Classes、Trainer和TrainingArguments接口统一进行了封装。
-
openMind Library封装的Auto Classes接口如下表所示。其余的Auto Classes接口openmind Library保留原生使用方式,如需使用,用户可自行从mindformers库中导入。
接口 MindSpore AutoConfig ✅ AutoTokenizer ✅ AutoProcessor ✅ AutoImageProcessor ✅ AutoFeatureExtractor ❌ AutoModel ✅ AutoModelForCausalLM ✅ AutoModelForSequenceClassification ✅ 上述Auto Classes接口的具体参数说明,可参考openMind Library提供的Auto Classes接口说明文档。
-
针对MindSpore框架,MindSpore框架用户可以保持原有的mindformers库的使用习惯,使用openMind Library提供的Trainer和TrainingArguments进行微调。具体参数支持列表参考openMind Library提供的Trainer和TrainingArguments的接口说明文档。