转载至Hugging Face transformer项目官方,是个人的理解编辑加工加上chatgpt4给出的代码解读版本。尽量做到逐行解释,小白友好。 欢迎大家提交pr,和star、fork,提交自己的源码理解。
注:xxxx表示伪目录,非有效。
- /src
- xx.py
- xx.py
- /src/transformers
- training_args.py(do_train、do_eval)
- trainer_seq2seq.py
- Seq2SeqTrainer(Trainer)
- load_generation_config
- evaluate()
- predict()
- trainer.py
- class Trainer:
- FP16 + model parallelism
- add_callback()
- deepspeed.py
- class HfDeepSpeedConfig(DeepSpeedConfig)
- class HfTrainerDeepSpeedConfig(HfDeepSpeedConfig):
- trainer_config_process(self, args)
- trainer_config_finalize(self, args, model, num_training_steps)
- trainer_config_finalize(self, args, model, num_training_steps)
- /src/transformers/tools/
- xx.py
- xx/
- README.md