Skip to content
New issue

Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.

By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.

Already on GitHub? Sign in to your account

yolov8_x训练速度太慢 #8832

Open
1 task done
silas-yy opened this issue Feb 28, 2024 · 7 comments
Open
1 task done

yolov8_x训练速度太慢 #8832

silas-yy opened this issue Feb 28, 2024 · 7 comments
Assignees

Comments

@silas-yy
Copy link

问题确认 Search before asking

  • 我已经搜索过问题,但是没有找到解答。I have searched the question and found no related answer.

请提出你的问题 Please ask your question

训练图片840张(1330×720),训练一轮超过一个小时,
版本号/Version:Paddle: paddlepaddle-gpu==2.6.0
Gpu compute capability:8.6 , priver ApI version:12.2 ,Runtime API Version:12.0
PaddleDetection: release/2.7
运行指令/Command Code:
python tools/train.py -c configs/yolov8/yolov8_x_500e_coco.yml --use_vdl=true --vdl_log_dir=vdl_dir/scalar
e02ccce34a61c684bb2338dbc39e694
数据集类型:coco数据集
配置文件:
bd9c547055517d5928235bc0779c6a0
cfd012fc9ed4bb3e4440e0c5630f160
b26f0bf9c5f7d4678fe6c45772008b6
硬件配置
GPU:RTX 3080 GPU显存10GB
CPU:10 核 Xeon Gold 6142
内存:64GB
硬盘:952GB
请大佬指点,谢谢

@silas-yy
Copy link
Author

设置的学习率是0.00125,但第0轮是0,后面才开始慢慢升
091f5d052cd4cdcc756589bb7ff97bd
后期训练loss值基本不变,一直在61左右徘徊
091f5d052cd4cdcc756589bb7ff97bd

@nemonameless
Copy link
Collaborator

PaddlePaddle/PaddleYOLO#43 训自定义数据集可参照这个教程的3. Fintune 微调训练。训练命令后加上:-o pretrain_weights=https://paddledet.bj.bcebos.com/models/yolov8_x_500e_coco.pdparams
这样收敛会很快。

训练速度方面,可以注释mosaic即不使用它,可以加速很多,https://github.com/PaddlePaddle/PaddleYOLO/blob/develop/configs/yolov8/_base_/yolov8_reader_high_aug.yml#L4 mosaic_epoch设置为-1,MosaicPerspective: {mosaic_prob: 0.0}

@silas-yy
Copy link
Author

PaddlePaddle/PaddleYOLO#43 训自定义数据集可参照这个教程的3. Fintune 微调训练。训练命令后加上:-o pretrain_weights=https://paddledet.bj.bcebos.com/models/yolov8_x_500e_coco.pdparams 这样收敛会很快。

训练速度方面,可以注释mosaic即不使用它,可以加速很多,https://github.com/PaddlePaddle/PaddleYOLO/blob/develop/configs/yolov8/_base_/yolov8_reader_high_aug.yml#L4 mosaic_epoch设置为-1,MosaicPerspective: {mosaic_prob: 0

PaddlePaddle/PaddleYOLO#43 训自定义数据集可参照这个教程的3. Fintune 微调训练。训练命令后加上:-o pretrain_weights=https://paddledet.bj.bcebos.com/models/yolov8_x_500e_coco.pdparams 这样收敛会很快。

训练速度方面,可以注释mosaic即不使用它,可以加速很多,https://github.com/PaddlePaddle/PaddleYOLO/blob/develop/configs/yolov8/_base_/yolov8_reader_high_aug.yml#L4 mosaic_epoch设置为-1,MosaicPerspective: {mosaic_prob: 0.0}

请问下,加入微调是否会导致训练速度变慢?我们尝试了v3,v5和v8,都有发现这个 情况。训练一个epoch的时间明显增加

1 similar comment
@silas-yy
Copy link
Author

PaddlePaddle/PaddleYOLO#43 训自定义数据集可参照这个教程的3. Fintune 微调训练。训练命令后加上:-o pretrain_weights=https://paddledet.bj.bcebos.com/models/yolov8_x_500e_coco.pdparams 这样收敛会很快。

训练速度方面,可以注释mosaic即不使用它,可以加速很多,https://github.com/PaddlePaddle/PaddleYOLO/blob/develop/configs/yolov8/_base_/yolov8_reader_high_aug.yml#L4 mosaic_epoch设置为-1,MosaicPerspective: {mosaic_prob: 0

PaddlePaddle/PaddleYOLO#43 训自定义数据集可参照这个教程的3. Fintune 微调训练。训练命令后加上:-o pretrain_weights=https://paddledet.bj.bcebos.com/models/yolov8_x_500e_coco.pdparams 这样收敛会很快。

训练速度方面,可以注释mosaic即不使用它,可以加速很多,https://github.com/PaddlePaddle/PaddleYOLO/blob/develop/configs/yolov8/_base_/yolov8_reader_high_aug.yml#L4 mosaic_epoch设置为-1,MosaicPerspective: {mosaic_prob: 0.0}

请问下,加入微调是否会导致训练速度变慢?我们尝试了v3,v5和v8,都有发现这个 情况。训练一个epoch的时间明显增加

@nemonameless
Copy link
Collaborator

加入微调只是提前加载了一个coco训完的权重的参数做初始化,是为了更快收敛,并不会导致训练变慢,建议再检查一下。加速建议如上就是不使用mosaic,微调加mosaic可能不一定有涨点的,视数据集而定。

@silas-yy
Copy link
Author

加入微调只是提前加载了一个coco训完的权重的参数做初始化,是为了更快收敛,并不会导致训练变慢,建议再检查一下。加速建议如上就是不使用mosaic,微调加mosaic可能不一定有涨点的,视数据集而定。
有加训练完的权重,但并没有很快收敛,在配置文件中修改和指令执行是不一样嘛
image

@silas-yy
Copy link
Author

加入微调只是提前加载了一个coco训完的权重的参数做初始化,是为了更快收敛,并不会导致训练变慢,建议再检查一下。加速建议如上就是不使用mosaic,微调加mosaic可能不一定有涨点的,视数据集而定。
大佬,我按照指示修改了一下,还是比较慢的
image
image

Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment
Labels
None yet
Projects
None yet
Development

No branches or pull requests

2 participants