- 内置模型均添加了预训练设置,非复杂场景下,100~300次迭代基本上够用,迭代设置太大不会有效果的提升,反而会浪费资源,比如设置为1000并不可取;考虑到上述问题,我们已经将最大迭代次数降低到500;
- 训练数据集不宜设置太大的分辨率,会降低训练效率;
- 尽量将批数据大小设置为16或24,如果失败,再降为8,同样是为了提高效率;
- 如果您有计算资源可以使用离线训练AICube或者租用服务器使用YOLO,YOLO支持常见的分类检测分割任务;
现在内部计算资源紧张,导致部分用户的任务排队时间冗长,特此提出倡议,感谢大家的理解!
那怎么办
请问批处理大小16和批处理大小为8训练出来的模型效果有什么区别
收敛更快,但有可能过拟合