关于嘉楠在线训练平台的使用倡议

Viewed 644
  1. 内置模型均添加了预训练设置,非复杂场景下,100~300次迭代基本上够用,迭代设置太大不会有效果的提升,反而会浪费资源,比如设置为1000并不可取;考虑到上述问题,我们已经将最大迭代次数降低到500;
  2. 训练数据集不宜设置太大的分辨率,会降低训练效率;
  3. 尽量将批数据大小设置为16或24,如果失败,再降为8,同样是为了提高效率;
  4. 如果您有计算资源可以使用离线训练AICube或者租用服务器使用YOLO,YOLO支持常见的分类检测分割任务;
    现在内部计算资源紧张,导致部分用户的任务排队时间冗长,特此提出倡议,感谢大家的理解!

那怎么办

请问批处理大小16和批处理大小为8训练出来的模型效果有什么区别

收敛更快,但有可能过拟合

1 Answers

平台是否可以对上述情况自动加一些限制?

最近正在添加限制