(3)用(2)得到的参数初始化RPN的网络,把RPN与FAST RCNN共享的卷积层的学习率设为0,仅更新RPN特有的网络层,重新训练,此时网络共享共有的卷积层。
(4)固定共享的层,加入FAST RCNN,fine tune它特有的网络。
细节:
对于每个anchor的三种scale为128*128,256*256,512*512,,三种宽高比1:1,1:2,2:1。
对于一些RPN的proposal,采用非极大值抑制的办法选择过滤一部分,减少冗余。
(3)用(2)得到的参数初始化RPN的网络,把RPN与FAST RCNN共享的卷积层的学习率设为0,仅更新RPN特有的网络层,重新训练,此时网络共享共有的卷积层。
(4)固定共享的层,加入FAST RCNN,fine tune它特有的网络。
细节:
对于每个anchor的三种scale为128*128,256*256,512*512,,三种宽高比1:1,1:2,2:1。
对于一些RPN的proposal,采用非极大值抑制的办法选择过滤一部分,减少冗余。
内容版权声明:除非注明,否则皆为本站原创文章。