您好,原文顺序回归损失这块看得一头雾水,在y(w,h,2k)和y(w,h,2k+1)上用softmax计算预测标签L大于k的概率,,看文章时卡在这里没有看太懂。还有您文章里最后提到的,为什么要将[b,2k,w,h]reshape为[b,2,k,w,h].
![240](https://cdn2.jianshu.io/assets/default_avatar/12-aeeea4bedf10f2a12c0d50d626951489.jpg?imageMogr2/auto-orient/strip|imageView2/1/w/240/h/240)
IP属地:重庆
您好,原文顺序回归损失这块看得一头雾水,在y(w,h,2k)和y(w,h,2k+1)上用softmax计算预测标签L大于k的概率,,看文章时卡在这里没有看太懂。还有您文章里最后提到的,为什么要将[b,2k,w,h]reshape为[b,2,k,w,h].
您好,原文顺序回归损失这块看得一头雾水,在y(w,h,2k)和y(w,h,2k+1)上用softmax计算预测标签L大于k的概率,,看文章时卡在这里没有看太懂。还有您文章里最后提到的,为什么要将[b,2k,w,h]reshape为[b,2,k,w,h].
论文阅读:Deep Ordinal Regression Network for Monocular Depth Estimation论文地址:[1806.02446] Deep Ordinal Regression Network for Monocular Depth Estimation 概述 Mon...