網(wǎng)站性能檢測(cè)評(píng)分
注:本網(wǎng)站頁面html檢測(cè)工具掃描網(wǎng)站中存在的基本問題,僅供參考。
網(wǎng)絡(luò)團(tuán)隊(duì)培訓(xùn)
中小企業(yè)如何搭建網(wǎng)絡(luò)營(yíng)銷團(tuán)隊(duì)? 企業(yè)視頻課程
(文/守護(hù)袁昆)上一篇文章中我們講解了0基礎(chǔ)企業(yè)怎樣快速入門網(wǎng)絡(luò)營(yíng)銷,試水后如果取得了一定的效果,肯定是想做大。建立團(tuán)隊(duì)是必經(jīng)的過程,今天來聊一聊中小企業(yè)如何搭建網(wǎng)絡(luò)營(yíng)銷團(tuán)隊(duì)。
中小企業(yè)在建立網(wǎng)絡(luò)營(yíng)銷團(tuán)隊(duì)之前,首先跟企業(yè)主普及一個(gè)信息。按二線城市剛?cè)腴T的網(wǎng)絡(luò)營(yíng)銷新手4000元的工資,加上各種福利、補(bǔ)貼,單個(gè)員工基本上一年需要5萬元成本。如果企業(yè)需要建立網(wǎng)絡(luò)營(yíng)銷團(tuán)隊(duì),這點(diǎn)要注意。
了解到了網(wǎng)絡(luò)營(yíng)銷團(tuán)隊(duì)成員的成本問題,如果企業(yè)需要搭建網(wǎng)絡(luò)營(yíng)銷團(tuán)隊(duì),守護(hù)袁昆和大家聊聊下面的事。
正常情況下來說,一個(gè)網(wǎng)絡(luò)營(yíng)銷團(tuán)隊(duì)的具體人員配置:主管,文案,推廣,客服,美工,程序。
大多中小企業(yè),特別是小微企業(yè)因?yàn)槌杀镜仍蚩隙ú豢赡芙M建6人的團(tuán)隊(duì)。其中文案編輯和推廣人員可以設(shè)定一人,客服可以現(xiàn)有的銷售人員擔(dān)任,美工和程序可以找兼職人員即可。至于主管人員,前期試水網(wǎng)絡(luò)營(yíng)銷的企業(yè)老板或負(fù)責(zé)人可以擔(dān)任,當(dāng)然也可以外請(qǐng)一個(gè)營(yíng)銷顧問。
了解到具體的人員配置問題,我們來看看具體怎么搭建團(tuán)隊(duì)。
一、現(xiàn)有網(wǎng)絡(luò)營(yíng)銷運(yùn)營(yíng)者復(fù)制、分工。
對(duì)于大多數(shù)小微企業(yè)來說,都是企業(yè)老板或者負(fù)責(zé)人,或者老板的親屬學(xué)習(xí)網(wǎng)絡(luò)營(yíng)銷,試水后感覺效果不錯(cuò)才準(zhǔn)備加大力度。
因?yàn)槭?基礎(chǔ)開始入門的,所以經(jīng)驗(yàn)最簡(jiǎn)單有效,守護(hù)袁昆認(rèn)為完全可以把這些經(jīng)驗(yàn)和方法直接復(fù)制團(tuán)隊(duì)成員。然后根據(jù)每個(gè)成員的能力進(jìn)行分工合作。比如有人專注內(nèi)容,有人專注渠道。當(dāng)然這個(gè)看企業(yè)投入的成本,特別是人力成本。
二、招聘網(wǎng)絡(luò)營(yíng)銷推廣負(fù)責(zé)人。
因?yàn)樵谄髽I(yè)剛?cè)腴T網(wǎng)絡(luò)營(yíng)銷的過程中,已經(jīng)了解了網(wǎng)絡(luò)營(yíng)銷是怎么回事,知道網(wǎng)絡(luò)營(yíng)銷要做哪些事。所以可以很清晰明白哪些人可以把團(tuán)隊(duì)搭建好,可以把網(wǎng)絡(luò)營(yíng)銷做好。
因?yàn)樽约憾?,所以知道找什么樣的人,讓他去?fù)責(zé)就好了。不管是招聘營(yíng)銷負(fù)責(zé)人,還是找一個(gè)營(yíng)銷顧問。在這里守護(hù)袁昆提醒:用人不疑、疑人不用。既然找了網(wǎng)絡(luò)營(yíng)銷推廣負(fù)責(zé)人,應(yīng)該給足權(quán)限。在營(yíng)銷推廣過程中可以給建議,但決策權(quán)一定要營(yíng)銷負(fù)責(zé)人。
三、找營(yíng)銷培訓(xùn)機(jī)構(gòu)推薦人才。
現(xiàn)在很多網(wǎng)絡(luò)營(yíng)銷培訓(xùn)班,他們的學(xué)員雖然實(shí)戰(zhàn)經(jīng)驗(yàn)比較少,但有一定的理論基礎(chǔ),還是可以很快的上手。
中小企業(yè)在搭建網(wǎng)絡(luò)營(yíng)銷團(tuán)隊(duì)的過程中,如果需要什么樣的人員,直接找對(duì)方合作對(duì)接就好了。
守護(hù)袁昆從網(wǎng)絡(luò)營(yíng)銷團(tuán)隊(duì)基本的人員配置,到具體怎樣搭建網(wǎng)絡(luò)營(yíng)銷團(tuán)隊(duì),給大家做了上面的介紹。在此提醒中小企業(yè)主,千萬不可盲目的多招人,過快擴(kuò)充人員成本太大。分工合作各司其職就好了。
如果大家對(duì)中小企業(yè)搭建網(wǎng)絡(luò)營(yíng)銷團(tuán)隊(duì)的問題還有疑問,可以一起交流。
何愷明團(tuán)隊(duì):從特征金字塔網(wǎng)絡(luò)、Mask R-CNN到學(xué)習(xí)分割一切 企業(yè)視頻課程
圖來自Learning to Segment Everything
來源:skrish13.github.io
作者:krish 編譯:肖琴
【新智元導(dǎo)讀】這篇文章介紹了FAIR何愷明、Tsung-Yi Lin等人的團(tuán)隊(duì)在計(jì)算機(jī)視覺領(lǐng)域最新的一些創(chuàng)新,包括特征金字塔網(wǎng)絡(luò)、RetinaNet、Mask R-CNN以及用于實(shí)例分割的弱半監(jiān)督方法。
特征金字塔網(wǎng)絡(luò)(Feature Pyramid Networks)
讓我們以現(xiàn)在著名的Feature Pyramid Networks(FPN)[1]開始,這是在CVPR 2017發(fā)表的論文,作者Tsung-Yi Lin,何愷明等人。FPN的論文真的很棒。構(gòu)建一個(gè)每個(gè)人都可以在各種任務(wù)、子主題和應(yīng)用領(lǐng)域中建立的基準(zhǔn)模型并不容易。在詳細(xì)討論之前,我們需要了解的一點(diǎn)是:FPN是ResNet或DenseNet等通用特征提取網(wǎng)絡(luò)的附加組件。你可以從你喜歡的DL庫(kù)中得到想要的預(yù)訓(xùn)練FPN模型,然后像其他預(yù)訓(xùn)練模型一樣使用它們。
物體是以不同的的scale和size出現(xiàn)的。數(shù)據(jù)集無法捕獲所有這些數(shù)據(jù)。因此,可以使用圖像金字塔(圖像的多種縮小比例),以使CNN更易處理。但這太慢了。所以人們只使用一個(gè)單個(gè)scale的預(yù)測(cè),也可以從中間層進(jìn)行預(yù)測(cè)。這跟前一種方法有點(diǎn)像,但這是在特征空間上進(jìn)行的。例如,在幾個(gè)ResNet塊之后放一個(gè)Deconv,并獲得分割輸出(分類也類似,可以是1x1 Conv和GlobalPool)。
FPN的作者找到了一種改進(jìn)上述方法的聰明方法。不是僅僅具有橫向連接,而是將自上而下的pathway也放在上面。這非常合理!他們使用一個(gè)簡(jiǎn)單的MergeLayer(mode ='addition')來組合兩者。這個(gè)想法的一個(gè)關(guān)鍵點(diǎn)是,較低層(比如初始的conv層)的特征語義信息比較少,不足以用來進(jìn)行分類。但是更深層的特征可以用于理解。在這里,你還可以利用所有自上而下的pathway FMaps(特征地圖)來理解它,就像最深的層一樣。這是由于橫向連接和自上而下的連接相結(jié)合形成的。
FPN論文的一些細(xì)節(jié)
金字塔(pyramid):即屬于一個(gè)stage的所有大小相同的輸出圖。最后一層的輸出是金字塔的參考FMaps。例如:ResNet - 第2,3,4,5個(gè)block的輸出。根據(jù)內(nèi)存的可用性和特定任務(wù),你可以根據(jù)需要改變金字塔。橫向連接(Lateral connection):1x1 Conv和Top-Down pathway是2x的上采樣。這個(gè)想法來自于頂部特征,同時(shí)向下產(chǎn)生粗糙的特征,而橫向連接則增加了從下往上的路徑中更精細(xì)的細(xì)節(jié)。如下圖所示。這篇論文只描述了一個(gè)簡(jiǎn)單的demo。它只是展現(xiàn)了這個(gè)想法在簡(jiǎn)單的設(shè)計(jì)選擇中表現(xiàn)非常好,你可以做得更大、更復(fù)雜。
正如我前面所說,這是一個(gè)基礎(chǔ)網(wǎng)絡(luò),可以在任何任務(wù)上使用,包括目標(biāo)檢測(cè),分割,姿態(tài)估計(jì),人臉檢測(cè)等等。論文發(fā)布后幾個(gè)月的時(shí)間,已經(jīng)得到100多個(gè)引用!論文的標(biāo)題是FPNs for Object Detection,因此作者繼續(xù)將FPN用作RPN(Region Proposal Network)和Faster-RCNN網(wǎng)絡(luò)的baseline。更多關(guān)鍵細(xì)節(jié)在論文中有更全面的解釋,這里只列出一部分。
實(shí)驗(yàn)的一些要點(diǎn):
用于RPN的FPN:用FPN替換單一尺度的FMap。它們對(duì)每個(gè)級(jí)都有一個(gè)單一尺度的anchor(不需要多級(jí)作為其FPN)。它們還表明,金字塔的所有層級(jí)都有相似的語義層級(jí)。Faster RCNN:他們以類似于圖像金字塔輸出的方式觀察金字塔。因此,使用下面這個(gè)公式將RoI分配到特定level。
是w,h=224,224時(shí)映射的level。其中w,h分別表示寬度和高度。k是分配RoI的level。K0是w,h=224,224時(shí)映射的level。他們對(duì)每個(gè)模塊的工作進(jìn)行消融實(shí)驗(yàn),以證實(shí)論文開頭的宣稱。他們還基于DeepMask和SharpMask這兩篇論文展示了如何將FPN用于segmentation proposal生成。請(qǐng)閱讀原論文了解實(shí)現(xiàn)細(xì)節(jié)和實(shí)驗(yàn)設(shè)置等。
代碼
61 官方Caffe2 - https://github/facebookresearch/Detectron/tree/master/configs/12_2017_baselines
61Caffe - https://github/unsky/FPN
61PyTorch - https://github/kuangliu/pytorch-fpn (just the network)
61MXNet - https://github/unsky/FPN-mxnet
61Tensorflow - https://github/yangxue0827/FPN_Tensorflow
RetinaNet——密集對(duì)象檢測(cè)的Focal Loss函數(shù)
RetinaNet跟上面的FPN來自同一團(tuán)隊(duì),第一作者也都是Tsung-Yi Lin。這篇論文發(fā)表于ICCV 2017,并且獲得當(dāng)年的最佳學(xué)生論文。
這篇論文有兩個(gè)關(guān)鍵想法——稱為焦點(diǎn)損失(Focal Loss,F(xiàn)L)的損失函數(shù)和稱為RetinaNet的single stage物體檢測(cè)網(wǎng)絡(luò)。該網(wǎng)絡(luò)在COCO物體檢測(cè)任務(wù)上表現(xiàn)非常出色,同時(shí)也擊敗了前面的FPN benchmark。
Focal Loss
Focal Loss是很聰明的想法,而且很簡(jiǎn)單!如果你已經(jīng)熟悉加權(quán)損失,這個(gè)與加權(quán)損失基本相同,但具有更聰明的權(quán)重,將更多的注意力集中在對(duì)困難的樣本進(jìn)行分類。公式如下:
其中γ是一個(gè)可以改變的超參數(shù)。
是來自分類器的樣本的概率。如果設(shè)γ比0大,將減小分類號(hào)的樣本的權(quán)重。
是正常加權(quán)損失函數(shù)中類的權(quán)重。在論文中它被表示為α-balanced loss。需要注意的是,這是分類損失,并與RetinaNet中物體檢測(cè)任務(wù)的平滑L1損失相結(jié)合。
RetinaNet
FAIR發(fā)布這個(gè)single stage的檢測(cè)網(wǎng)絡(luò),很是令人驚訝。直到現(xiàn)在,在 single stage 的目標(biāo)檢測(cè)中,占據(jù)主導(dǎo)地位的仍是YOLOv2和SSD。但正如作者指出的那樣,這兩個(gè)網(wǎng)絡(luò)都沒有能夠非常接近SOTA方法。RetinaNet做到了這一點(diǎn),同時(shí)它是one stage而且快速的。作者認(rèn)為,最好的結(jié)果是由于新的損失,而不是由于一個(gè)簡(jiǎn)單的網(wǎng)絡(luò)(它后端是一個(gè)FPN)。 one stage的檢測(cè)器將在背景與positive classes之間存在很多不平衡(而非positive classes內(nèi)部的不平衡)。他們認(rèn)為,加權(quán)損失函數(shù)只是針對(duì)平衡,但FL則針對(duì)簡(jiǎn)單/困難的樣本,同時(shí)也表明兩者可以結(jié)合起來。
代碼
61Official Caffe2 - https://github/facebookresearch/Detectron/tree/master/configs/12_2017_baselines
61PyTorch - https://github/kuangliu/pytorch-retinanet
61Keras - https://github/fizyr/keras-retinanet
61MXNet - https://github/unsky/RetinaNet
Mask R-CNN
再次,Mask R-CNN也來自FAIR何愷明團(tuán)隊(duì),論文發(fā)表在ICCV 2017。Mask R-CNN用于目標(biāo)實(shí)例分割。簡(jiǎn)單來說,目標(biāo)實(shí)例分割基本上就是對(duì)象檢測(cè),但不是使用邊界框,它的任務(wù)是給出對(duì)象的精確分割圖!
TL;DR :如果你已經(jīng)了解Faster R-CNN,那么Mask R-CNN就很好理解了,就是為分割增加另一個(gè)head(branch)。所以它有3個(gè)branch,分別用于分類、bounding box regression和分割。
下面的解釋假設(shè)你已經(jīng)對(duì)Faster R-CNN有一定了解:
Mask R-CNN與Faster R-CNN相似,F(xiàn)aster R-CNN是two-stage的,其中第一個(gè)stage是RPN。添加一個(gè)預(yù)測(cè)分割mask的并行分支——這是一個(gè)FCN。Loss是
的和ROIlign Layer而不是ROIPool。這就不會(huì)像ROIPool那樣將(x / spatial_scale)分?jǐn)?shù)舍入為整數(shù),相反,它執(zhí)行雙線性插值來找出那些浮點(diǎn)值處的像素。例如:想象一下,ROI的高度和寬度分別為54,167。空間尺度基本上是圖像大學(xué)/ FMap大學(xué)(H / h),在這種情況下它也被稱為步幅(stride)。通常224/14 = 16(H = 224,h = 14)。71ROIPool: 54/16, 167/16 = 3,10
71ROIAlign: 54/16, 167/16 = 3.375, 10.4375
71現(xiàn)在我們可以使用雙線性插值來進(jìn)行上采樣。
71根據(jù)ROIAlign輸出形狀(例如7x7),類似的邏輯將相應(yīng)的區(qū)域分成適當(dāng)?shù)腷ins。
71感興趣的話可以看看Chainer的ROIPooling的python實(shí)現(xiàn),并嘗試自己實(shí)現(xiàn)ROIAlign
71ROIAlign代碼可以在不同的庫(kù)中使用,請(qǐng)查看下面提供的代碼庫(kù)。
它的主干是ResNet-FPN代碼
61官方 Caffe2 - https://github/facebookresearch/Detectron/tree/master/configs/12_2017_baselines
61Keras - https://github/matterport/Mask_RCNN/
61PyTorch - https://github/soeaver/Pytorch_Mask_RCNN/
61MXNet - https://github/TuSimple/mx-maskrcnn
學(xué)習(xí)分割一切(Learning to Segment Everything)
文如其名,這篇論文是關(guān)于分割的。更具體的說,是關(guān)于實(shí)例分割的。計(jì)算機(jī)視覺中用于分割的標(biāo)準(zhǔn)數(shù)據(jù)集非常小,對(duì)現(xiàn)實(shí)世界的問題不足以有效。即便到了2018年,創(chuàng)建于2015年的COCO數(shù)據(jù)集仍然是最流行、最豐富的數(shù)據(jù)集,盡管它只有80個(gè)物體類別。
相比之下,對(duì)象識(shí)別和檢測(cè)的數(shù)據(jù)集(例如OpenImages [8])具有用于分類任務(wù)的6000個(gè)類別和用于檢測(cè)的545個(gè)類別。話雖如此,斯坦福大學(xué)還有另一個(gè)名為Visual Genome的數(shù)據(jù)集,其中包含3000個(gè)物體類別!那么,為什么不使用這個(gè)數(shù)據(jù)集呢?因?yàn)槊總€(gè)類別中的圖像數(shù)量太少,因此DNN在這個(gè)數(shù)據(jù)集上并不會(huì)真正起作用,所以即使它更豐富,人們也不會(huì)使用這個(gè)數(shù)據(jù)集。而且,這個(gè)數(shù)據(jù)集沒有任何分割注釋,只有3000個(gè)類別的對(duì)象檢測(cè)的邊界框(bounding boxes)標(biāo)簽可用。
讓我們回到Learning to Segment Everything這篇論文。實(shí)際上,邊界框(bounding box)和分割注釋(segmentation annotation)對(duì)于域來說并沒有太大的區(qū)別,僅僅是后者比前者更精確。因此,因?yàn)閂isual Genome數(shù)據(jù)集有3000個(gè)類,為什么不利用這個(gè)數(shù)據(jù)集來做實(shí)例分割呢?FAIR何愷明團(tuán)隊(duì)正是這樣做的。這可以被稱為弱監(jiān)督(或弱半監(jiān)督?)學(xué)習(xí),也就是說你沒法完全監(jiān)督你想要實(shí)現(xiàn)的任務(wù)。它還可以與半監(jiān)督相關(guān)聯(lián),因?yàn)樗鼈兌际褂肅OCO + Visual Genome數(shù)據(jù)集。這篇論文是迄今為止最酷的。
它是建立在Mask-RCNN之上的同時(shí)在有mask標(biāo)注和無mask標(biāo)注的輸入上訓(xùn)練在mask和bbox mask之間添加一個(gè)weight transfer函數(shù)當(dāng)無mask標(biāo)注的輸入通過時(shí),wseg 預(yù)測(cè)將于馬薩卡 features相乘的權(quán)重;當(dāng)有mask標(biāo)注的輸入通過時(shí),不使用這個(gè)函數(shù),代而使用一個(gè)簡(jiǎn)單的MLP。如下圖所示。A是COCO數(shù)據(jù)集,B是VG。注意不同輸入的兩個(gè)不同路徑。
由于沒有注釋可用,作者無法在VG數(shù)據(jù)集上顯示精確度,因此他們把這個(gè)想法應(yīng)用到可以證明結(jié)果的數(shù)據(jù)集上。PASCAL-VOC有20個(gè)類別,而且這些類別在COCO中都很常見。因此,他們使用VOC分類標(biāo)簽進(jìn)行訓(xùn)練,并且只使用來自COCO的bbox標(biāo)簽對(duì)這20個(gè)類別進(jìn)行訓(xùn)練。結(jié)果顯示在COCO數(shù)據(jù)集中20個(gè)類的實(shí)例分割任務(wù)上。反之亦然,因?yàn)檫@兩個(gè)數(shù)據(jù)集都有g(shù)round-truth。結(jié)果如下表所示:
References:
[1] Lin, Tsung-Yi, Piotr Dollár, Ross B. Girshick, Kaiming He, Bharath Hariharan and Serge J. Belongie. “Feature Pyramid Networks for Object Detection.” *2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)* (2017): 936-944.
[2] Lin, Tsung-Yi, Priya Goyal, Ross B. Girshick, Kaiming He and Piotr Dollár. “Focal Loss for Dense Object Detection.” *2017 IEEE International Conference on Computer Vision (ICCV)* (2017): 2999-3007.
[3] He, Kaiming, Georgia Gkioxari, Piotr Dollár and Ross B. Girshick. “Mask R-CNN.” *2017 IEEE International Conference on Computer Vision (ICCV)* (2017): 2980-2988.
[4] Hu, Ronghang, Piotr Dollár, Kaiming He, Trevor Darrell and Ross B. Girshick. “Learning to Segment Every Thing.” *CoRR*abs/1711.10370 (2017): n. pag.
[5] Ren, Shaoqing, Kaiming He, Ross B. Girshick and Jian Sun. “Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks.” *IEEE Transactions on Pattern Analysis and Machine Intelligence* 39 (2015): 1137-1149.
[6] Chollet, Fran04ois. “Xception: Deep Learning with Depthwise Separable Convolutions.” 2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR) (2017): 1800-1807.
[7] Lin, Tsung-Yi, Michael Maire, Serge J. Belongie, James Hays, Pietro Perona, Deva Ramanan, Piotr Dollár and C. Lawrence Zitnick. “Microsoft COCO: Common Objects in Context.” ECCV (2014).
[8] Krasin, Ivan and Duerig, Tom and Alldrin, Neil and Ferrari, Vittorio et al. OpenImages: A public dataset for large-scale multi-label and multi-class image classification. Dataset available from https://github/openimages
[9] Krishna, Ranjay, Congcong Li, Oliver Groth, Justin Johnson, Kenji Hata, Joshua Kravitz, Stephanie Chen, Yannis Kalantidis, David A. Shamma, Michael S. Bernstein and Li Fei-Fei. “Visual Genome: Connecting Language and Vision Using Crowdsourced Dense Image Annotations.” International Journal of Computer Vision 123 (2016): 32-73.
原文:https://skrish13.github.io/articles/2018-03/fair-cv-saga