李飛飛等人的新研究 可能讓人工智能真的不需要人了

?機器人資訊 ????|???? ?2020-02-12

  你可能聽說過,在河南的農村里,在非洲的城市中,每一個你想象不到的地方,有著大量的數據標注員。

 

  他們手動在圖片里把每一只花瓶和每一輛汽車框出來,并且標上“花瓶”和“汽車”。一段時間后,這些人把成千上萬張標記好的圖片打包,發送給遠在北京、上海甚至舊金山的AI公司。

 

  GQ將這些人稱為《那些給人工智能打工的人》。
 


 

  人工智能發展迅速,大大小小的互聯網科技公司相繼開展研究,投入商用。然而訓練一個可用的AI,需要大量準確標記好的圖片、視頻等資料。

 

  正因為此,市場對數據標注的需求如此之大,吸引“那些給AI打工的人”爭相加入,其中不乏原來找不到工作的閑散人員——畢竟這份工作只需要動動鼠標,用不上太多知識。

 

  但是,恐怕不久后,這些人就將再次失業。

 

  上周,來自約翰·霍普金斯大學、斯坦福大學和Google的專家聯合發布了一篇論文,介紹了他們使用神經網絡來自動搜索神經網絡,將其投入圖像分割方面的研究,并且取得的重要進展:

 

  研究人員采用神經架構搜索(Neural Architecture Seartch, NAS)技術設計了一個神經架構(A),放任它去自動搜索/設計出新的神經架構(B),投入到圖像語義分割(semantic image segmentation)的任務中。

 

  研究人員發現,這個被自動搜索出來的神經架構B,在主流的小規模圖像數據集上,未經訓練就直接使用,表現已經超過了現有人類設計的、預先訓練好的模型。

 

  以往人們一直相信,設計AI需要大量知識和經驗,簡而言之就是需要人來設計。

 

  但現在,AI設計出的AI,已經比人設計出的AI更強。

 

  論文的標題叫做:Auto-DeepLab: Hierarchical Neural Architecture Search for Semantic Image Segmentation

 

  研究人員將這個能夠自動搜索(設計)神經架構的技術命名為Auto-DeepLab。這個名字來自于DeepLab,Google人工開發的圖像語義分割技術。前面加上Auto,意思是在DeepLab的基礎上,新的技術可以實現了很大程度的自動化。

 

  論文署名作者當中,兩人來自約翰·霍普金斯大學,其中第一作者是Chenxi Liu,曾在Google實習;有四人來自Google;剩下的一人來自斯坦福大學,正是原Google Cloud首席科學家,在計算機視覺學術和業界知名的李飛飛教授。

 

  “本著AutoML(編者注:Google主導的AI計劃,將算法選擇,模型的超參數調整,迭代建模和模型評估等工作自動化。)和人工智能普及化的精神,對于不依賴專家經驗知識,自動設計神經網絡架構,人們的興趣有了顯著提升。”作者提到。
 


 

  在“AI自動設計AI”這件事上,Auto-DeepLab有幾個比較重要的新嘗試。

 

  首先,神經架構搜索NAS技術是AI領域的新興物種,主要用于簡單的圖片分類。而在這篇論文里,研究者首次嘗試將NAS投入到高密度的圖片預測任務上(也就是對更復雜的高分辨率圖片進行語義分割,比如Cityscapes城市街景數據集、PASCAL VOC 2012和ADE20K等數據集)。

 

  其次,在計算機視覺領域內的神經網絡架構,通常分為內層、外層的兩級架構,自動化的神經架構設計往往只能設計內層,外層仍需要人來設計和手調。而Auto-DeepLab是第一個讓AI掌握外層設計和調參能力,并在圖像語義分割任務上得到優異結果的嘗試。

 

  “圖像語義分割”六個字聽上去有點拗口,其實很好理解:對于一張圖劃分幾個類別,然后將所有的像素點歸類。

 

  比如下面這張圖,可以簡單分為三類。圖像語義分割的任務,就是判斷每一個像素點屬于人、自行車,還是背景。
 


 

  需要明確的是,圖像語義分割的任務純粹是判斷像素點屬于哪個類別,它不能識別和區分獨立的物體。

 

  不過圖像語義分割仍然有很重要的意義,比如在它可以用于手機拍照的“人像模式”。采用更優秀的圖像語義分割技術,手機能夠在更高精度的照片里確認每一個像素點,屬于人,亦或是背景。

 

  目前Google、小米等公司都在手機拍照上使用這一技術。理論上,未來的“人像模式”可以在毛發、衣物邊緣實現更好的效果。

 

免責聲明:本網部分文章和信息來源于互聯網,本網轉載出于傳遞更多信息和學習之目的。如轉載稿涉及版權等問題,請立即聯系網站所有人,我們會予以更改或刪除相關文章,保證您的權利。