早在2013年,我就把玩過iOS的人臉偵測 (Face Detection),當時覺得非常酷!因為已經能在手機上玩人臉偵測,回想2011年,我還在研究電腦上OpenCV,那時可是我研究所樂趣之一呢~
時光飛逝來到2017年,Apple在WWDC上發佈Vision Framework,裡頭實現更強大的人臉偵測。
怎麼說變得強大?其實iOS至今已有三種方式來實現人臉偵測,來張比較圖表,就能知道其中差異:
根據官方提供的資料可以看出來,Vision 和 Core Image、AV Capture 在精確度、耗時、耗電量來看基本都是Best、Fast、Good。
那麼Vision在SDK架構上是如何?原來它是以Core ML為基礎,實現電腦視覺的演算法。
經過我實際用照片來測試人臉偵測,確實有比過往的方法迅速許多!Vision甚至還能回傳Face Landmark,因而能玩各種有趣的介面互動。
Vision裡就已經內建很多訓練好的Core ML模型,這些模型是針對人臉識別、文字偵測、條形碼偵測等等功能,如果我們要實現的功能剛好是Vision本身就能實現的,那麼我們直接使用Vision內建的一些類和方法就行,但是如果想要更強大的功能,那麼還是需要結合其它Core ML模型。
Vision還能做文字偵測 (Text Detection),我測試後,發現對中文的偵測效果差強人意!倒是Line App提供的文字偵測功能超級強大,也許只要換成偵測中文更厲害的Model就行了~
未來我要把人臉偵測功能加入到公司產品,主要是要判斷人臉是否被裁切,若有的話就提醒用戶要調整相片位置,請拭目以待~
Comments on: "[iOS] 使用Vision人臉偵測 (Face Detection Using Vision)" (2)
[…] 此刻要記錄實作內容,才想起先前已寫過一篇,不過那篇是沒有原始碼,然而依舊可參考:[iOS] 使用Vision人臉偵測 (Face Detection Using Vision)。😎 […]
讚讚
終於要來進行這個計畫囉!😚
讚讚