[AI 實測] CoreML 模型結果實測

大班哥一直都有在做 iOS APP 開發,最近看到 huggingface 有上架幾個 CoreML 的模型,也順便附上了 iOS 專案的 demo code,就順便來做一下實測囉

網站提供了,三個模型來測試,如下:

Sample Code任務Core ML model 下載
FastViTImage Classificationapple/coreml-FastViT-T8 apple/coreml-FastViT-MA36
Depth Anything (small)Monocular Depth Estimationapple/coreml-depth-anything-small
DETR (ResNet 50)Semantic Segmentationapple/coreml-detr-semantic-segmentation

大班哥會以拍攝一個「在工作桌上,有著 Cama 的咖啡外帶紙杯和 Mac Book pro」來當作拍攝範例

FastVit – 處理圖像分類

▼判斷結果:透過攝影機拍攝的畫面,及時告訴你這可能是什麼物體或物品,

心得:不過這邊卻顯示「beer glass」,沒有 100 % 準確

Depth Anything – 單鏡頭深度測量

呈現結果:結果用灰階影像呈現,越靠近的物體會接近白色,越遠的物體越黑,

觀察:蠻準的,連後面的螢幕都有判斷出來

DETR (ResNet 50) – 語意分割

呈現結果:結果會用不同的色塊呈現物體

觀察:感覺可以做去背

編輯 Xcode 專案時要注意

要先確定有把訓練好的 model 正確放到 models 的資料夾底下

以 DepthSample 專案為例,他預設是 DepthAnythingSmallF16 的 model ,不過大班哥手機要使用

DepthAnythingSmallF32 的 model 來處理,換好後也要記得修改 code,才能編譯 build 成功

小結

無聊玩一下 AI 模型,在跑的時候發現手機會過熱蠻燙的XD,覺得之後可以想想怎麼實際應用在 APP 裡

網頁瀏覽量: 0


尚未有留言,成為第一個留言的人吧!

發佈留言

發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *