
大班哥一直都有在做 iOS APP 開發,最近看到 huggingface 有上架幾個 CoreML 的模型,也順便附上了 iOS 專案的 demo code,就順便來做一下實測囉
網站提供了,三個模型來測試,如下:
Sample Code | 任務 | Core ML model 下載 |
---|---|---|
FastViT | Image Classification | apple/coreml-FastViT-T8 apple/coreml-FastViT-MA36 |
Depth Anything (small) | Monocular Depth Estimation | apple/coreml-depth-anything-small |
DETR (ResNet 50) | Semantic Segmentation | apple/coreml-detr-semantic-segmentation |
大班哥會以拍攝一個「在工作桌上,有著 Cama 的咖啡外帶紙杯和 Mac Book pro」來當作拍攝範例
FastVit – 處理圖像分類
▼判斷結果:透過攝影機拍攝的畫面,及時告訴你這可能是什麼物體或物品,
心得:不過這邊卻顯示「beer glass」,沒有 100 % 準確

Depth Anything – 單鏡頭深度測量
呈現結果:結果用灰階影像呈現,越靠近的物體會接近白色,越遠的物體越黑,
觀察:蠻準的,連後面的螢幕都有判斷出來

DETR (ResNet 50) – 語意分割
呈現結果:結果會用不同的色塊呈現物體
觀察:感覺可以做去背

編輯 Xcode 專案時要注意
要先確定有把訓練好的 model 正確放到 models 的資料夾底下


以 DepthSample 專案為例,他預設是 DepthAnythingSmallF16 的 model ,不過大班哥手機要使用
DepthAnythingSmallF32 的 model 來處理,換好後也要記得修改 code,才能編譯 build 成功

小結
無聊玩一下 AI 模型,在跑的時候發現手機會過熱蠻燙的XD,覺得之後可以想想怎麼實際應用在 APP 裡
網頁瀏覽量: 0