一般而言,可以因應iPhone RAM 的大小,下載不超過RAM 1/3 大的模型。如果iPhone 較新,例如14 pro 有6GB ram, 已經可以運行大約2GB 大的AI 模型。較舊的例如iPhone 8 plus 有3GB ram, 可以運行大約1GB 大的模型。
不過可以運作不代表實際可以流暢使用,舊的iPhone 8 plus 由於iOS 版本較舊,並不能有效使用GPU/NPU 運行AI 模型,1GB 大的模型運作速度只有大約10tokens/sec, 遠遠未達到流暢的速度,如果用細一些的模型,例如約300MB 大的模型,速度達30 tokens/sec, 但對答錯誤明顯增多,AI 模型幫到手的事情就更少了。
即使是使用iOS 16 的舊iPhone 現時可以下載pocketpal 程式使用AI, 這程式支援從huggingface 下載AI 模型,可以選擇不同大小及性能的模型。最重要的要選擇適當的cache type(一般選擇Q4), 以及將context size 增大(至2048),就可以更快得到AI 回應。建議可以嘗試下載LFM2-350M, 甚至可以下載LFM2-VL-450M的模型(包括vision 圖像分析功能)
較新的iOS users 可以下載locally 軟件,裡面注明不同模型適用的iPhone 類型,亦比較少設定需要使用。建議可以嘗試下載LFM2-1.2B 或更大體積的模型。
No comments:
Post a Comment