Sunday, November 30, 2025

Windows 平台使用AMUSE 軟件文生圖(使用內置顯卡加速,沒有內容限制)

AMUSE 是一套AMD 贊助的軟件,可以使用WINDOWS的內建GPU 加速功能,讓內置顯卡,包括INTEL/AMD都可以使用GPU 加速,如果是AMD 內建NPU的電腦,更加以使用NPU 加速,達至接近即時生成的效果。

首先要多謝以下網頁介紹破解方法: 

Amuse AI - Create NSFW content! Disable the Content Filter

先下載舊版的軟件

https://huggingface.co/TensorStack/Amuse/resolve/main/Amuse_v2.2.2.exe?download=true

以及下載破解檔案:

https://www.mediafire.com/file/51fuc14rwkndw9d/unlocked_NSFW_2.2.2.zip
之後將ZIP檔內的檔案抄去安裝AMUSE 的FOLDER 中的

Amuse\Plugins\ContentFilter\

最後就會解鎖文生圖的限制
以第11代的INTEL GPU 內說,大約20-30秒就可以生成LCM 模型下的6 Steps 圖形

Wednesday, November 26, 2025

舊iPhone 運行本地AI 繪圖軟件



如果要用iPhone 運行AI 本地繪圖,最方便可以使用Localgen app, 這個APP較少RAM 的電話都可以安裝,在iPhone 14 pro 之下,大約10-20 秒就可以生成一幅圖,速度與線上模式有得比,不過較複雜的指示有時會跟不到。

則要使用drawthings app, 這個app 在iPhone 14 pro 之下,使用較舊及少RAM 使用的SDXL turbo 模型行3 steps 繪畫,大約30-60秒就可以畫到一幅圖,部分非畫真人的圖畫效果亦不錯。不過畫真人場景就麻麻地,用線上網站會比較好。

例如以下的AI 咒語

Create a high-resolution professional photo of a woman sitting at an office desk with a laptop, smiling softly. She wears a navy blue blazer and minimal makeup. The background shows a blurred office interior with warm lighting, creating a polished executive tone

以下係local gen 的效果:

如果覺得local gen 生成的相片效果不好,不妨使用AI upscale 的軟件,例如upres (https://apps.apple.com/hk/app/upres-%E4%BA%BA%E5%B7%A5%E6%99%BA%E8%83%BD%E4%BF%AE%E5%9B%BE-ai-photo-editor/id6739590673), 這類軟件可以將AI 生成的人物面部明顯加強清晰度,見下圖:



以下是Drawthings app的效果:



















以下是近期大熱的gemini-3-pro-image-preview-2k (nano-banana-pro) 效果:



Saturday, November 08, 2025

舊iPhone 運行本地AI LLM 模型

iOS 26.1 推出之後,香港及台灣近兩年的iPhone (15pro/16/17) 終於有apple 內建的AI 用。 更舊的手機又有無辦法用AI LLM 模型呢? 除左經瀏覽器用線上的AI, 其實舊一些的iPhone 效能亦足夠在本地運行非常細小的AI 模型,拿來做簡單對答或翻譯文字亦是足夠的。

一般而言,可以因應iPhone RAM 的大小,下載不超過RAM 1/3 大的模型。如果iPhone 較新,例如14 pro 有6GB ram, 已經可以運行大約2GB 大的AI 模型。較舊的例如iPhone 8 plus 有3GB ram, 可以運行大約1GB 大的模型。

不過可以運作不代表實際可以流暢使用,舊的iPhone 8 plus 由於iOS 版本較舊,並不能有效使用GPU/NPU 運行AI 模型,1GB 大的模型運作速度只有大約10tokens/sec, 遠遠未達到流暢的速度,如果用細一些的模型,例如約300MB 大的模型,速度達30 tokens/sec, 但對答錯誤明顯增多,AI 模型幫到手的事情就更少了。

即使是使用iOS 16 的舊iPhone 現時可以下載pocketpal 程式使用AI, 這程式支援從huggingface 下載AI 模型,可以選擇不同大小及性能的模型。最重要的要選擇適當的cache type(一般選擇Q4), 以及將context size 增大(至2048),就可以更快得到AI 回應。建議可以嘗試下載LFM2-350M, 甚至可以下載LFM2-VL-450M的模型(包括vision 圖像分析功能)


較新的iOS users 可以下載locally 軟件,裡面注明不同模型適用的iPhone 類型,亦比較少設定需要使用。建議可以嘗試下載LFM2-1.2B 或更大體積的模型。

Friday, November 07, 2025

Portable SSD 小貼士

 最近買左附有USB-C 轉USB-A 轉接線的Portable SSD 先發現原來行USB-C 原生位駁notebook 比用轉接線駁USB-A 熱。