Illustration of a bird flying.
  • 「聽講心得 – 簡立峰教授的 “AI時代 未來人才”」

    演講連結:https://youtu.be/LZc6heAtXwo?si=xxhfjifrinU3mpWW 我的心得是:我看到一半就不知道要說什麼,被震撼到無語了😅,你們自己去看吧! 我只想透露我內心的震撼:AI 時代這次真的來了(以前失敗過幾次),而它不是慢慢的來,是廣泛性的(各行各業)巔覆,速度之快令人反應不及。 還好我以前學過一點禪修(我主要不是要推廣禪修,你可以用你自己的方式安你的心😅),才不會屢屢面對現在變化之快的世界,心安不下來。

    December 13, 2025
  • 「LLM AI 繪方塊圖/流程圖的密秘」

    過去學工程的人,多少要畫方塊圖 (block diagram) 或流程圖 (flow chart),以下簡稱「圖」。坦白來說我不喜歡畫圖,主要原因:懶😆 但我不否定圖的重要性。 在幾個月前,我跟我的一位老師在閒聊現今的 LLM 畫的圖還不夠好,往往畫得跟提示詞不一致,重畫幾次還是不對,還不如自己手動畫🥲 當時我猜測是 AI 還沒有足夠的「訓練」畫方塊/流程圖。其實當時我講這種話時,心理是有一點不踏實的。因為怎麼「訓練」才能畫好?我不知道。如果不知道怎麼訓練,怎麼能保證 AI 能畫好圖呢!?😅 直到最近看到有人用 Google Nano Banana 生成建築設計圖,才把我當初講的話圓了😆 該設計圖不是簡單的點陣圖,而是可編輯的!能作物件編輯、轉動視角、…。 不過對於我近期專門在研究「地端 AI 應用」,我可不滿足於這些雲端服務。我一直很好奇 Nano Banana 是怎麼辦到的。 直到今天,我意外看到其實已有開源專案在做這方面的「LLM 生成方塊圖/流程圖」,例如這一個:https://github.com/JerryKwan/drawio-live-editor.git 我研究了一下原始碼,才領悟,知道怎麼辦到的。首先概念上,要將方塊圖/流程圖建立「元件」,如圓形、正方形、箭頭接線、… 接著將這些元件「編碼」,例如用 XML 表示。就可以用 XML 訓練 LLM,LLM 就能生成「圖」 (XML)! 好了,魔術已揭秘,不值錢了!?😆 只差一些重複性的工作(?) – 收集資料、打標籤、訓練 LLM,然後生成!

    December 10, 2025
  • 「AI 發展聽講心得 – 科技浪 EP117」

    今晚聽了科技浪 podcast EP117,在講目前 AI 兩個發展的最新狀況:LLM 與自駕車。真是精彩,尤其是自駕車的部分又讓 AI 給我腦袋一記重捶!Podcast 連結:https://open.spotify.com/episode/1OXqKy4hLBOLeVzF4vLmLW?si=c55b5f43734f46ac LLM 部分主要在探討近期 Google Gemini 3 Pro 與 OpenAI GPT 5 之間如何神仙打架 – 用各種手段提升 LLM 的效能,如合成資料、特殊的強化學習、… 有一些技術沒有一些機器學習的底子,會聽得一頭霧水。但如果有些底子,聽起來就很精彩。 例如我之前在學影像分類機器學習,當時學到一項改善模型訓練的技術 data augmentation,就是拿原始資料作一些轉換,如旋轉、鏡射、位移、…,生出更多訓練資料。我學過此技巧,所以一聽到 LLM 的「合成資料」就知道跟影像分類 ML 是同一個目的。 以上所提到的各種手段一事,講者就清楚點出背後的原因 – LLM 的進步目前遇到瓶頸了!因為訓練的資料能用的都用得差不多了。什麼意思?這得慶幸我最近才學到的東西: Transformer LLM 有一個 scaling 定律,就是要得到更好的效能(lower training loss),除了用更多參數,訓練資料也要更多。 然而目前訓練資料已不夠用了,所以才會開始去用合成資料。但目前合成資料也用得差不多了(Gemini 3 Pro 的呈度),所以接下來的一陣子 transformer LLM 進步應該會變緩,LLM 進入另一個「研究期」,大家在找有沒有下一個類似 transformer 的科技奇異點的新 LLM。Transformer LLM…

    December 9, 2025
  • 「學習企業如何導入 AI 技術」

    我最近每天有空就在追逐 AI 發展的腳步、學習 AI,因為覺得自己過去沒有遠見、沒把 AI 放眼裡,是直到近期幾個月才驚覺不對!😅 不過我目前學習的方向有些多樣:學 AI 應用開發、學 AI 模型訓練、學 AI 基礎建設、學 AI 服務平台、…學得廣但不精通😅 如果我全都精通的話,就能開一人公司了!?😆 最近想學「AI 導入企業」,恰好聽到一集 podcast 主持人邀請一位 AI 醫療的創辦人分享經驗談:https://open.spotify.com/episode/4sLnKq0rjVm3sUXQd5d8Hh?si=c2401eceade64020雖然我過去不是從事醫療產業,但好在這集大部分聽得懂,受益良多。 這位創業家的 AI 導入醫療的經驗談,我認為應該也能複製到其他產業,讓許多人在做「AI 導入企業」會有一些方向、而不是無頭蒼蠅的亂試。比如有幾點我認為很實用:1. 資料的價值性:資料如同石油珍貴,AI 可以提煉出其中的價值,比如身理、醫療數據其中的健康關係。2. 證明導入 AI 的實用性:重點不在一開始就拿出很完整的作品,而在於證明 AI 確實能提升企業效率,企業才會開始接納。3. 規模化後,須處理的問題:比如資料安全性。(我認為還有軟硬體效能的問題。)4. 擴展生態系:這可說是第 1 點的資料價值不同方式的提煉。比如原本的醫療資料只是用於健康監控,但後來發現醫療資料也對保險的風險評估有價值,就能擴展至保險領域。 最後,我覺得聽 podcast 的專家訪談也是一種不錯的學習方式。我滿常聽到一些專家在談他們的成功,都頗「真情流露」 、不私藏技術😆 可能是想私藏的話,應該就不會出來講了吧😆

    December 7, 2025
  • 「AI 紀錄片 “The Thinking Game” 觀影心得 / 地雷文」

    這是一部 DeepMind 的創立者之一 Demis 的紀錄片,講述了他在 AI 與化學上的巨大貢獻,包括 deep reinforcement learning, AlphaGo, AlphaZero, AlphaStar, AlphaFold. 很佩服他有許多當時天馬行空的 AI 夢(尤其是 AGI / artificial general intelligence),很多人都認為不會成功,但最後卻一個個成功了 (AlphaStar 雖然輸給人類玩家,但已很不錯了)。 他的一重大貢獻是將 AlphaFold 公開,加快醫學解決一些疾病問題,他也因此得到諾貝爾化學獎。片尾則是他繼續挑戰 AGI 的夢。 另外我也看了別人的影評,有人在感嘆現今 AI 發展失去了如同發明 AlphaFold 的美好時代。現今如同「曼哈頓原子彈計劃」、像是軍備競賽,各科技公司在比誰先發明出科技原子彈 – AGI,誰落後了就可能被淘汰!? 我覺得這很值得深思:同樣是科技進步,為何 AlphaFold 是貢獻人類,AGI 卻是人類相爭?難道 AlphaFold 就不會讓一些人失業嗎?我想應該也會,只是不多、或者它創造了更多就業機會。所以 AGI 之所以造成軍備競賽的現象,應歸因為它對人類的負面衝擊實在「太快、太大」了,人們來不及反應,工作就被取代了。雖然說 AGI 還是一個夢,但 LLM 卻是那已經很接近夢,又很實際衝擊人類的存在。 不過別太擔心 AGI 被發明後會被「壟斷」、造成社會階級分化。仍有一批像 Demis 的人們用開源 LLM 的方式在平衡這世界。

    December 5, 2025
  • 「練功文 – PyTorch Transfer Learning」

    這次練功,是繼續之前我學習 Daniel Bourke 的 PyTorch 教學https://www.learnpytorch.io/的一個重要的章節 “PyTorch Transfer Learning.” Transfer learning 對 AI 影像模型之所以重要,一大原因是它大大的降低訓練新模型的計算量。它利用一個預訓練 (pretraining) 的影像模型,凍結大部分模型參數,只將最後一層的分類器 (classifier) 抽換,再用新的資料集訓練。如此節省預訓練所花的大量時間,而且實作也很簡單,只需替換分類器層。 這種方法之所以有效,在於預訓練使用的資料集與新資料集如果相關性高,那麼模型參數便大部分可延用,只須將最後的分類器訓練為新資料集的類別。 我的實作是用預訓練模型 – EfficientNet 作 transfer learning, 資料集使用 Oxford Flowers102 的花種資料集。圖 1 為 transfer learning 模型。在我的 MacBook M1 MAX GPU 加速,只訓練約 6 分鐘,如圖 2 的測試的準確度就達 83%. 圖 3 則為隨機取幾個測試資料,使用新模型作預測,跟真實結果相比大多是相符。 Transfer learning 是個學習成本不高、但很實用的機器學習,值得一試👍 原始碼:https://github.com/MrMYHuang/pytorch_transfer_learn

    November 30, 2025
  • 「學習心得 – 看高手學 n8n AI 工作流」

    我已經學會自己架設 n8n 以及建立 AI 工作流一陣子了,但卻沒什麼長進,不知道還能做什麼。只有昨天稍稍有進步,做了一個 X.com 抓新聞的 AI 工作流。 今天我想將 n8n 的基礎學得更扎實,所以又在 YouTube 找學習。找到一分熱騰騰,剛出爐 2 週的免費 n8n 教學:https://www.youtube.com/watch?v=GIZzRGYpCbM沒想到這部片讓我看的過程驚呼連連,原來 n8n 與 LLM 還有很多好用之處,只是我之前不懂得怎麼用,是腦袋裡知識的貧窮限制了我的想像!最讓我驚訝的是該講者示範一個「自動化 AI 讀履歷」工作流。 我從這部片學到的幾個實用的技巧:1. n8n 提供「自訂表單」,類似於 Google 表單,可作為工作流輸入。 2. n8n 的 Gmail 方塊還支援人類互動,比如寄一封信包含「拒絕」與「接受」的按鈕,工作流可以等人類按下按鈕再繼續剩餘的工作流。因此它可用來設計「半自動工作流」。 3. 有效的提示詞工程 (prompt engineering):講者下提示 LLM 閱讀求職履歷 PDF 文件、生成總結、作出推薦,再輸出結構化的資料作後續工作流處理。要知道能正確達成以上複雜的事項後,整個「自動化 AI 讀履歷工作流」就可行了!而講者也不私藏,把如何下提示的詞都公開。 最後,我認為該「自動化 AI 讀履歷」工作流知道怎麼做後,不難複製出來。我也看過許多 AI 應用可以做到同樣自己難以想像的自動化,但我認為有一些技術應該也是「江湖一點訣,說破不值錢」吧😅

    November 28, 2025
  • 「與 AI 同事共事 – n8n 自動化 AI 工作流」

    今天在研究如何用 n8n 做一個自動化 AI 工作流,我想到可以做一個已有人做過的題目 – 自動抓取網站訊息作總結,比如自動定時從 X.com 搜尋 AI 的 tweets,改寫成新聞頭條並傳到我的 Telegram. 圖 1 是我的自動化搜尋 X.com AI tweets 的 n8n AI 工作流程圖。X.com tweets 經由 Llama 3.1 8b LLM 總結後傳到我手機 Telegram 的訊息,不過 AI 改寫的訊息有些微不準確😅 我做的不是一個新穎的題目,但在開發過程所得到的經驗對我是新穎的。雖然說在這 AI 時代,什麼樣的資訊都有,可能連這一方面的開發經驗也能用 AI 查到,但我認為自己動手做才更能體會這些經驗的價值,因為有些經驗不容易或缺乏量化的比較,不易看出價值。此外,也讓我思考一件事:什麼情況要用 AI,什麼情況不用?我認為有一大原則:如果使用 AI 沒比較有效率或學不到東西的話,那就不該用。反之,該用。 我這次開發的 n8n AI 工作流,就體驗到什麼叫「與 AI 共事」。「共事」一詞,如同許多人的看法:AI 開始能漸漸取代人類的工作,公司可以聘 AI 來做事,與人類成為「同事」! 此次我與 LLM AI 同事…

    November 26, 2025
  • 「練功文 – Elasticsearch Vector Search」

    這是一個之前作語意搜尋 (semantic search) 的作品的改版。主要的改動是將向量資料庫改成 Elasticsearch vector database,另外還支援 debugpy & VS code Python debugger。 原始碼:https://github.com/MrMYHuang/demo_langchain_es 之所以會想改用 Elasticsearch,是看到有些職缺有需求,而自己也想挑戰自己不熟的技術。我先照著這個入門教學影片學習:https://youtube.com/playlist?list=PL_mJOmq4zsHbcdoeAwNWuhEWwDARMMBta&si=WHGsnQx6VjmQ6-dM從中我學到 Elasticsearch 一項的技術 – 全文檢索 (full text search),它的原理很容易懂,就好比「一本書的索引」。我們都知道書的索引要怎麼用,比如想找某個專有名詞出現在書本的第幾頁,就會去查索引。書本的索引的結構就是一堆「某個名詞出現在書本哪幾頁」的對照,而 Elasticsearch full text search 也是利用文字的索引來快速搜索文件!只不過後者是記錄「文字出現在哪幾個文件,它們的文件 IDs」。 Elasticsearch 也跟上 AI 的浪潮,支援一項 LLM AI 應用的重要元素 – vector database。它可以作語意搜尋再搭配 LLM 作 retrival augmented generation (RAG) 的應用。我的這個作品就是 demo 與 Elasticsearch vector database 作串接。 不過 Elasticsearch 其實還有一項重要優勢:它的分散式處理能力。這一點才是它獨特、強大之處。不過我目前還沒做到這一塊😅就先聊到這裡。

    November 25, 2025
  • 「研究筆記 – Transformer 深度學習模型」

    昨天開始挑戰學習近年來爆紅的 LLM (large language model) 背後原理 – transformer deep learning model。 其實我之前有稍微看過 Wikipedia 上 transformer 講解,結果看到一堆超長的文章與數學,只好放棄,挑戰失敗😅 昨天想到如果有影片教學應該會較容易懂,就到 YouTube 搜了一下,並找點擊率高的影片,就是 3Blue1Brown 這系列的 3 部:https://youtu.be/wjZofJX0v4M?si=ykj9XakqJ-MU9NW9https://youtu.be/eMlx5fFNoYc?si=dR7MT45IAu6kuYUZhttps://youtu.be/9-Jl0dxWQs8?si=Q-Jgph37PAAtauKU這教學做得真不錯,講者會用淺顯的例子作講解 transformer 的各部分的用意。不過講者也坦白 transformer 還有一些部分很難解釋。這一點我非常理解,因為機器學習往往處理的問題是「不清楚的模型」,只能退而求其次用經驗與試誤法找出的次佳模型。即便是次佳模型,往往也難解釋其中由試誤法找出的部分。 所以我認為學習 ML 模型要有對於模型可解釋呈度的認知:最好能完美解釋一個複雜模型,但是少數天才才能做的事。我們如果花了很多力氣卻無法完美解釋,可以退而求其次、不求完美,但盡可能的「自圓其說」。也就是雖然沒有嚴謹的證明解釋完全正確,但能用一些例子說得有其道理,無嚴重瑕疵,那可能就是一個當時最好的解釋。甚至可能未來找到的完美解釋是基於此不完美解釋的修正!(例如古典力學) 以下就是我看了 YT 頻道 3Blue1Brown 講解 transformer 架構後,我的心得:完整 transformer 架構分成 encoder, decoer. 我只詮釋爆紅的 GPT LLM 所用到的 decoder. Transformer decoder 會先將輸入的文字切成 tokens(比如 1 個英文單字或中文單詞對應 1 個 token),再將各…

    November 20, 2025
1 2 3 … 5
Next Page→

Meng-Yuan Huang's Blog

Proudly powered by WordPress