-
[新工作一個月來的感想]
我的新工作已做了一個月多了,相當符合我的期待。我待的公司如同現在的科技發展趨勢,也在積極導入 AI,讓我在工作時也能學習與使用 AI,跟上時代。 我從去年大約 8 月就漸漸「覺醒」現代 AI 的威力,更正確來說是「驚醒」😅,使我開始急起直追 AI 技術。或許這是一種求生本能吧😅因為當你吃飯的傢伙要不管用時,大部分人也應該會跟它(AI)奮力一摶,不然就選擇躺平!?🥲 目前 AI 的進步還是如同我 2 個月前的感受 – 處於「科技奇異點」。比如 3 個月前,某大師花了半年研發出來的一項獨家私藏 AI 技術,可能在今天就變成「基本功」,人人都玩得起。比如「多 AI agents 協作」就是一個例子。 AI 進步那麼快,我不確定自己的工作會不會被 AI 取代。如果真的會被取代,那麼在那之前好好跟 AI 競速一摶,累積資產。到時被取代了,才好轉職!?😆
-
[AI Agent Skills vs MCPs]
今天又是一整日在研究 AI 技術,學了滿多東西,就拿其中一個來講好了 AI agent skills vs MCPs. 我之前有寫過一篇 agent skills 的文章,不過當時認知還有一些淺,只知道它可說是用自然語言寫的一段可重複利用的提示詞,像程式語言中的 functions. 但我最近發覺它的用法跟 MCP 有些重疊,讓我疑惑它的優勢在哪?在這 AI 時代問問題找答案已變得廉價了,所以我就去問 ChatGPT,果然得到很精闢的答案😆 簡單來說 MCP 是 LLM agent 的「工具與說明書」,而 Skill 是 LLM agent 的「工作技能」,而 LLM agent 是一位「工作者」。這還是不好懂嗎?舉個較具體的例子,比如一位雕刻師(工作者),他有許多雕刻工具與工具說明書,那他還少了什麼?少了雕刻技能 (skill)!比如這些雕刻工具要按什麼步驟使用,才能雕出好東西,這就是一種工作流的技能。 如果雕刻師缺少了後天學習的技能,那麼就只能靠他的天賦去使用工具完成作品。每個雕刻師的天賦不同,做出的作品品質也會差很多。但如果他們都學會了某種已研發已久、成熟的「技能 (skill)」,那麼天賦不好的雕刻師就能明顯提升作品品質! 以上雕刻師的例子也適用於 AI agent 的工作情形。Agent skills 的優點不僅是提示詞的複用(如同程式的 functions),還能作工作流的定義! 比如想叫 LLM agent 做一件複雜的事:叫它把一整個程式碼做出一分 PowerPoint 檔,比較笨的 LLM 可能就直接說它不會做。但如果將別人寫好的 PowerPoint skill 讓它使用,它就會做!為什麼這麼神奇?因為 PowerPoint…
-
[拿到 AI 證照 – Introduction to Transformer-Based Natural Language Processing]
其實這張算滿好拿的證照,只要看 3 部約不到 6 分鐘的教學、3 個動手做題目(也只是把提供的 Python 程式跑過一遍),再做個 10 題測驗(答錯還可以修改、重交),半天應該就能拿到的證照。但這小證照,上面的 “nVIDIA” 還滿閃的就是了,可以騙一些不懂的人!?😆 這課程講的是基於 transformer AI 的自然語言處理 (NLP) 的介紹。首先是技術的應用的 3 大類:1. 詞元分類 (token classification): AI 文字標記 (labeling / tagging)、文章分類 (article categorization)2. 文字分類 (text classification): 感受分類 (sentimental classification)、增強搜尋 (enhancing search)3. 問題回答 (question answering): 萃取式 (extractative),如從文件中找答案並螢光標示 (highlight);生成式 (generative),如 S2S (sequence to sequence) 方式的文字翻譯、GPT 方式的文字總結 (summarization) 再來動手做以上各項技術應用的微調 (fine tuning)…
-
「AI 技術學習心得 – Agent Skills」
最近開始上班後,還真的比較沒以前有「腦力」學習 AI 的新技術。即便下班後有時間,想學習 AI 新知,也很容易就用腦過度、頭昏,學不下去😅 但我那怕被 AI 技術淘汰的心,讓我有機會就去多學一點 AI 新知。 今天又學懂一項近期熱門的 AI 新技術 – Agent Skills🙂 它是 Anthropic 公司在 2 個月前提出的技術,最近 OpenAI 也支援了,看來是一項重要技術,才會被廣泛支援。 有在學習 AI 新技術的人,可能會遇到被一堆很相似但不同的名詞弄得一團亂,如 tool calling, MCP, multi AI agents, … 現在又多了一個 agent skills😅 Agent skills 是什麼?我想到一個好懂的類比:過去我們在用「程式語言」寫程式時,會將重複的程式碼片段做成一可重複呼叫的「函式 (function)」,這寫過程式的人應該都知道吧😆 然而在大語言模型 (LLM) 的抽象層級,「程式」是用「自然語言」而不是較低層的「程式語言」寫出來的!Agent skills 的一重要精神就是它是自然語言層級的可重複呼叫的「函式」,正式名稱是 “skill.” Skill 就是用自然語言寫出的一段可重複使用的工作任務/函式。比如你可以寫一個 ppt skill,內容是用 Markdown 純文字格式寫一段給 LLM 看的提示詞,比如指導 LLM…
-
「聽講心得 – 簡立峰教授的 “AI時代 未來人才”」
演講連結:https://youtu.be/LZc6heAtXwo?si=xxhfjifrinU3mpWW 我的心得是:我看到一半就不知道要說什麼,被震撼到無語了😅,你們自己去看吧! 我只想透露我內心的震撼:AI 時代這次真的來了(以前失敗過幾次),而它不是慢慢的來,是廣泛性的(各行各業)巔覆,速度之快令人反應不及。 還好我以前學過一點禪修(我主要不是要推廣禪修,你可以用你自己的方式安你的心😅),才不會屢屢面對現在變化之快的世界,心安不下來。
-
「LLM AI 繪方塊圖/流程圖的密秘」
過去學工程的人,多少要畫方塊圖 (block diagram) 或流程圖 (flow chart),以下簡稱「圖」。坦白來說我不喜歡畫圖,主要原因:懶😆 但我不否定圖的重要性。 在幾個月前,我跟我的一位老師在閒聊現今的 LLM 畫的圖還不夠好,往往畫得跟提示詞不一致,重畫幾次還是不對,還不如自己手動畫🥲 當時我猜測是 AI 還沒有足夠的「訓練」畫方塊/流程圖。其實當時我講這種話時,心理是有一點不踏實的。因為怎麼「訓練」才能畫好?我不知道。如果不知道怎麼訓練,怎麼能保證 AI 能畫好圖呢!?😅 直到最近看到有人用 Google Nano Banana 生成建築設計圖,才把我當初講的話圓了😆 該設計圖不是簡單的點陣圖,而是可編輯的!能作物件編輯、轉動視角、…。 不過對於我近期專門在研究「地端 AI 應用」,我可不滿足於這些雲端服務。我一直很好奇 Nano Banana 是怎麼辦到的。 直到今天,我意外看到其實已有開源專案在做這方面的「LLM 生成方塊圖/流程圖」,例如這一個:https://github.com/JerryKwan/drawio-live-editor.git 我研究了一下原始碼,才領悟,知道怎麼辦到的。首先概念上,要將方塊圖/流程圖建立「元件」,如圓形、正方形、箭頭接線、… 接著將這些元件「編碼」,例如用 XML 表示。就可以用 XML 訓練 LLM,LLM 就能生成「圖」 (XML)! 好了,魔術已揭秘,不值錢了!?😆 只差一些重複性的工作(?) – 收集資料、打標籤、訓練 LLM,然後生成!
-
「AI 發展聽講心得 – 科技浪 EP117」
今晚聽了科技浪 podcast EP117,在講目前 AI 兩個發展的最新狀況:LLM 與自駕車。真是精彩,尤其是自駕車的部分又讓 AI 給我腦袋一記重捶!Podcast 連結:https://open.spotify.com/episode/1OXqKy4hLBOLeVzF4vLmLW?si=c55b5f43734f46ac LLM 部分主要在探討近期 Google Gemini 3 Pro 與 OpenAI GPT 5 之間如何神仙打架 – 用各種手段提升 LLM 的效能,如合成資料、特殊的強化學習、… 有一些技術沒有一些機器學習的底子,會聽得一頭霧水。但如果有些底子,聽起來就很精彩。 例如我之前在學影像分類機器學習,當時學到一項改善模型訓練的技術 data augmentation,就是拿原始資料作一些轉換,如旋轉、鏡射、位移、…,生出更多訓練資料。我學過此技巧,所以一聽到 LLM 的「合成資料」就知道跟影像分類 ML 是同一個目的。 以上所提到的各種手段一事,講者就清楚點出背後的原因 – LLM 的進步目前遇到瓶頸了!因為訓練的資料能用的都用得差不多了。什麼意思?這得慶幸我最近才學到的東西: Transformer LLM 有一個 scaling 定律,就是要得到更好的效能(lower training loss),除了用更多參數,訓練資料也要更多。 然而目前訓練資料已不夠用了,所以才會開始去用合成資料。但目前合成資料也用得差不多了(Gemini 3 Pro 的呈度),所以接下來的一陣子 transformer LLM 進步應該會變緩,LLM 進入另一個「研究期」,大家在找有沒有下一個類似 transformer 的科技奇異點的新 LLM。Transformer LLM…
-
「學習企業如何導入 AI 技術」
我最近每天有空就在追逐 AI 發展的腳步、學習 AI,因為覺得自己過去沒有遠見、沒把 AI 放眼裡,是直到近期幾個月才驚覺不對!😅 不過我目前學習的方向有些多樣:學 AI 應用開發、學 AI 模型訓練、學 AI 基礎建設、學 AI 服務平台、…學得廣但不精通😅 如果我全都精通的話,就能開一人公司了!?😆 最近想學「AI 導入企業」,恰好聽到一集 podcast 主持人邀請一位 AI 醫療的創辦人分享經驗談:https://open.spotify.com/episode/4sLnKq0rjVm3sUXQd5d8Hh?si=c2401eceade64020雖然我過去不是從事醫療產業,但好在這集大部分聽得懂,受益良多。 這位創業家的 AI 導入醫療的經驗談,我認為應該也能複製到其他產業,讓許多人在做「AI 導入企業」會有一些方向、而不是無頭蒼蠅的亂試。比如有幾點我認為很實用:1. 資料的價值性:資料如同石油珍貴,AI 可以提煉出其中的價值,比如身理、醫療數據其中的健康關係。2. 證明導入 AI 的實用性:重點不在一開始就拿出很完整的作品,而在於證明 AI 確實能提升企業效率,企業才會開始接納。3. 規模化後,須處理的問題:比如資料安全性。(我認為還有軟硬體效能的問題。)4. 擴展生態系:這可說是第 1 點的資料價值不同方式的提煉。比如原本的醫療資料只是用於健康監控,但後來發現醫療資料也對保險的風險評估有價值,就能擴展至保險領域。 最後,我覺得聽 podcast 的專家訪談也是一種不錯的學習方式。我滿常聽到一些專家在談他們的成功,都頗「真情流露」 、不私藏技術😆 可能是想私藏的話,應該就不會出來講了吧😆
-
「AI 紀錄片 “The Thinking Game” 觀影心得 / 地雷文」
這是一部 DeepMind 的創立者之一 Demis 的紀錄片,講述了他在 AI 與化學上的巨大貢獻,包括 deep reinforcement learning, AlphaGo, AlphaZero, AlphaStar, AlphaFold. 很佩服他有許多當時天馬行空的 AI 夢(尤其是 AGI / artificial general intelligence),很多人都認為不會成功,但最後卻一個個成功了 (AlphaStar 雖然輸給人類玩家,但已很不錯了)。 他的一重大貢獻是將 AlphaFold 公開,加快醫學解決一些疾病問題,他也因此得到諾貝爾化學獎。片尾則是他繼續挑戰 AGI 的夢。 另外我也看了別人的影評,有人在感嘆現今 AI 發展失去了如同發明 AlphaFold 的美好時代。現今如同「曼哈頓原子彈計劃」、像是軍備競賽,各科技公司在比誰先發明出科技原子彈 – AGI,誰落後了就可能被淘汰!? 我覺得這很值得深思:同樣是科技進步,為何 AlphaFold 是貢獻人類,AGI 卻是人類相爭?難道 AlphaFold 就不會讓一些人失業嗎?我想應該也會,只是不多、或者它創造了更多就業機會。所以 AGI 之所以造成軍備競賽的現象,應歸因為它對人類的負面衝擊實在「太快、太大」了,人們來不及反應,工作就被取代了。雖然說 AGI 還是一個夢,但 LLM 卻是那已經很接近夢,又很實際衝擊人類的存在。 不過別太擔心 AGI 被發明後會被「壟斷」、造成社會階級分化。仍有一批像 Demis 的人們用開源 LLM 的方式在平衡這世界。
-
「練功文 – PyTorch Transfer Learning」
這次練功,是繼續之前我學習 Daniel Bourke 的 PyTorch 教學https://www.learnpytorch.io/的一個重要的章節 “PyTorch Transfer Learning.” Transfer learning 對 AI 影像模型之所以重要,一大原因是它大大的降低訓練新模型的計算量。它利用一個預訓練 (pretraining) 的影像模型,凍結大部分模型參數,只將最後一層的分類器 (classifier) 抽換,再用新的資料集訓練。如此節省預訓練所花的大量時間,而且實作也很簡單,只需替換分類器層。 這種方法之所以有效,在於預訓練使用的資料集與新資料集如果相關性高,那麼模型參數便大部分可延用,只須將最後的分類器訓練為新資料集的類別。 我的實作是用預訓練模型 – EfficientNet 作 transfer learning, 資料集使用 Oxford Flowers102 的花種資料集。圖 1 為 transfer learning 模型。在我的 MacBook M1 MAX GPU 加速,只訓練約 6 分鐘,如圖 2 的測試的準確度就達 83%. 圖 3 則為隨機取幾個測試資料,使用新模型作預測,跟真實結果相比大多是相符。 Transfer learning 是個學習成本不高、但很實用的機器學習,值得一試👍 原始碼:https://github.com/MrMYHuang/pytorch_transfer_learn
