如何從網上陌生人偷學 AI?Jeff Su 揭露 3 步驟加速成長的秘密!

如何從網上陌生人偷學 AI?Jeff Su 揭露 3 步驟加速成長的秘密!

在 AI 快速演進的時代,如何高效學習新技能成為眾多學習者的痛點。知名 YouTube 創作者 Jeff Su 在他的最新影片中,分享了一種源自教育理論的實用方法:透過「鷹架式學習」(scaffolding)來觀察陌生人的 AI 創作過程,從而加速自身進步。Jeff Su 作為一位專注生產力和科技分享的內容創作者,這次示範了如何利用免費工具,從零開始掌握 AI 應用,讓觀眾不僅理解概念,更能立即實踐。

鷹架式學習源自教育領域,指的是提供臨時支持,讓學習者逐步掌握超出當前能力的複雜任務。Jeff Su 強調,這種方法不僅適用於傳統教學,在 AI 學習中同樣強大。他表示:「在教育中,有一個概念叫 scaffolding。它是用臨時支持來學習超出你目前能力範圍的東西。我至今仍用它來提升 AI 技能。」

這種方法的核心在於「借力」他人經驗,避免從頭摸索。Jeff Su 指出,AI 學習常因缺乏實戰範例而卡關,但透過觀察真實創作過程,能大幅縮短學習曲線。根據教育研究,這種支持性學習可將掌握新技能的時間縮減 30% 以上,讓初學者從被動閱讀轉為主動模仿。

從爪.ai 平台起步:觀察真實 AI 創作的步驟

Jeff Su 推薦的第一步是前往 claw.ai/artifacts 平台,這裡匯集了真實用戶使用 Claude AI 建置的應用程式(apps)和產物(artifacts)。他建議:「挑選任何看起來有趣的 app 或 artifact,滾動向下並點擊 view full chat。現在你能看到整個對話,包括每個提示(prompt)、每一次修訂,以及他們犯的錯誤。」

這種「肩並肩觀察」模式就像跟隨專家工作坊。平台上的內容涵蓋從簡單工具到複雜應用的各種案例,例如自動化腳本或創意生成器。Jeff Su 解釋,這不僅展現成功路徑,還暴露常見失誤,讓學習者避免重蹈覆轍。關鍵數據顯示,Claude 用戶在該平台分享的超過 1,000 個 artifacts 中,平均每個對話包含 5-10 次迭代,突顯實戰修訂的重要性。

加速成長的優勢:為何這方法如此有效

觀察他人完整創作過程,能提供即時反饋和靈感來源。Jeff Su 形容:「這就像在他們肩上觀看他們工作。」透過檢視提示的細節、錯誤修正和最終輸出,學習者能快速內化最佳實踐。例如,一個簡單的 app 開發對話可能揭示如何精煉提示語,以提升 AI 回應準確率達 50%。

這種方法不限於理論,而是強調可操作性。Jeff Su 分享,透過反覆觀察,他自己在 AI 應用上進步神速,從初學者轉為能獨立建置工具。教育專家也支持此觀點:鷹架式學習能提升學習動機,讓抽象的 AI 概念變得具體可循。

擴展應用:不只 Claude,其他 AI 工具也能用

最佳之處在於,這種學習法高度通用。Jeff Su 指出:「你甚至不需要使用 Claude。這在 Gemini 和 ChatGPT 中也適用,只要啟用 canvas 功能。」Canvas 功能允許用戶在對話中編輯和追蹤變更,類似爪.ai 的全聊檢視模式。

例如,在 ChatGPT 的 Canvas 中,用戶可瀏覽他人分享的對話歷史,觀察從初始提示到最終輸出的演進。Gemini 則提供類似視覺化追蹤,讓學習者輕鬆複製成功模式。Jeff Su 強調,這些免費功能無需額外投資,就能讓 AI 學習門檻降低 70%,適合各級使用者。

結語:借力他人,開啟 AI 學習新紀元

Jeff Su 的分享證明,AI 學習不必孤軍奮戰,透過鷹架式方法觀察陌生人創作,能有效加速成長,從而抓住 AI 時代的機會。這種「偷師」策略不僅實用,還能激發創意,值得每位學習者嘗試。但記住,觀察後需親自實踐,方能真正內化技能。你準備好從網上陌生人那裡借力了嗎?這或許是通往 AI 專家的捷徑。

參考資料:YouTube 連結 https://www.youtube.com/watch?v=ppmuBefe48g(Jeff Su 頻道:learning ai from strangers on the internet)

Read more

如何在 10 個指標看出 OpenAI Agent Kit 能否「扳倒」n8n?一次看懂 2 大代理人平台的勝負關鍵

如何在 10 個指標看出 OpenAI Agent Kit 能否「扳倒」n8n?一次看懂 2 大代理人平台的勝負關鍵

在最新的比較實測中,AI 自動化創作者 Nate Herk(Nate Herk | AI Automation)直言:「In short, my answer is no.」──他認為 OpenAI 在 2025-10-06 推出的 Agent Kit 並不會直接取代已存在多年的開源自動化平台 n8n(初版 2019-10-08)。本文將重組 Nate 的實測內容,逐項分析兩者在使用者門檻、觸發器、工具整合、模型支援、前端嵌入(UI)與部署控制等關鍵面向,並呈現評分數據與原文引言,供想選用或評估平台的讀者做出判斷。 * Agent Kit(OpenAI Agent Builder)發布日:2025-10-06。設計定位:以「快速、視覺化、

By andy

# N8N 還是 Claude Code?選錯一個,你會在維護時哭出來——實戰經驗談

前陣子有位網友問我一個問題,我當時停頓了一下,因為我意識到這個問題問得很好。他問:「到底什麼時候該用 N8N,什麼時候該用 Claude Code?」 我一開始想給出一個簡單的答案,但後來發現——其實沒有簡單答案。真正的分水嶺,不在工具本身,而在於你後來會怎麼活著跟這個東西相處。 ▋ 關鍵不是技術,是你的記憶 想像一下這個場景:你今天花了整個下午設計一個自動化流程。邏輯很複雜,涉及多個 API 串接、條件判斷、資料轉換。當時你腦子很清楚,一切都有道理。然後一周後,你的主管說:「欸,那個流程能不能改一下?」 你打開檔案。看著自己寫的程式碼或配置。三秒鐘後,你的腦子一片空白。 「我當時為什麼要這樣設定?」 這時候,如果你用的是 N8N,你會慶幸自己的決定。因為整個流程就像樂高積木一樣擺在你面前,一眼就能看懂每一步在幹什麼。「啊,這裡是連接 Google Sheets,那裡是做資料過濾,這邊是呼叫 AI API。

By andy

# 我用 Gemini API 破解了 YouTube 影片秒找關鍵畫面的問題——花了一年才想通的事

在我開始用 Gemini 的 API 之前,我其實在這個問題上卡了很久。你知道那種感覺嗎?就是你明確知道自己想要什麼,但市面上的工具就是不給你。 ▋ 那些沒辦法的時代 最一開始,我想做的事很簡單——從 YouTube 影片裡自動找出特定的畫面。聽起來沒什麼,但當你開始想要把它實際執行出來的時候,馬上就撞牆了。OpenAI 的模型?它們根本不讓你直接處理影片內容。Anthropic 的 Claude?同樣的問題,他們也會限制你對影片的存取權限。就像被隔著一層玻璃,明明看得到東西卻摸不著。 我試過各種繞路。有段時間我想用影片截圖搭配 OCR 去識別,但那效率慘到不行。也想過自己寫爬蟲去抓影片的文字敘述檔,但 YouTube 上大多影片根本沒有,或者敘述檔品質爛到不能用。那段時間我真的很挫折,感覺就像在黑暗裡摸索,不知道哪條路才是出口。 大概花了快要一年的時間,我一直在想同一個問題,嘗試不同的方法,然後一次又一次地失敗。有時候是技術層面的問題,有時候是成本太高根本行不通。那種反覆的無力感,現在回想起來還是有點難受。 ▋ Gemini

By andy

我正在做一個瘋狂的實驗:讓AI掌控我80%的線上形象,看看會發生什麼

老實跟你說,你現在看到的我—聲音、影像、文字—大部分都不是我本人。 這聽起來很詭異,我知道。但這正是重點。 我不是隨便玩玩,也不是為了作秀。我是在親身經歷一個別人都在談論、但很少有人真正去試驗的東西:如果AI能掌控你超過80%的線上生產力,會發生什麼事? ▋ 大多數人的想法都停在20% 現在很多人用AI的方式是這樣的:拿它來寫個開場、潤色個段落、幫忙生成幾張圖。AI扮演的是助手角色,人類才是主導者,還是靠人力來賺錢、維持信譽。這樣當然安全,也很聰明。 但我想知道的是另一個問題。 如果我不是偷偷用AI,而是讓它在前台直接面對你,掌控我80%以上的聲音、文字、影像表現,會怎樣?會崩潰嗎?會被識破嗎?人們會察覺不出來嗎?還是說,這樣的模式本身就會帶來一些我根本預料不到的怪事? 我沒看過有人真的這樣做過,所以我決定自己試試。 ▋ 為什麼我要這樣折騰自己 你可能會問:「為什麼?這不是自找麻煩嗎?」 確實是。但這就像任何真實的實驗一樣,你不下水,你根本不知道水溫。

By andy