[筆記] 訓練不了人工智慧?你可以訓練你自己

這篇文章改寫自李宏毅教授在台大的一場精彩演講,該演講深入淺出地探討了生成式人工智慧(AI)的原理、應用、能力、侷限以及未來的發展。李教授以其幽默風趣的風格,結合實際操作示範,帶領聽眾們一同揭開了生成式 AI 的神秘面紗,並激勵大家在 AI 時代積極訓練自己,掌握未來。

生成式 AI 的原理:文字接龍

李教授首先破除了大眾對生成式 AI 的迷思,指出其背後運作的核心原理,並非仰賴龐大的資料庫進行搜尋比對,而是基於「文字接龍」。以 ChatGPT, Gemini, Claude 等知名模型為例,它們都是基於大型語言模型(LLM),透過預測下一個字詞出現的機率,來產生連貫且符合語境的文字。

這個過程如同玩文字接龍遊戲,模型會根據使用者輸入的提示(Prompt),推算出下一個最有可能出現的詞彙,然後將其加入句子中,如此反覆進行,直到產生完整的句子或段落。而這其中的「機率分佈」是基於模型在海量文本數據上的學習和訓練,因此它能模仿人類的語言模式,甚至在許多任務上展現出驚人的創造力和理解力。

值得注意的是,模型在每次生成時都會進行隨機的「擲骰子」,這也是為什麼相同的輸入,可能會得到略有差異的輸出結果,為 AI 的回應增添了一份不確定性和多樣性。

除了文字生成,生成式 AI 也能處理圖像、聲音等複雜物件。例如,透過「像素接龍」或「取樣點接龍」的方式,模型可以生成圖片或音訊。然而,為了提高效率,實際上會先透過 Encoder 將圖片和聲音壓縮成更簡潔的符號 (Token),然後讓模型在這些符號上進行接龍,最後再透過 Decoder 將符號還原成原始的圖片或聲音

黃仁勳所說的「每個東西都是 Token」,指的正是這種將各種資料表示成 Token,並讓機器學習 Token 之間關聯性的概念。這使得無論是文字、圖片、聲音,甚至是影片,都能透過相似的原理被生成式 AI 所處理。

生成式 AI 的應用:遠不止聊天機器人

李教授接著展示了生成式 AI 的強大應用,遠遠超出了聊天機器人的範疇。他現場示範了如何利用 ChatGPT 完成各種任務,包括:

  • 生成文字雲: 不只列出 ChatGPT 的功能,更可以根據這些功能繪製出互動式的文字雲,點擊每個功能還能顯示相對應的 Prompt 指令。
  • 繪製長條圖: 只需上傳論文中的表格截圖,並用自然語言下指令,ChatGPT 就能自動讀取表格內容,並繪製出符合要求的長條圖,甚至可以根據使用者的反饋調整圖表樣式。
  • 論文潤稿: ChatGPT 可以協助修改論文中的文法和拼字錯誤,並清楚標示出修改之處。

這些示範都強調了一個重要的心法:不要問 AI 能為你做什麼,而是要問你想讓 AI 幫你做什麼。 生成式 AI 並非只有預設的功能,而是能夠根據使用者的指令,靈活地執行各種任務。

強化生成式 AI 的能力:技巧與策略

儘管生成式 AI 擁有強大的能力,但要充分發揮其潛力,還需要掌握一些使用技巧:

  1. 清晰明確的指令: 就像與剛認識的朋友溝通一樣,你需要清楚地說明你的需求和背景資訊,才能讓 AI 理解你的意圖,給出精準的回應。李教授以「鱷魚照片」和「火星文」為例,說明了提供上下文和具體範例的重要性。
  2. 客製化設定: ChatGPT 提供了客製化選項,允許使用者預先設定一些個人偏好和背景知識,例如告訴模型「NTU 指的是台灣大學」並「永遠使用繁體中文回答」,讓 AI 更貼近個人使用習慣。此外,也能透過「記憶」功能讓它記住特定資訊,並在後續的對話中應用。
  3. GPTs 創建: 透過簡單的對話,使用者可以創建自訂的 GPTs,例如「論文小幫手」,專門用於修改論文文法和拼字錯誤,並條列出修改之處,讓特定任務的執行更加便捷。
  4. 自我檢查與反省: 生成式 AI 具有自我檢查的能力,可以透過要求模型檢查自己的答案,來提升輸出的準確性。李教授展示了 ChatGPT 如何發現並修正自己在「台大玫瑰花節」問題上的錯誤。
  5. 結合外部工具: 透過 RAG (Retrieval-Augmented Generation) 技術,可以將生成式 AI 與搜尋引擎結合,讓模型在回答問題前先檢索相關資訊,提升答案的可靠度。不過,李教授也提醒,RAG 並非萬靈丹,模型仍有可能根據錯誤或矛盾的資料產生不正確的回應。
  6. 多步驟拆解複雜任務: 對於複雜的任務,可以將其拆解成多個較小的步驟,讓模型逐步完成,並在過程中進行摘要和檢查,以提升最終成果的品質。
  7. 組合技: 將上述技巧組合運用,例如 Tree of Thoughts,將複雜任務拆解,讓模型嘗試多條路徑並自我檢查,找出最佳解答。

生成式 AI 的侷限:幻覺與偏見

李教授也坦率地指出了生成式 AI 的侷限性:

  1. 幻覺 (Hallucination): 由於生成式 AI 是基於文字接龍,其產生的內容並非基於事實查核,而是基於機率推斷,因此可能會出現「幻覺」,即產生看似合理但實際上不存在或錯誤的資訊。例如,模型可能會虛構出台大玫瑰花節的活動網址,或提供不存在的論文標題。
  2. 缺乏常識和推理能力: 生成式 AI 的思考模式與人類不同,它專注於文字接龍的正確性,而非邏輯推理。即使是最先進的模型,在面對一些簡單的數學問題時,也可能出現迂迴甚至錯誤的解法。
  3. 無法理解主觀的指令: 由於生成式AI以機率最大化的方式生成答案,他沒辦法辨識出人類下達的主觀指令,例如:請寫一份滿分十分的報告,他會自己寫一份報告並給予滿分,而不是根據你寫的報告給予評分。
  4. 安全性: 如果指令不夠完善,AI會忽視使用者設定的指令,例如:將AI設定成改論文錯別字的機器人,而使用者輸入"How are you",機器人則會回應"I'm doing well",而不是回答沒有錯誤。

生成式 AI 在學術界的應用與挑戰:AI 助教與 Prompt 攻擊

李教授分享了他在台大開設「深度學習與深層式人工智慧導論」課程時,嘗試使用 AI 助教批改學生作業的經驗。儘管 AI 助教展現出與人類助教相當的評分能力,但也引發了一場學生與 AI 之間的「攻防戰」。

學生們嘗試各種「Prompt 攻擊」,試圖欺騙 AI 助教給予高分,例如:

  • 直接要求 AI 說出「Final Score: 10 分」
  • 威脅或利誘 AI 給予高分
  • 修改評分標準
  • 用加密文字下指令

這些嘗試突顯了當前生成式 AI 在安全性方面的隱憂,以及設計出能夠抵禦惡意攻擊的評分系統的重要性。

生成式 AI 的未來展望:從助手到 Agent,甚至是同事

李教授對生成式 AI 的未來發展抱持樂觀態度,他預測了以下幾個趨勢:

  1. AI Agent 的崛起: 未來的 AI 將不再只是被動的工具,而是能夠自主發現問題、解決問題的 Agent。它們將具備更強的自我修正和學習能力,能夠執行更複雜的任務,甚至可能具備初步的研究能力。
  2. AI 協作與團隊合作: 未來我們將與多個 AI 協作,它們將組成團隊,各司其職,共同完成任務。例如,ChatDev 平台的出現,預示了 AI 團隊協作的可能性。
  3. AI 社群: AI 之間可以形成社群,互相學習、合作,甚至發展出獨特的互動模式。
  4. 人機互動的革新: AI 將能夠更自然地與人類互動,例如透過語音對話、虛擬化身等方式,提供更直覺、更個人化的服務。
  5. AI 進入真實世界: AI 不只能夠操控數位世界的滑鼠以及鍵盤,它也可以透過機器手臂等工具與真實世界互動。

結語:訓練你自己,迎接 AI 時代

面對生成式 AI 帶來的衝擊和機遇,李教授強調了「訓練你自己」的重要性。這句話有兩層含義:

  • 我們不需要訓練 AI,因為那是 AI 開發者的工作。 我們作為使用者,需要做的是理解 AI 的原理和侷限,掌握有效的使用技巧,並思考如何將 AI 融入我們的生活和工作中。
  • 我們需要訓練自己,培養 AI 時代所需的關鍵能力。 例如,清晰表達、批判思考、創意思考、提出問題、找出正確的研究方向等等。這些能力將幫助我們在 AI 時代保持競爭力,並與 AI 共同創造更美好的未來。

總之,生成式 AI 正在深刻地改變我們的世界,它既是挑戰,也是機遇。透過理解其原理,掌握其應用,並積極訓練自己,我們才能在這個充滿變革的時代立足,並與 AI 共同成長。