第 2 天:Token、Prompt、Context 三大基礎詞
跟 LLM 對話前必懂的三個字
3 分鐘秒懂
你可以把 AI 想像成一位很會接話的朋友。你跟他聊天時,不是把一整本書直接塞進他腦袋,而是像用便利貼一張張貼給他看:每張便利貼上有幾個字、一句話、一些上下文。AI 會根據目前看得到的便利貼,推測下一句最適合說什麼。
今天要認識的三個詞,就是跟 AI 對話的基本工具箱:token(語意片段)、prompt(指令)、context window(上下文視窗)。如果說 LLM(大型語言模型) 是一台很會寫字的自動接龍機,那 token 是它讀寫的最小材料,prompt 是你交給它的任務單,context window 則是它桌面上最多能攤開多少資料。
舉個生活化例子:你請 ChatGPT 幫你寫週報。你輸入「幫我寫一份本週工作週報」,這句話就是 prompt。AI 會把這句話切成許多 token 來理解與產生回應。而它能參考你前面貼給它的會議紀錄、工作進度、主管要求,這些就放在 context window 裡。問題是,這張桌子不是無限大,資料太多就可能放不下。
為什麼這重要
很多人剛開始用 AI,常覺得它「有時很聰明,有時很失憶」。例如你明明前面說過「請用繁體中文」,後面它卻突然變成簡體中文;你貼了一大串 Discord 訊息要它整理,它卻漏掉前半段重點;你請它寫一份報告,它產出的內容卻跟你想像的不一樣。
這些問題,常常不是 AI 故意亂來,而是你還不熟悉 token、prompt、context window 三者的關係。你給的 prompt 太模糊,AI 就像收到「幫我弄好」這種便條紙,不知道要弄成什麼樣。你塞進去的資料太多,超過 context window,AI 就像桌面放不下文件,可能只能看到其中一部分。
理解這三個詞後,你會更會「指揮 AI」。你會知道什麼資料該放、什麼要求要寫清楚、為什麼長對話需要整理摘要。這就像從「跟 AI 許願」升級成「跟 AI 協作」。
核心概念分解
第一個:token(語意片段)。很多人以為 AI 是一個字一個字讀,其實更準確地說,它是用 token 來處理文字。token 可以是一個中文字、一個詞的一部分、一個英文單字,甚至是標點符號。以中文來說,「今天我想寫週報」可能會被切成好幾個 token;以英文來說,「unbelievable」也可能被切成幾段。
你不一定要會精算 token,但要知道:AI 處理文字是有成本與容量限制的。你輸入越多資料、要求它輸出越長內容,就會用掉越多 token。這也是為什麼有些工具會限制「最多可輸入多少字」或「本次對話太長,請開新聊天」。
第二個:prompt(指令)。prompt 就是你丟給 AI 的任務說明。它不只是問題,也可以包含角色、背景、格式、語氣、限制條件。例如「請幫我寫週報」是一個 prompt,但比較粗糙;「請你扮演科技公司專案經理,根據以下三點,用繁體中文寫一份 300 字內、條列式、語氣正式的週報」就是更清楚的 prompt。
prompt 會大幅影響輸出,因為 LLM 不是讀心機。它不知道你心中所謂「專業」是法律文件那種專業,還是主管簡報那種專業;也不知道你要短版、長版、溫柔版、銷售版。你寫得越清楚,它越容易對齊你的期待。
第三個:context window(上下文視窗)。這是 AI 在一次對話中「看得到」的文字範圍。你可以把它想像成 AI 的工作桌。桌面大一點,就能同時攤開更多資料;桌面小一點,資料太多時就要收掉一些。context window 裡包含你這次輸入的 prompt、前面對話內容、系統規則,以及 AI 自己剛剛生成的回覆。
重點是:context window 有上限。就算某些模型號稱可以讀很長的文件,也不代表它永遠能完美記住每個細節。資料越長,重點越容易被稀釋。因此,長文件與長對話常需要分段、摘要、標記重點,才能讓 AI 更穩定地工作。
實際例子
假設你要用 ChatGPT 寫週報,差的 prompt 可能是:「幫我寫週報。」AI 會自己猜:你是業務、工程師、行政,還是老師?週報要給主管、客戶,還是同事?要正式還是輕鬆?因為資訊不足,它只好產出一份很普通的模板。
更好的 prompt 可以這樣寫:「請扮演一位網路產品公司的行銷專員,根據以下工作紀錄,寫一份給主管看的繁體中文週報。格式分成:本週完成、遇到問題、下週計畫。語氣正式但不要太官腔,每段 3 點以內。」這時 AI 就像收到一張清楚的菜單,比較不會亂煮。
再看 Discord 訊息整理。你把一整週群組聊天全部貼給 AI,要求:「幫我整理重點。」如果內容很長,可能超過 context window,或雖然放得下,但裡面廢話太多,AI 會被雜訊干擾。更好的做法是先分段貼上,例如每天一段,請 AI 先整理成「決策、待辦、爭議點」,最後再請它整合成總結。
如果你使用中國的通義千問,也會遇到類似概念。你問:「幫我分析這份客服紀錄。」若你只貼原始紀錄,模型可能抓到一些表面問題;但如果你加上 prompt:「請站在電商營運主管角度,找出前三大客訴原因,並提出可執行改善方案」,結果就會更接近商業決策需要。
這裡 token、prompt、context window 會一起運作:客服紀錄會消耗 token;你的分析要求是 prompt;模型能同時參考多少紀錄,受 context window 限制。懂這三件事,你就比較能判斷問題出在哪裡。
常見誤解
誤解一:token 就等於中文字數。不完全是。token 是模型內部處理文字的單位,跟人類看到的字數不一定一樣。中文、英文、數字、符號都可能用不同方式切分。所以不要把 token 簡單當成「幾個字」,只要理解它代表模型處理文字的容量與成本即可。
誤解二:prompt 越長越好。不一定。好的 prompt 是清楚,不是囉嗦。你可以提供角色、目標、格式、限制、範例,但不要塞一大堆無關背景。就像請人幫你買便當,你說「我要雞腿便當、飯少、不要辣」很清楚;但如果你從小學午餐回憶開始講,反而讓人抓不到重點。
誤解三:AI 會永遠記得整段聊天。不會。LLM 在同一段對話中主要依賴 context window。當對話越來越長,早期內容可能被截掉或變得不重要。這也是為什麼做長期專案時,最好定期請 AI 產生「目前共識摘要」,之後把摘要貼回新對話,讓它重新抓住重點。
誤解四:context window 大,就一定比較聰明。也不一定。context window 大代表能放更多資料,但模型是否能準確抓重點,還取決於模型能力、資料品質、prompt 設計。就像書桌很大不代表你讀書一定有效率,資料整理得好才重要。
今天小測驗(3 題)
第 1 題:token(語意片段)最接近下面哪個說法?
A. AI 的帳號密碼
B. AI 處理文字時使用的基本片段
C. 一定等於一個中文字
D. 用來訓練員工的口令
第 2 題:哪一個 prompt(指令)比較可能得到穩定、有用的輸出?
A. 幫我寫一下
B. 寫好一點,專業一點
C. 請根據以下工作紀錄,用繁體中文寫一份給主管看的週報,分成本週完成、問題、下週計畫
D. 你自己看著辦
第 3 題:context window(上下文視窗)有限,代表什麼?
A. AI 永遠只能回答三句話
B. AI 不能處理中文
C. AI 在一次對話中可同時參考的內容有上限
D. AI 只能在早上使用
查看答案與解析
第 1 題答案:B。token 是 LLM 處理文字的基本單位,可能是一個字、詞的一部分、標點或其他片段,不一定等於人類眼中的一個中文字。
第 2 題答案:C。好的 prompt 會清楚說明任務、資料來源、語言、對象與格式。C 提供了明確目標,比「幫我寫一下」更容易得到可用結果。
第 3 題答案:C。context window 就像 AI 的工作桌,能放多少對話與資料是有限的。長文件或長對話最好分段、摘要、標記重點,讓 AI 更容易抓住核心。