
AI 這個圈子,似乎一天不創造新名詞就渾身不對勁。當大家都還在學怎麼樣給 AI 下好提示詞(prompt)才能得到好回應的時候,情境工程(context engineering)這個新名詞又跳出來了。我們利用這篇文章從最基本的 AI 大白話概念介紹、到實作和應用層面,和大家詳細介紹情境工程(context engineering)是什麼、它與提示工程(prompt engineering)有什麼不同、如何務實地應用在我們的工作當中、以及一種職場新角色「情境工程師(context engineer)」的出現。
簡單來說,情境工程並不是一項新的技術,而是讓大家在平常應用 AI 的時候,從以模型為中心的思維,轉向以「情境(Context)」為中心的架構來思考和處理與 AI 的互動。而且情境工程是打造真正有效的 AI 代理人(AI agents)的重要基礎。
我們接下來將重點介紹情境工程的主要架構和組件:情境檢索(Context Retrieval)、情境處理(Context Processing)與情境管理(Context Management),以及它們如何整合至多代理人工作流程等精密系統中。
我們也將分析摩根士丹利(Morgan Stanley)、Stripe、Intercom 等領導企業的關鍵案例,深入討論情境工程所帶來的商業影響,從提升生產力與決策品質,到創造卓越的客戶體驗。我們的核心論點是:在 2025 年之後,在 AI 領域的競爭優勢將不再取決於誰擁有最大規模的模型,因為這些模型都已經人人可用了,而是取決於誰能建構出最高效、最完整的情境管線(context pipelines)。
1. 情境工程的興起:超越提示詞的疆界
情境工程正在成為一門正規的技術領域,對於建構可靠且可擴展的 AI 系統至關重要。我們將在本章解構其核心概念,闡明其與「提示工程」的根本區別,並分析驅動其崛起的技術與經濟動因。
1.1. 從「你說了什麼」到「還要給模型吃什麼」
首先,我們直接引用 AI 領域的大神 Andrej Karpathy 推廣的定義:「情境工程是一門精巧的藝術與科學,旨在為大型語言模型(LLM)的下一步行動,在其情境視窗(context window)中填入恰到好處的資訊」。
聽起來有點繞口,但簡單來說,其實就是在跟 AI 對話的時候,多餵食一些背景資訊給 AI 罷了,這樣 AI 有了更多背景資訊,就可以給我們更精準和符合當下情境的回答。
所以情境工程強調的,是把與 LLM 的互動模式,從單一指令的發送,重新框架為對其整體工作記憶體的全盤管理 1。提示工程專注於使用者下達的指令(你說了什麼),而情境工程則致力於建構模型運作的完整資訊生態系(還要給模型吃什麼背景資訊)。前者通常針對單次互動;後者則是專為多輪、有狀態的應用程式所設計 3。
表 1:提示工程 vs. 情境工程:比較分析
| 維度 | 提示工程 (Prompt Engineering) | 情境工程 (Context Engineering) |
| 範疇 | 單一指令 | 整體資訊生態系 |
| 目標 | 優化單次輸出品質 | 確保在多任務和多會話中的一致性與可靠性 |
| 本質 | 靜態、手工撰寫的指令 | 動態、系統組裝的資訊負載 |
| 類比 | 提出一個問題 | 準備一份完整的簡報檔案 |
| 核心挑戰 | 措辭與清晰度 | 檢索、相關性與狀態管理 |
1.2. 情境視窗剖析:LLM 的工作記憶體
情境視窗之於 LLM,如同隨機存取記憶體(RAM)之於中央處理器(CPU)2。它是模型在生成回應前所能「看見」的所有資訊的總和。如果你是一名情境工程師,就必須理解並駕馭構成此工作記憶體的各個組件,做為情境工程的原始材料:
- 系統指令 (System Instructions): 這是定義 AI 代理人角色、行為準則與限制的基礎層。
- 使用者輸入 (User Input): 使用者當前所提出的查詢或任務指令。
- 記憶體 (Memory): 包含短期記憶(當前對話歷史)與長期記憶(從外部儲存中檢索的知識)。
- 檢索知識 (Retrieved Knowledge – RAG): 從文件、資料庫或 API 動態獲取的外部資訊,用以確保內容的即時性與準確性 7。
- 工具結構描述與輸出 (Tool Schemas & Outputs): 描述 AI 代理人可用的工具及其介面,以及執行這些工具後返回的數據 9。
- 結構化輸出 (Structured Outputs): 定義模型應回傳的數據格式,例如 JSON 結構描述,以確保輸出的一致性與可用性 9。
- 狀態 (State): 跨越多個步驟的會話級變數與工作流程狀態,是實現複雜任務的關鍵 9。
1.3. 為何多數 AI 代理人失敗其實是情境的失敗
隨著 LLM 本身的推理能力日益強大,AI 代理人系統的性能瓶頸已從模型能力轉向「情境的品質」。在實際 AI 應用的環境中,絕大多數的失敗並非源於模型無法推理,而是由於提供了不足或是有缺陷的情境資訊 7。業界已歸納出四種主要的情境失敗模式 2:
- 情境污染 (Context Poisoning): 當幻覺或錯誤資訊(例如,來自一次錯誤的 RAG 檢索)滲透到情境中,便會污染後續的推理鏈,導致系統偏離目標。一個具體的例子是,一個玩遊戲的 AI 代理人產生了其物品欄中並不存在的物品的幻覺,然後花費了多個回合試圖使用這個虛構的物品 14。
- 情境分心 (Context Distraction): 當長情境視窗中充斥著無關或低品質的資訊時,會壓倒模型的注意力機制,使其忽略了核心任務。這是「迷失在中間」(Lost in the Middle)問題的直接後果 2。
- 情境混淆 (Context Confusion): 當多餘或結構不良的情境以非預期的方式影響回應時,便會發生情境混淆。例如,一個聊天機器人在處理一個無關的圖片生成請求時,卻意外地從記憶中提取並注入了使用者的地理位置資訊 2。
- 情境衝突 (Context Clash): 當情境中存在相互矛盾的資訊時(例如,一份過時的內部文件與一份最新的文件),模型被迫在沒有明確指導的情況下做出選擇,從而導致不可預測的結果 2。
這種從模型為中心到情境為中心的轉變,不僅是自然的技術演進,更是經濟效益驅動下的結果。最初,提升 LLM 性能的主要招式是擴大模型規模,這是一種資本支出(CapEx)密集型策略,但其回報率已呈現遞減趨勢,且成本極其高昂 15,沒什麼人玩得起。另一種方法是微調(Fine-tuning),同樣需要大量的數據整理與運算資源,屬於資本支出,且難以應對知識的快速迭代。
相比之下,以檢索增強生成(RAG)為核心的情境工程,提供了一種更靈活、更具成本效益的營運支出(OpEx)模型。它允許模型在不需重新訓練的情況下,即時從專有數據源中獲取知識進行「接地」(grounding)。因此,業界普遍採納的「RAG 優先」原則,不僅是技術上的選擇,更是考量成本的財務決策。情境工程為有效實施 RAG 提供了必要的架構框架,為企業 AI 應用在性能、可擴展性與成本之間取得了最佳平衡。這個現實考量是推動情境工程成為 2025 年生產級 AI 主流典範的核心驅動力,它將企業的戰略思考從「我們是否應該微調自己的模型?」轉變為「我們如何圍繞最先進的基礎模型,建構最高效的情境管線?」6。
2. 情境工程的基礎組成要件
本章節將深入探討構成情境工程管線的核心架構組件與技術,其結構依據近期學術研究所提出的正規分類法,該分類法是對超過 1,400 篇研究論文進行系統性分析後得出的結論 17。
表 2:情境工程分類
| 分類 | 組件 (Prompt Engineering) |
| I. 基礎組成要件 | A. 情境檢索與生成 (Context Retrieval & Generation): 查詢轉換、RAG、提示生成 |
| B. 情境處理 (Context Processing): 長情境處理、重排序、自我精煉 | |
| C. 情境管理 (Context Management): 記憶體系統、壓縮、隔離 | |
| II. 系統層面的實現 | A. 進階 RAG 系統: 模組化、代理人式、圖增強 |
| B. 記憶體增強代理人: 持續性互動、使用者畫像 | |
| C. 工具整合推理: 函數呼叫、環境互動 | |
| D. 多代理人系統: 編排、通訊、協調 |
2.1. 情境檢索與生成:RAG 管線
現代情境工程的核心是檢索增強生成(RAG),它將 LLM 的回應建立在外部、即時的知識基礎之上 14。我們將探討最初的「樸素 RAG」(索引 → 檢索 → 生成)流程如何演進為一個精密的多階段管線,進而克服固有的局限性 20。
查詢轉換 (Query Transformation)
檢索的品質完全取決於查詢的品質。因此,在檢索階段之前,對使用者原始輸入進行轉換至關重要。以下是幾種關鍵的查詢轉換技術:
- 多重查詢 (Multi-Query): 從不同角度生成使用者問題的多個變體,以提高檢索的召回率 22。例如,將「告訴我關於 COVID-19 的資訊」轉換為「COVID-19 的症狀」、「COVID-19 的長期影響」等多個具體查詢 22。
- 退步提示 (Step-Back Prompting): 將一個具體問題抽象為一個更高層次的概念性問題,首先檢索更廣泛的背景知識,然後利用這些知識來回答原始的具體問題 24。例如,將「『警察樂團』的成員能否合法逮捕人?」退一步抽象為「『警察樂團』的成員能做什麼?」24。
- 假設性文件嵌入 (HyDE): 首先為查詢生成一個假設性的答案,然後使用這個假設答案的嵌入向量進行檢索。其理論基礎是,文件與文件之間的相似性往往比查詢與文件之間的相似性更為有效。
- 分解 (Decomposition): 將一個複雜的問題分解為多個可以獨立回答和檢索的簡單子問題 26。例如,將「LangChain 代理人和 LangGraph 有什麼區別?如何部署它們?」分解為四個獨立的子問題進行處理 30。
2.2. 情境處理:為相關性進行優化
一旦檢索到一組文件,就必須對其進行處理,以確保只有最相關、最不冗餘的資訊被傳遞給 LLM。這個步驟對於緩解「迷失在中間」問題至關重要。
「迷失在中間」問題 (The "Lost in the Middle" Problem)
研究明確指出,LLM 在處理長情境時表現出明顯的 U 型性能曲線:它們對情境視窗開頭和結尾的資訊記憶最為深刻,而對中間部分的資訊則容易忽略 31。這是當前 Transformer 架構中注意力機制的一個根本限制。這真的跟人類的行為非常相似:只記得一本書最前面和最後面的東西,中間的全忘光了。
重排序與剪枝 (Re-ranking and Pruning)
而主要的解決方案是「重排序」(Re-ranking),即重新排列檢索到的文件,將最重要的資訊放置在情境視窗的邊緣。
- 前後對比範例: 一個標準的檢索器(如基於語義相似度)可能會返回一個按相關性排序的文件列表。然而,經過 LostInTheMiddleRanker 處理後,這個列表會被重新排列,將最相關的文件放在開頭和結尾,而次要的文件則置於中間 37。
- 進階重排序器: 最先進的重排序模型不僅僅是重新排列。
- Cohere Rerank: 這是一個強大的模型,它能為每個文件針對特定查詢計算出一個精確的相關性分數 39。例如,對於查詢「美國的首都是哪裡?」,包含「華盛頓特區是美國首都」的文件會獲得接近 1.0 的分數,而討論「內華達州首府」的文件分數則低得多 39。
- Contextual AI 的指令遵循重排序器: 這是一種突破性的方法,允許開發者用自然語言下達指令,指導模型如何排序,例如優先考慮文件的時效性或來源 44。一個典型的指令可能是:「優先考慮內部銷售文件,而不是市場分析報告。較新的文件應給予更高權重。」44。
情境視窗的擴展與情境處理技術的發展並非兩個獨立的趨勢,而是相互依存、共同演進的。最初,業界普遍認為,只要不斷擴大情境視窗的容量,就能解決大部分資訊檢索問題,因為這允許將更多數據「塞入」提示中 49。然而,「迷失在中間」的研究證明,這種樸素的填充策略反而會降低性能,產生「大海撈針」的效應。更多的情境不但有時沒什麼幫助,有時甚至是有害的 2。
這個局限性催生了對精密情境處理工具(如重排序器和摘要器)的市場需求。這些工具的價值主張與大型情境視窗的缺陷直接相關。因此,情境視窗的擴展為情境處理技術的發展創造了需求,而更優越的處理技術則反過來使得大型情境視窗變得真正可用。LLM 架構的未來不僅在於規模,更在於規模之內的資訊智慧編排。情境處理,正是實現這種高效記憶體管理的作業系統級調度器。
2.3. 情境管理:建構代理人的記憶體
為了讓 AI 代理人能夠執行複雜的多輪任務,它必須能夠記住過去的互動。本節將探討實現記憶體的架構模式。
短期記憶 vs. 長期記憶
- 短期記憶 (Short-Term Memory): 在單一會話或對話線程中保存資訊。它通常透過「對話緩衝區」(Conversation Buffer)來實現,即將最近的對話歷史附加到提示中。一個簡單的 Python 範例是使用 LangChain 的 ConversationBufferMemory,讓聊天機器人在一次對話中記住使用者的名字 50。
- 長期記憶 (Long-Term Memory): 跨越多個會話持久化儲存資訊,通常儲存在外部資料庫(SQL 或向量資料庫)中。這使得代理人能夠隨著時間的推移,建立一個持久的「使用者畫像」或知識庫。
記憶體的類型 (LangGraph 框架)
我們採用源自認知科學的 LangGraph 框架,將記憶體分為以下幾種類型:
- 語義記憶 (Semantic Memory): 儲存事實和概念,例如使用者的偏好。一個實際的例子是,在使用者個人資料庫中儲存「使用者偏好素食」這一事實 52。
- 情節記憶 (Episodic Memory): 記憶過去的事件或經歷,例如解決某個問題時所採取的步驟。
- 程序記憶 (Procedural Memory): 記憶如何執行任務,通常編碼在代理人的核心提示或微調行為中。
情境壓縮 (Context Compression)
對於冗長的對話,一項關鍵的管理技術是「摘要」。系統不是傳遞完整的對話歷史,而是生成一個摘要作為情境 2。一個典型的應用場景是,客戶服務聊天機器人在將對話轉交給人類客服之前,會先生成一份互動摘要,以便人類客服快速掌握情況 54。
3. 系統層面的實作:從基礎組成要件到 AI Agent 智慧代理人
本章節將前述的基礎組件整合為連貫的系統級架構,這些架構定義了現代 AI 應用的形態。
3.1. 進階 RAG 架構
我們將超越線性的 RAG 管線,探討更為複雜的模式:
- 代理人式 RAG (Agentic RAG): 在此模式中,一個代理人能夠根據初步的檢索結果,迭代地精煉其查詢,或者自主決定查詢哪個知識庫以獲取最佳資訊 14。
- 圖增強 RAG (Graph-Enhanced RAG): 使用知識圖譜(Knowledge Graphs)而非傳統的向量儲存來進行檢索。這種方法能夠保留實體之間的關係,從而實現更細膩、更具深度的多跳推理(multi-hop reasoning),這在金融和法規遵循等領域尤為重要 56。
3.2. 工具整合推理
當代理人能夠與外部世界互動時,它們的能力將得到極大的擴展。工具使用(或稱函數呼叫)本身就是一種情境工程。系統首先為代理人提供一個可用工具的「情境」,而執行這些工具後返回的輸出,則成為下一個推理步驟的全新情境 2。諸如 LangChain 和 LlamaIndex 等框架提供了定義工具和編排 ReAct(Reasoning + Acting)循環的抽象層,極大地簡化了開發過程。
3.3. 多代理人系統:複雜問題解決的未來
最近我們也觀察到,越來越多的 AI 技術在面對複雜問題時,不再採用由單一的大型代理人解決的方法,而是由一組協同工作的專業 AI Agent 團隊來分工處理。這似乎又對應到了人們處理問題的方式:不當一個什麼都會解決的超級天才,而是組建一個可以分工協作的團隊:
- 架構模式:編排者-工作者 (Orchestrator-Worker): 這是最常見的模式,由一個「監督者」(Supervisor)或「編排者」(Orchestrator)代理人負責將一個高層次的任務分解,並將子任務分配給專門的「工作者」(Worker)代理人。
- 任務分解實踐: 編排者分析使用者查詢,並將其分解為可並行或順序執行的子任務。
- 每個工作者代理人接收一個明確的目標、一套專屬的工具和一個隔離的情境視窗。這種隔離使其能夠專注於特定任務,避免了情境分心的問題 2。
- 案例研究 (Anthropic): 為了解決「找出標普 500 資訊技術指數中所有公司的董事會成員」這一複雜任務,其主導代理人會生成多個子代理人,每個子代理人負責研究一部分公司。這些子代理人並行工作,最後由主導代理人綜合它們的發現。這種方法的效率遠超單一代理人順序執行任務的模式 58。
- 一個完整的 LangGraph 工作流程範例可以清晰地展示這一過程:當收到一個如「找到 FutureSmart AI 的創辦人,然後對他進行網路研究」的複合查詢時,監督者首先將任務路由給一個 RAG 代理人以從內部知識庫中查找創辦人姓名,然後將結果(創辦人姓名)連同後續任務路由給一個具備網路搜尋工具的代理人 57。
✦延伸閱讀:讓 AI Agent 彼此溝通:Google A2A 和 Anthropic MCP 深度解析
4. 情境工程實踐:企業案例研究
本章節將前述的理論框架與技術細節,透過一系列來自領先企業的真實世界案例進行落地,展示情境工程如何在實際商業環境中創造真正的商業價值。
4.1. 客戶支援與體驗
使用案例:為代理人交接生成 AI 摘要
- 問題: 當客戶對話從 AI 機器人轉接至人類客服、或在不同人類客服之間轉移時,接手的客服人員必須花費寶貴的時間閱讀完整的對話記錄才能了解前因後果。
- 情境工程解決方案: 在工作流程中實施一個自動化的摘要步驟。系統將短期記憶(即對話歷史)壓縮成一份結構化的摘要。
- 案例研究:Intercom: Intercom 的「AI Summarize」功能在其 AI 代理人 Fin 將對話轉交給人類團隊成員時,會自動生成一份包含關鍵細節的內部筆記。這份筆記提供了即時的情境,大幅減少了客服人員的準備時間,並避免了讓客戶重複陳述問題的糟糕體驗 54。該摘要通常包含「問題描述」和「已嘗試的解決方案」等結構化組件 60。
使用案例:自動化會議洞察
- 問題: 會議中產生的寶貴資訊,如決策和行動項目,往往會被遺忘,或者需要大量手動整理和分發。
- 情境工程解決方案: 利用 AI 代理人即時轉錄會議內容,並對轉錄稿進行處理,以生成摘要並提取如行動項目及其負責人等結構化數據。
- 案例研究:Otter.ai: OtterPilot 能夠自動加入線上會議,進行實時轉錄,並在會後生成包含關鍵要點和行動項目列表的摘要。它甚至能夠自動為與會者分配任務,為會議提供一份清晰、可執行的記錄,並分發給所有相關人員 61。
4.2. 軟體開發與工程
使用案例:程式碼庫的全域理解
- 問題: 開發人員在面對龐大而複雜的程式碼庫時,難以快速理解模組間的依賴關係、找到相關函數,以及遵循既有的架構模式。
- 情境工程解決方案: 透過為程式碼庫中的每個文件計算嵌入向量(embeddings)來進行索引。這會創建一個專案的語義「地圖」,使 AI 代理人能夠對其進行查詢。
- 案例研究:Cursor AI: Cursor 會對整個程式碼庫進行索引,甚至包括歷史上的合併請求(Pull Requests),從而為其 AI 代理人提供全面的情境。當開發者提問(例如,「身份驗證流程是如何處理的?」)時,代理人會利用這個索引從多個文件中檢索相關的程式碼片段,提供一個人類需要數小時才能手動拼湊出的完整答案。這是 RAG 技術在結構化程式碼上的典型應用 67。
使用案例:代理人式的 API 互動
- 問題: 與複雜的多步驟 API 互動,通常需要開發人員投入大量精力來處理身份驗證、狀態管理和順序呼叫。
- 情境工程解決方案: 為 LLM 代理人配備與 API 端點相對應的工具,並使其清楚地理解整個工作流程。
- 案例研究:Stripe: Stripe 開發了一套「代理人工具包」(Agent Toolkit),允許開發者使用 LangChain 等框架將 Stripe API 整合到代理人工作流程中。這使得代理人能夠透過自然語言對話執行複雜的操作,例如創建客戶、設置訂閱並處理支付,而代理人則在後台負責管理 API 呼叫和狀態 73。
4.3. 金融服務
使用案例:AI 驅動的財務顧問
- 問題: 財務顧問需要綜合處理海量資訊——包括市場數據、監管文件和客戶特定的投資組合細節——才能提供個人化的建議。
- 情境工程解決方案: 實施一個企業級的 RAG 系統,將 LLM 連接到公開的市場數據源和安全的專有客戶資料庫。
- 案例研究:摩根士丹利 (Morgan Stanley): 摩根士丹利已將 AI 深度整合到其顧問工作流程中。他們的系統能夠存取並處理公司的專有研究報告和客戶數據,在客戶會議期間為顧問提供 AI 生成的摘要和洞察。這使得顧問能夠即時回答複雜問題,並制定更具個人化的策略,從而顯著減少準備時間 56。
4.4. 企業知識管理
使用案例:情境化的內容探索
- 問題: 企業內部的寶貴資訊常常被鎖定在非結構化的格式中,如影片,這使得搜尋和利用變得極為困難。
- 情境工程解決方案: 建立一個管線,從非結構化資產中提取情境元數據,並使其可被搜尋。
- 案例研究:Netflix: Netflix 運用演算法從其龐大的影片庫中提取情境元數據(metadata)。例如,自動檢測片尾字幕的開始時間,以實現無縫的「下一集」播放體驗;或是在不同地區版本的影片資產中識別相似的影格。這種經過工程化的情境驅動著內部系統,並在無需人工標記的情況下提升了使用者體驗 79。
5. 戰略建議與未來展望
本章節將為希望採用以情境為中心的 AI 策略的企業提供可行的建議,並探討該領域的未來發展軌跡。
5.1. 生產級情境管線的最佳實踐
- 將情境視為產品 (Treat Context as a Product): 支撐 AI 系統的知識庫和數據管線並非靜態資產,而是一個需要持續維護和演進的「活產品」。它需要版本控制、自動化的品質檢查以防止數據漂移、持續的監控,以及反饋迴路,以不斷提升其準確性與相關性 6。
- 優先採用「RAG 優先」策略 (Prioritize a "RAG First" Strategy): 對於大多數企業應用場景而言,圍繞一個強大的基礎模型建構一個穩健的情境工程管線,比從零開始嘗試微調一個自訂模型,能提供更高的投資回報率 6。
- 投資於可觀測性 (Invest in Observability): 使用如 LangSmith 這樣的工具來追蹤和調試代理人系統。能夠檢查在每個步驟中提供給 LLM 的確切情境,對於診斷失敗和提高系統可靠性至關重要 4。
5.2. 「情境工程師」的崛起
「情境工程師」正迅速成為高效 AI 團隊中一個關鍵且正式化的角色。這個職位要求一種混合技能集,融合了系統架構、數據工程、提示工程以及特定領域的專業知識 83。他們不僅僅是提示詞的撰寫者,更是 AI 系統資訊流的架構師。
5.3. 未來的前沿
- 多模態情境 (Multimodal Context): 下一個演進階段將不僅僅是整合文本,而是將圖像、音訊和影片納入一個統一的情境框架中。這將使 AI 能夠對現實世界豐富且多面向的本質進行推理 8。
- 自動化情境優化 (Automated Context Optimization): 未來的系統將學會自我優化其情境管理。這意味著從手動工程轉向能夠自我審計情境、並自主改進其檢索和記憶策略的自主代理人 8。
- 通往通用人工智慧之路 (The Path to AGI): 最終,動態地感知、管理和推理複雜多模態情境的能力,是實現更先進、更自主的人工智慧的根本前提。情境工程正為這個未來奠定基礎。
iKala 是 Google Cloud 2025 年度最佳合作夥伴,提供專業的顧問服務與在地化支援,協助企業導入 AI,並整合至現有的雲端架構與業務流程中,如果您正在尋找能加速創新與提升營運效率的 AI 解決方案,歡迎聯繫 iKala,獲得量身打造的技術建議與實作協助。

參考資料
- Context Engineering in LLMs and AI Agents | by DhanushKumar | Jul, 2025 | Medium, https://medium.com/@danushidk507/context-engineering-in-llms-and-ai-agents-eb861f0d3e9b
- Context Engineering – LangChain Blog, https://blog.langchain.com/context-engineering-for-agents/
- Context Engineering vs Prompt Engineering | by Mehul Gupta | Data Science in Your Pocket | Jun, 2025 | Medium, https://medium.com/data-science-in-your-pocket/context-engineering-vs-prompt-engineering-379e9622e19d
- The rise of "context engineering" – LangChain Blog, https://blog.langchain.com/the-rise-of-context-engineering/
- What is Context Engineering? The New Foundation for Reliable AI and RAG Systems, https://datasciencedojo.com/blog/what-is-context-engineering/
- From Vibe Coding to Context Engineering: A Blueprint for Production-Grade GenAI Systems – Sundeep Teki, https://www.sundeepteki.org/blog/from-vibe-coding-to-context-engineering-a-blueprint-for-production-grade-genai-systems
- The New Skill in AI is Not Prompting, It's Context Engineering – Philschmid, https://www.philschmid.de/context-engineering
- Context Engineering: The New Frontier of AI Development | TechAcc – Medium, https://medium.com/techacc/context-engineering-a8c3a4b39c07
- Context Engineering – What it is, and techniques to consider …, https://www.llamaindex.ai/blog/context-engineering-what-it-is-and-techniques-to-consider
- Agent Intelligence: A Strategic Approach to Context Engineering – Medium, https://medium.com/@kram254/agent-intelligence-a-strategic-approach-to-context-engineering-3ef6af0cfff1
- How and when to build multi-agent systems – LangChain Blog, https://blog.langchain.com/how-and-when-to-build-multi-agent-systems/
- Context Engineering: The Critical AI Skill that makes or breaks your LLM Applications | by Yashwant Deshmukh | Jul, 2025 | Medium, https://medium.com/@yashwant.deshmukh23/a-complete-guide-to-context-engineering-for-ai-agents-56b84ff6bc26
- Context Engineering: From Pitfalls to Proficiency in LLM Performance – Generative AI, https://generativeai.pub/context-engineering-from-pitfalls-to-proficiency-in-llm-performance-acc0b2c5ec1d
- Context Engineering: A Guide With Examples – DataCamp, https://www.datacamp.com/blog/context-engineering
- Will we run out of data? Limits of LLM scaling based on human-generated data – arXiv, https://arxiv.org/html/2211.04325v2
- The Future of Large Language Models in 2025 – Research AIMultiple, https://research.aimultiple.com/future-of-large-language-models/
- A Survey of Context Engineering for Large Language Models – arXiv, https://arxiv.org/html/2507.13334v1
- [2507.13334] A Survey of Context Engineering for Large Language Models – arXiv, https://arxiv.org/abs/2507.13334
- Context Engineering: The New Foundation for Scalable, Trustworthy AI – TheDataGuy, https://thedataguy.pro/blog/2025/07/context-engineering/
- What Is RAG? Use Cases, Limitations, and Challenges – Bright Data, https://brightdata.com/blog/web-data/rag-explained
- The Limits of LLMs — and When to Use Prompt Engineering, RAG, CAG, or Fine-Tuning, https://medium.com/@yangxu_16238/the-limits-of-llms-and-when-to-use-prompt-engineering-rag-cag-or-fine-tuning-7bf2db50a966
- Query Transform Cookbook – LlamaIndex, https://docs.llamaindex.ai/en/stable/examples/query_transformations/query_transform_cookbook/
- Advanced_RAG/02_Query_Transformations.ipynb at main – GitHub, https://github.com/NisaarAgharia/Advanced_RAG/blob/main/02_Query_Transformations.ipynb
- LangChain in Chains #46: Step-Back Prompting | by Okan Yenigün | AI Mind, https://pub.aimind.so/langchain-in-chains-46-step-back-prompting-1211a6705a33
- langchain-ai/stepback-answer Public – LangSmith, https://smith.langchain.com/hub/langchain-ai/stepback-answer
- Retrieval – ️ LangChain, https://python.langchain.com/docs/concepts/retrieval/
- Query Transformations – LlamaIndex 0.9.48, https://docs.llamaindex.ai/en/v0.9.48/optimizing/advanced_retrieval/query_transformations.html
- GenerativeAIExamples/RAG/examples/advanced_rag/query_decomposition_rag/README.md at main – GitHub, https://github.com/NVIDIA/GenerativeAIExamples/blob/main/RAG/examples/advanced_rag/query_decomposition_rag/README.md
- LangChain in Chains #48: Prompt Decomposition | by Okan Yenigün | AI Mind, https://pub.aimind.so/langchain-in-chains-48-prompt-decomposition-9ced98250861
- How to add examples to the prompt for query analysis | 🦜️ LangChain, https://python.langchain.com/docs/how_to/query_few_shot/
- Lost in the Middle: How Language Models Use Long Contexts – CS Stanford, https://cs.stanford.edu/~nfliu/papers/lost-in-the-middle.tacl2023.pdf
- Never Lost in the Middle: Mastering Long-Context Question Answering with Position-Agnostic Decompositional Training – arXiv, https://arxiv.org/html/2311.09198v2
- Lost in the Middle: How Language Models Use Long Contexts, https://arxiv.org/abs/2307.03172
- Practical AI/ML Paper reading: "Lost in the Middle": How Language Models Use Long Contexts | by Christmas Carol | Medium, https://medium.com/@carolzhu/lost-in-the-middle-how-language-models-use-long-contexts-2891830f8000
- Found in the Middle: Permutation Self-Consistency Improves Listwise Ranking in Large Language Models – ACL Anthology, https://aclanthology.org/2024.naacl-long.129.pdf
- Lost in the Middle: How Language Models Use Long Contexts Paper Reading – YouTube, https://www.youtube.com/watch?v=hBgzpw11-AQ
- Rankers – Haystack Documentation – Deepset, https://docs.haystack.deepset.ai/v2.3/reference/rankers-api
- haystack/haystack/components/rankers/lost_in_the_middle.py at main – GitHub, https://github.com/deepset-ai/haystack/blob/main/haystack/components/rankers/lost_in_the_middle.py
- Rerank V2 API | Cohere, https://docs.cohere.com/reference/rerank
- An Overview of Cohere's Rerank Model | Cohere, https://docs.cohere.com/docs/rerank-overview
- Cohere Rerank V3 Example with JSON – GitHub Gist, https://gist.github.com/nreimers/0e00920aed9fcfb1581bc4f93b62363a
- Cohere Rerank Client – vLLM, https://docs.vllm.ai/en/v0.8.4/getting_started/examples/cohere_rerank_client.html
- CohereRanker – Haystack Documentation – Deepset, https://docs.haystack.deepset.ai/docs/cohereranker
- Introducing the world's first instruction-following reranker …, https://contextual.ai/blog/introducing-instruction-following-reranker/
- Components – Contextual AI, https://contextual.ai/platform/component-apis/
- Contextual AI Reranker | 🦜️ LangChain, https://python.langchain.com/docs/integrations/retrievers/contextual/
- Contextual AI's State-of-the-Art Reranker Coming to Snowflake Cortex AI – PR Newswire, https://www.prnewswire.com/news-releases/contextual-ais-state-of-the-art-reranker-coming-to-snowflake-cortex-ai-302472268.html
- Contextual AI Launches World's First Instruction-Following Reranker – PR Newswire, https://www.prnewswire.com/news-releases/contextual-ai-launches-worlds-first-instruction-following-reranker-302397946.html
- Long-Context Windows in Large Language Models: Applications in Comprehension and Code | by Adnan Masood, PhD. | Medium, https://medium.com/@adnanmasood/long-context-windows-in-large-language-models-applications-in-comprehension-and-code-03bf4027066f
- Migrating off ConversationBufferMemory or … – ️ LangChain, https://python.langchain.com/docs/versions/migrating_memory/conversation_buffer_memory/
- ConversationBufferMemory — LangChain documentation, https://python.langchain.com/api_reference/langchain/memory/langchain.memory.buffer.ConversationBufferMemory.html
- Building a Chatbot with Long-Term Memory Using LangGraph | by Sajith K | Medium, https://medium.com/@sajith_k/building-a-chatbot-with-long-term-memory-using-langgraph-232ed14025a4
- Building a Customer Support Agent with Dual-Memory Architecture …, https://ai.gopubby.com/building-a-customer-support-agent-with-dual-memory-architecture-long-and-short-term-memory-c39ab176046e
- AI features available in the Inbox | Intercom Help, https://www.intercom.com/help/en/articles/6955446-ai-features-available-in-the-inbox
- Save time and avoid repetition with AI Summaries – Intercom Community, https://community.intercom.com/fin-tips-from-the-intercom-team-85/save-time-and-avoid-repetition-with-ai-summaries-10554
- Contextually Enriched, Knowledge-Enhanced, and Externally Grounded Retrieval Models — For Fun & Profit | by Adnan Masood, PhD. | Medium, https://medium.com/@adnanmasood/contextually-enriched-knowledge-enhanced-and-externally-grounded-retrieval-models-for-fun-7620dd9f643f
- Multi-Agent System Tutorial with LangGraph – FutureSmart AI Blog, https://blog.futuresmart.ai/multi-agent-system-with-langgraph
- How we built our multi-agent research system \ Anthropic, https://www.anthropic.com/engineering/built-multi-agent-research-system
- Intercom AI Assisted Support – Summarize – YouTube, https://m.youtube.com/shorts/em-AW_1QJas
- Auto-summarize conversations in Customer Service – Learn Microsoft, https://learn.microsoft.com/en-us/dynamics365/customer-service/use/cs-ai-generated-summary
- Meeting Notes – Real-time, Shareable, Secure | Otter.ai, https://otter.ai/business
- What is Otter.ai? How to transcribe meetings with AI – Zapier, https://zapier.com/blog/otter-ai/
- Meeting Summary Overview – Otter.ai Help, https://help.otter.ai/hc/en-us/articles/9156381229079-Meeting-Summary-Overview
- Otter Meeting Agent – AI Notetaker, Transcription, Insights, https://otter.ai/
- How To Write a Clear Meeting Summary: Tips and Template | Otter.ai, https://otter.ai/blog/meeting-summary
- Meeting Notes Template With Action Items: Your Guide to Productive Meetings | Otter.ai, https://otter.ai/blog/meeting-notes-template-with-action-items
- Cursor AI: A Guide With 10 Practical Examples | DataCamp, https://www.datacamp.com/tutorial/cursor-ai-code-editor
- built a thing that lets AI understand your entire codebase's context. looking for alpha testers : r/cursor – Reddit, https://www.reddit.com/r/cursor/comments/1hv24pg/built_a_thing_that_lets_ai_understand_your_entire/
- Codebase Indexing – Cursor, https://docs.cursor.com/context/codebase-indexing
- The Good and Bad of Cursor AI Code Editor – AltexSoft, https://www.altexsoft.com/blog/cursor-pros-and-cons/
- How Top 1% Developers Use Cursor AI: A Complete Guide to 10x Your Coding Productivity, https://weber-stephen.medium.com/how-top-1-developers-use-cursor-ai-a-complete-guide-to-10x-your-coding-productivity-a0316bdb108a
- Cursor AI: An In Depth Review in 2025 – Engine Labs Blog, https://blog.enginelabs.ai/cursor-ai-an-in-depth-review
- How Stripe Used AI to Boost Fraud Detection from '59-97% Overnight', https://analyticsindiamag.com/global-tech/how-stripe-used-ai-to-boost-fraud-detection-from-59-97-overnight/
- Building AI agents with Temporal and Stripe's Agent Toolkit – YouTube, https://www.youtube.com/watch?v=pfguNNV-Df0
- Introducing the Stripe Agent Toolkit – YouTube, https://www.youtube.com/watch?v=vdXPkiZANkE
- Could AI ever replace human wealth management advisors? – The World Economic Forum, https://www.weforum.org/stories/2025/03/ai-wealth-management-and-trust-could-machines-replace-human-advisors/
- Artificial Intelligence: Technology Insights | Morgan Stanley, https://www.morganstanley.com/insights/topics/artificial-intelligence
- RAG in Financial Services: Use-Cases, Impact, & Solutions | HatchWorks AI, https://hatchworks.com/blog/gen-ai/rag-for-financial-services/
- Extracting contextual information from video assets | by Netflix Technology Blog, https://netflixtechblog.com/extracting-contextual-information-from-video-assets-ee9da25b6008
- Introducing Dispatch. Netflix is pleased to announce the… | by Netflix Technology Blog | Netflix TechBlog, https://netflixtechblog.com/introducing-dispatch-da4b8a2a8072
- Machine Learning – Netflix Research, https://research.netflix.com/research-area/machine-learning
- Asgard: Web-based Cloud Management and Deployment – Netflix Tech Blog, http://techblog.netflix.com/2012/06/asgard-web-based-cloud-management-and.html
- What Is Context Engineering in AI? Techniques, Use Cases, and Why It Matters, https://www.marktechpost.com/2025/07/06/what-is-context-engineering-in-ai-techniques-use-cases-and-why-it-matters/
- Advancing Multimodal Large Language Models: Optimizing Prompt Engineering Strategies for Enhanced Performance – MDPI, https://www.mdpi.com/2076-3417/15/7/3992
- Context Engineering Guide, https://www.promptingguide.ai/guides/context-engineering-guide