
我相信不只是我,過去很長一段時間大家都很好奇,前 OpenAI 技術長 Mira Murati 單飛創辦了 Thinking Machines Lab 之後,到底會端出什麼菜色。
沒想到答案很簡單,上週 Thinking Machines Lab 終於發表第一支產品 Tinker。一句話講完,這是讓開發者進行 AI 模型微調(Fine-tuning)的平台,可以幫助模型開發者節省很多進行微調時龐雜的工作以及成本。
Tinker 的核心價值在於大幅降低高效能模型微調的門檻。以往要對 LLM 進行微調,開發者不僅需要深厚的 AI 專業知識,還必須面對複雜的基礎設施管理、資源調度與昂貴的硬體成本等等。而有了 Tinker 之後,理想上這些費工的事情可以少很多。
首先是開發者可以專注於實驗與演算法,而非基礎設施: Tinker 是一個託管服務(Managed Service),它為開發者處理了所有底層的繁瑣工作,例如排程、資源分配和故障恢復。這讓開發者可以將精力完全集中在最重要的地方:演算法的設計與數據的應用,加速創新與實驗的速度。
再來是彈性與控制: Tinker 提供了一個極具彈性的 API,讓開發者擁有對演算法和數據的深度控制權。比較特別的是,這支 API 還提供了 forward_backward 和 sample 這樣的低階指令,讓研究人員和開發者能進行更底層、更細緻的實驗。
第三點可能會是 Tinker 比較獨特的地方,就是官方宣稱有內建最先進的微調技術,整合了如 LoRA (Low-Rank Adaptation) 這樣的技術。LoRA 說得比較簡單一點就是可以只更新局部的模型,不用每次花大錢重新更新整個模型。就像是升級車子時只換好一點的輪胎,而不是買一整台新車。
Tinker 的出現,也代表 AI 未來發展中兩個重要的趨勢。
第一個趨勢是模型客製化的大眾化: 隨著像 Tinker 這樣的工具越來越多,擁有一個專為特定需求(例如特定行業的客服、特定風格的文案寫作)而微調的高效能模型,將不再是大型科技公司的專利。中小型企業、甚至個人開發者,都能夠打造出更貼近自身需求的客製化 AI。
第二個是從「模型即服務」到「微調即服務」: 過去,開發者主要透過 API 使用大型模型公司提供的通用模型(Model-as-a-Service)。Tinker 的模式則開啟了「微調即服務」(Fine-tuning-as-a-Service)的時代。這意味著服務的重心從提供單一、巨大的模型,轉向提供一個靈活的平台,讓使用者能夠在這個平台上創造出無數個客製化的模型。
那麼最後你會問,Big Tech 難道沒有類似的服務嗎?
當然有,Big Tech 什麼都要做。
Google、AWS 和 Azure 等科技巨頭都提供了強大而成熟的模型微調服務,但可以看出 Tinker 小心地進行市場區隔。大型科技公司的平台是為「生產環境」而生的工業級產線,它們優先考慮企業級用戶所需的穩定性、安全性及與自家雲端生態系的深度整合,提供的是一個包羅萬象的「工具箱」。
相較之下,Tinker 則更像是一個為研究人員、頂尖開發者與新創公司打造的精密「實驗室」,它專注於開源模型,犧牲了部分企業級的整合便利性,以換取極致的「實驗彈性」。Tinker 提供像是 forward_backward 的低階指令,給開發者更細緻的控制權,目標是成為推動演算法創新的首選平台,而非服務大規模的企業部署。
AI 基礎設施正在走向分層。 Big Tech 提供了穩固的底層和面向大企業的一站式解決方案。而像 Thinking Machines Lab 這樣的公司,則在巨頭的基礎之上,為更專業的特定社群,提供了更具針對性的工具。這反映了 AI 領域持續擴大和成熟,因為只有當一個領域足夠大時,才會出現這種為「專家中的專家」設計的細分市場。
至於這樣的產品能否撐起 Thinking Machines Lab 目前的驚人估值,就交由市場和時間去決定了。