IC 設計公司營收排名 2025

今天瞄了一下,只有凌陽和晶焱兩家公司還沒有交作業。股市觀測站只能看到 2025/11 的數據。 因此決定先出一個搶鮮版,先用這兩家前 11 個月成績來排行,等他們交作業後我再來調整。基本上只會進步,不會退步。

補充說明這一版的限制:

  1. 把非純 IC 設計公司從排名中拿掉了。
  2. 請 AI 幫我補上先前漏掉的幾家公司。
  3. SIMO、HIMX 營收仍然是用估計的。
  4. 2026/1/12 已更新凌陽和晶焱全年營收,排名不變。

觀察重點:

  1. 聯發科大到沒朋友。瑞昱領先聯詠的幅度更明顯了。這點說明產品面寬廣度即是護城河。
  2. 高速傳輸與介面的族群普遍成長,這個跟 AI 需求爆發有關,例如: 祥碩 (5269, +66%)、創惟 (6104, +27.6%)。
  3.  IP 矽智財與 ASIC 設計服務 (Design Service) 營收也很好。例如:智原 (3035, +62%)、愛普 (6531, +35%)、M31 (6643, +20%)、鉅有科技 (6933, +27%)。
  4. 原本排名在很後面的幾家公司營收也有暴衝的,主要是合併新公司或是認列子公司營收,像是矽統 (2363, 281.98%)、世紀民生 (5314, 412.17%)。合邦 (6103) 則是因為認證過了,所以營收增加 66%。
  5. 驅動面板相對是災區。例如:聯詠 (3034, -2%)、瑞鼎 (3592, -8%)、天鈺 (4961, -6.5%)、敦泰 (3545, -17%)。主因是現在沒有換機潮、DRAM 漲價更是扼殺電視、手機、筆電的成長。加上大陸對手的殺價,強如"滷肉"都受到了傷害。
  6. 消費性 MCU 與多媒體 IC 受到通膨的影響,終端購買力縮手。例如:凌通 (4952, -13%)、九齊 (6494, -11%)、松翰 (5471, -2.5%)。老牌的威盛 (2388) 獲得,衰退 40%,甚至變成衰退王。
  7. 世芯-KY 雖然獲得衰退亞軍,它的本業和產業領域都沒有問題,或許這和 Amazon 3 奈米大單有關。以我們這種小人物來說,有龍蝦可以吃就沒那個胃吃雞排了,可能是這樣導致攝取的總熱量下降了些。
排名公司名稱股號2025 預估營收 (千元)年增率 / 備註
1聯發科2454595,965,68212.32%
2瑞昱2379122,706,3728.21%
3聯詠3034100,663,144-2.07%
4創意344334,140,97836.32%
5慧榮SIMO32,450,000(估 304~345 億)
6奇景光電HIMX32,150,000(估 307~336 億)
7世芯-KY366129,540,344-37.80%
8瑞鼎359222,397,169-8.12%
9達發科技652620,926,1959.43%
10矽創801619,001,9326.59%
11矽力641518,823,0392.00%
12智原303517,992,80862.61%
13天鈺496117,974,301-6.50%
14譜瑞496616,524,7601.71%
15晶豪科300614,575,2728.08%
16祥碩526913,414,56366.00%
17義隆245812,326,352-2.91%
18敦泰354511,952,063-17.79%
19威盛23889,547,096-40.00%
20原相32279,127,0829.15%
21信驊52749,084,87540.64%
22致新80818,665,6775.00%
23茂達61387,483,68922.89%
24鉅有科技69336,986,78527.21%
25聯陽30146,946,9624.74%
26凌陽24016,303,139-2.04%
27愛普65315,643,54735.13%
28神盾64625,332,17211.31%
29力智67194,581,28523.89%
30昇佳電子67324,561,864-7.67%
31創惟61044,056,16027.60%
32鈺創53514,036,77916.23%
33偉詮24363,568,64015.32%
34力旺35293,849,0536.74%
35立積49683,761,6632.24%
36大中64353,401,49325.24%
37富鼎82613,104,1926.37%
38盛群62023,057,72222.23%
39安國80542,880,72531.46%
40矽統23632,821,137281.98%
41尼克森33172,706,4119.65%
42松翰54712,675,652-2.51%
43世紀民生53142,635,985412.17%
44晶焱6411 2,456,180-10.51%
45研通62292,152,23119.77%
46沛亨62912,128,86416.70%
47凌通49522,128,010-13.56%
48凌陽創新52361,999,74810.00%
49鈺太66791,965,689-7.01%
50晶相光35301,845,3436.60%
51M3166431,782,16920.34%
52倚強32191,703,17749.68%
53系微62311,689,5134.64%
54晶宏31411,614,1177.08%
55威鋒電子67561,550,110-8.83%
56杰力52991,483,423-12.32%
57晶心科65331,478,1877.00%
58點序64851,474,48916.84%
59聚積35271,448,880-19.18%
60廣閎科66931,413,76729.21%
61揚智30411,397,164-14.19%
62通嘉35881,348,683-7.24%
63九齊64941,187,325-11.74%
64宏觀65681,137,2886.74%
65芯鼎66951,125,64510.49%
66普誠61291,115,932-3.04%
67應廣67161,081,904-15.30%
68虹冠32571,055,31129.32%
69類比科34381,010,7864.92%
70禾瑞亞3556967,4681.24%
71來頡6799966,6656.56%
72亞信3169929,5669.02%
73海德威3268923,948-5.03%
74九暘8040661,1142.65%
75迅杰6243627,985-12.93%
76智微4925556,801-14.81%
77驊訊6237501,19111.69%
78旺玖6233387,503-7.12%
79笙科5272341,2872.86%
80笙泉3122324,174-11.10%
81安格6684317,007-15.36%
82金麗科3228308,986-27.25%
83鑫創3259281,87717.89%
84聯傑3094187,75613.20%
85凱鈺5468165,03336.88%
86通泰5487164,183-15.49%
87佑華微8024153,782-31.37%
88合邦610391,55466.84%
89點晶328864,096-6.89%
90太欣530219,43339.69%

以上報告。等我這週比較不忙再回來補充。

2025 年終投資回顧

雖然一早起床發現美股跌了不少,還好也不算嚴重,就當作是降低 2026 年成長的壓力。結算這整年只成長 19.6%,算是近三年來新低,甚至愈來愈低。做為參考,QQQ 整年漲了 19.75% [1],VT 漲了 22.15 % [2],台股含息的報酬率更高達 29.47% [3]。

因為我年紀大怕會餓死,所以自從聽到所得替代率這個觀念後,我都會去算它:

  • 月所得替代率 – 配息部份達到月薪的 80.92%,創歷年新高。
  • 年所得替代率 – 資產成長約為年薪 3.83 倍 ,為歷年次高。

投資內容和去年相比,增加了兩筆 5~7 年美債 (Treasure Note),數字不大,主要是讓投資目標明確。同步也把屬性介於成長和配息兩者之間的 NOBL、VIG、KO (可口可樂) 這些標的物賣掉。可樂後來只倒掉半罐,等價格好匯率好的時候還是會賣它。總之,現在做到成長型比配息型配置約為 80:20 左右。

BTW,最近演算法推給我不少吳淡如的理財資訊,她主張不論什麼年紀都 all in 指數型 ETF。她大我半歲,完全不相信 “股債配置要隨年紀調整" 那一套。這個想法和我不謀而合,但我的配息就好比她的副業,all 是 all,非 all all。

假設我沒有賣掉 NOBL、VIG,整年大約成長 8.56%。它們會拉低整體成長率 (8.56% < 19.6%)。若是比配息的話,又拉低配息率 (兩者稅後配息率都小於 1.5%,債券還有 4% 以上)。若是 NOBL、VIG 以股息再投入,複合成長大約 11.7%;這樣也沒多出色。所以我的調整應該是對的。

目前的資產配置如下圖,SGOV 占比太少,無法進位, 所以顯示為 0。

誰的貢獻大呢? 當然還是 QQQ。另外,美金、日幣在 2025 年都貶值 4% 左右。配息股的殖利率原本也就是 4% 附近,且股價比較牛皮,導致整體報酬大概就是 0%,甚至小幅虧損。這個是配息資產的匯率風險,次年我會設法改善。

基於 buy and hold、成長vs配息為 80:20 的大前提下,2026 的策略會是:

  • 逢高賣出 KO,明確區分投資類型。
  • 增加台灣本土的配息 ETF。
  • 增加全球或歐洲的市值型 ETF,例如 VT。

更長遠的布局是:美債到期就不續買,以籌措未來的財源。

最後還是複習一下累積的重要性。投資大盤指數型基金,不太容易讓你賺一倍以上,甚至偶而會腰斬,但是長期一定是值得等待的。2025 年是我邁入 60 歲的第一年,投資成績幸運地還不錯,比上不足比下有餘。這是全世界菁英的努力,加上我選擇的結果。當然也有可能未來有幾年大盤是倒退的,不過那也沒關係;最終還是將回歸到均值。穩穩地賺我就滿足了。

[REF]

  1. QQQ ETF Stock Price & Overview
  2. VT ETF Stock Price & Overview
  3. 發行量加權股價報酬指數 – TWSE 臺灣證券交易所

2025 年大事記

2025 年倒數 24 小時,除非老共突然登陸台灣,不然該發生的都發生了。這一年的重大里程碑如下。

  • 投資績效續創新高
    • 2025 年的總收益大約是 20 歲~49 歲這三十年的儲蓄總和。符合滾雪球理論。
    • 投資在成長和配息的比例約 80:20 (78.31% : 21.69%)。
    • 壓力測試 1: 爽爽過也可以撐過連續五年的暴跌 (-40.66%),跌到第六年才破產。
    • 壓力測試 2: 只動用股息的話 ,每年只花總投資的 (1-78.31%)*4%,AI 說安全。
    • 依據個人在 QQQ、SPY、0050、TOPIX 的權重試算如下。
總回報 (%)SPYQQQ0050.TW1475.TTotal / Avg
權重13.00%52.00%11.85%1.46%78.31%
Mean11.60%12.35%14.20%11.77%12.50%
Min-36.81%-41.73%-43.20%-16.01%-40.66%
Max38.07%54.85%74.96%35.12%54.74%
STD18.13%29.49%24.72%16.03%26.63%
統計自1994~2000~2004~2016~
  • 年度獲得專利數創新高
    • 國內專利通過 5 篇。
    • 大陸專利通過 1 篇。
    • 美國專利通過 2 篇。
    • 有效專利合計 31 篇。
    • 過期專利累積到 8 篇。
  • 讀的書很少
  • 原子習慣、人生的五種財富、持續買進、張忠謀自傳(下)、輝達之道
  • 但有行萬里路
  • 去了澳洲、日本、新加坡、義大利、希臘。
  • 獲得星空聯盟金卡一枚。
  • 理論基礎緩緩進步

  • 新的工作領域
  • 入門資料科學家 – 還帶新人 。
    • 學 Product management。
    • 滿有趣的是 – 我在公司這麼久了,以前都沒跟這兩個部門打過交道。
  • 未完成的志業
  • 甚多。在不自虐的前提下,明年打算做更多沒有做過的事。

LCEL 與 Agent

LCEL 全名 LangChain Expression Language, 是一種描述 LangChain 架構的語言。最大的特徵就是看到 A = B | C | D 這種表示法 – 說明了 LCEL 串接多個可執行單元的特性,是 LangChain 的進階實現。而 ‘|’ 的理解和 Linux 的 pipe 很像,它是非同步的串接。

舉例來說,一個 LLM 的 LangChain 可以表示為:

chain = prompt | LLM model | Output Parser

依序做好這三件事:有方向性的提示、強大的大語言模型、友善的輸出格式,就可以提升使用者體驗。

但是顯然這樣還不太夠,比方說,LLM 需要查一筆它沒被訓練過的資料,在上面的 pipe 就無法做到。換個例子,我想幫 AI 助理取個名字,它也會說好。但是一轉眼什麼山盟海誓都忘光了!

顯然,我們要有個負責的 agent,把 function call 的能力加進來;而且 call 完之後,還要餵給 LLM 做 “人性化" 的自然語言潤飾。這是一個循環的路徑,直到 AI 判斷它不再需要任何外部工具,就可以結束迴圈,跟使用者報告最終結果了。

那麼這個 code 長什麼樣子? 首先把基本元件準備好:

# 初始化模型
llm = ChatOpenAI(model="gpt-4o", temperature=0)

# 將工具打包成列表
tools = [get_current_weather] # 以問天氣的函式為例

# 給出配合 function 的 prompt
prompt = ChatPromptTemplate.from_messages(
    [
        ("system", "你是天氣助理,請根據工具的結果來回答問題。"),
        ("placeholder", "{chat_history}"),  # 預留給歷史訊息
        ("human", "{input}"), # 真正的輸入
        ("placeholder", "{agent_scratchpad}"), # 於思考和記錄中間步驟
    ]
)

創建 agent

# 創建 Tool Calling Agent
# 將 LLM、Prompt 和 Tools 組合起來,處理 Function Calling 的所有複雜流程
agent = create_tool_calling_agent(llm, tools, prompt)

執行 agent

# 創建執行器, 跑 模型思考 -> 呼叫工具 -> 再次思考 -> 輸出答案的循環
agent_executor = AgentExecutor(agent=agent, tools=tools, verbose=True)

設計人機介面

def run_langchain_example(user_prompt: str):
    print(f"👤 用戶提問: {user_prompt}")
    
    # 使用 invoke 運行 Agent,LangChain 會自動管理多輪 API 呼叫
    result = agent_executor.invoke({"input": user_prompt})
    
    print(f"🌟 最終答案: {result['output']}")

測試案例

# 示範一:Agent 判斷需要呼叫工具
run_langchain_example("請問新竹現在的天氣怎麼樣?請告訴我攝氏溫度。")

# 示範二:Agent 判斷不需要呼叫工具,直接回答
run_langchain_example("什麼是 LLM?請用中文簡短回答。")

這邊要留意的是,第一個問天氣的問題,LLM 顯然要用到 tool 去外面問,第二個問題不需要即時的資料,所以它自己回答就好。

意猶未盡的讀者可能好奇 function 長怎樣? 其實就很一般,主要的特色是用 @tool decorator。這樣可以獲得很多好處,最重要的一點是 agent 都認得它的 JSON 輸出,方便資料異步流動。

# LangChain 會自動將這個 Python 函數轉換成模型可理解的 JSON Schema
from langchain_core.tools import tool

@tool
def get_current_weather(location: str, unit: str = "celsius") -> str:
    if "新竹" in location or "hsinchu" in location.lower():
        return "風大啦! 新竹就是風大啦!"
    else:
        return f"我不知道 {location} 的天氣啦!"

另外,追根究柢的讀者可能想問,code 裡面怎麼沒看到 ‘|’? 它跑那裡去了? 沒錯,上面講的都是 agent,它比較進階,可以動態跑流程。反而 LCEL 只是 LangChain 的實行方式,它就是一個線性的 chain。

我們由奢返儉,回過頭來看 LCEL,它不能跟 agent 比,只能打敗傳統的 LangChain。標為紅色的是 LCEL 特色的 coding style。

def demonstrate_legacy_chain():
 
    # 定義模型
    llm = ChatOpenAI(temperature=0)
    
    # 定義 Prompt Template
    template = "Translate English text to Chinese: {text}"
    prompt = PromptTemplate(template=template, input_variables=["text"])
    
    # 建立 Chain (透過類別組合)
    # 缺點:語法較冗長,看不到資料流向,且 output 通常包含原始 meta data
    chain = LLMChain(llm=llm, prompt=prompt)
    
    # 執行
    input_text = "Make American Great Again!"
    result = chain.run(input_text)

VS

def demonstrate_lcel():
    
    # 定義模型
    model = ChatOpenAI(temperature=0)
    
    # 定義 Prompt Template, 使用更現代的 ChatPromptTemplate
    prompt = ChatPromptTemplate.from_template("Translate English text to Chinese: {text}")
    
    # 定義 Output Parser (將 AI Message 轉為純字串)
    output_parser = StrOutputParser()
    
    # 建立 Chain (使用 Pipe '|' 運算符)
    # 優點:Unix 風格管道,由左至右邏輯清晰,易於修改和擴展
    chain = prompt | model | output_parser
    
    # 執行
    input_text = "Make American Great Again!"
    result = chain.invoke({"text": input_text})

這兩個都是一次性的 Q&A。

  1. Functions, Tools and Agents with LangChain

超學習時代

最近的 Gemini 3 Pro 真的變比較聰明,所以我取消 Monica 的訂閱,改訂 Gemini。現在想要學習最新的技術,不但學校教不了;網路課程也教不了。就算是追著科技網紅,心裡沒有譜的話,也會像個無頭蒼蠅一樣、不會授粉只會傳播細菌,哈!

以 AI 技術來說,訓練模型、微調模型、RAG (檢索增強生成) 都是舊世代的技術。次世代的技術重點在於 Reasoning 和 Agency。雖然這個發展有跡可循、合情合理,但是沒有前面的跌跌撞撞,也絕不可能一步到位。短短一兩年之間,我們有了下面的這些進化。

[觀念改變]

一個 AI model 自己角色扮演 –> 建立認知架構:記憶、規畫、反思。

LangChain –> LangGraph, 線性思考 –> 非線性思考、圖論、立體化。

Funcation call –> Tool call。錯誤檢查和自我校正。

[模型調校]

Supervised Fine-Tuning、 RLHF (reinforcement learning from human feedback) –> DPO (Direct Preference Optimization)、IPO (Identity Preference Optimization)、KTO (Kahneman-Tversky Optimization)。

全能模型 –> SLERP (Spherical Linear Interpolation)、TIES-Merging。

自我對局 (Self-Play) 強化。

[In Model Learning]

Prompt –> DSPy (Declarative Self-improving Language Programs),透過 Compiler 自動尋找 Prompt 組合。

快問快答 –> Chain of Tought、Tree of Thought –> Test-Time Compute (有節制地想久一點,時間換取品質)

[模型評估]

BLEU、ROUGE 考試 –> LLM-as-a-Judge,自動評估

多元評價 – RAGAS

  • R:Retrieval(檢索)
  • A:Accuracy(準確性)
  • G:Generality(通用性)
  • A:Adherence(遵循性)
  • S:Stability(穩定性)

[多模態]

OCR + LLM –> 原生多模態 (Native Multimodel)、audio/video tokenization。

文字到文字 –> any-to-any interaction

上述有很多新的東西,也有一些半新半舊,我打算加強 Agentic、MCP 這方面的知識,然後快速進入 DSPy 的領域。

附帶一提,雖然退訂 Monica 可以省錢,但是我還不打算把 Coursera 停掉。因為上面還是有很多 Andrew Ng 開的短課程。愈長的課程愈容易過時、短課程甚至像  Andrej Karpathy 的 Youtube 都可能有一些最新的東西。至於 ArXiv 肯定好料滿滿,但是可能要叫 NoteLLM 幫我讀了。