IC 設計公司營收排名 2025

今天瞄了一下,只有凌陽和晶焱兩家公司還沒有交作業。股市觀測站只能看到 2025/11 的數據。 因此決定先出一個搶鮮版,先用這兩家前 11 個月成績來排行,等他們交作業後我再來調整。基本上只會進步,不會退步。

補充說明這一版的限制:

  1. 把非純 IC 設計公司從排名中拿掉了。
  2. 請 AI 幫我補上先前漏掉的幾家公司。
  3. SIMO、HIMX 營收仍然是用估計的。
  4. 2026/1/12 已更新凌陽和晶焱全年營收,排名不變。

觀察重點:

  1. 聯發科大到沒朋友。瑞昱領先聯詠的幅度更明顯了。這點說明產品面寬廣度即是護城河。
  2. 高速傳輸與介面的族群普遍成長,這個跟 AI 需求爆發有關,例如: 祥碩 (5269, +66%)、創惟 (6104, +27.6%)。
  3.  IP 矽智財與 ASIC 設計服務 (Design Service) 營收也很好。例如:智原 (3035, +62%)、愛普 (6531, +35%)、M31 (6643, +20%)、鉅有科技 (6933, +27%)。
  4. 原本排名在很後面的幾家公司營收也有暴衝的,主要是合併新公司或是認列子公司營收,像是矽統 (2363, 281.98%)、世紀民生 (5314, 412.17%)。合邦 (6103) 則是因為認證過了,所以營收增加 66%。
  5. 驅動面板相對是災區。例如:聯詠 (3034, -2%)、瑞鼎 (3592, -8%)、天鈺 (4961, -6.5%)、敦泰 (3545, -17%)。主因是現在沒有換機潮、DRAM 漲價更是扼殺電視、手機、筆電的成長。加上大陸對手的殺價,強如"滷肉"都受到了傷害。
  6. 消費性 MCU 與多媒體 IC 受到通膨的影響,終端購買力縮手。例如:凌通 (4952, -13%)、九齊 (6494, -11%)、松翰 (5471, -2.5%)。老牌的威盛 (2388) 獲得,衰退 40%,甚至變成衰退王。
  7. 世芯-KY 雖然獲得衰退亞軍,它的本業和產業領域都沒有問題,或許這和 Amazon 3 奈米大單有關。以我們這種小人物來說,有龍蝦可以吃就沒那個胃吃雞排了,可能是這樣導致攝取的總熱量下降了些。
排名公司名稱股號2025 預估營收 (千元)年增率 / 備註
1聯發科2454595,965,68212.32%
2瑞昱2379122,706,3728.21%
3聯詠3034100,663,144-2.07%
4創意344334,140,97836.32%
5慧榮SIMO32,450,000(估 304~345 億)
6奇景光電HIMX32,150,000(估 307~336 億)
7世芯-KY366129,540,344-37.80%
8瑞鼎359222,397,169-8.12%
9達發科技652620,926,1959.43%
10矽創801619,001,9326.59%
11矽力641518,823,0392.00%
12智原303517,992,80862.61%
13天鈺496117,974,301-6.50%
14譜瑞496616,524,7601.71%
15晶豪科300614,575,2728.08%
16祥碩526913,414,56366.00%
17義隆245812,326,352-2.91%
18敦泰354511,952,063-17.79%
19威盛23889,547,096-40.00%
20原相32279,127,0829.15%
21信驊52749,084,87540.64%
22致新80818,665,6775.00%
23茂達61387,483,68922.89%
24鉅有科技69336,986,78527.21%
25聯陽30146,946,9624.74%
26凌陽24016,303,139-2.04%
27愛普65315,643,54735.13%
28神盾64625,332,17211.31%
29力智67194,581,28523.89%
30昇佳電子67324,561,864-7.67%
31創惟61044,056,16027.60%
32鈺創53514,036,77916.23%
33偉詮24363,568,64015.32%
34力旺35293,849,0536.74%
35立積49683,761,6632.24%
36大中64353,401,49325.24%
37富鼎82613,104,1926.37%
38盛群62023,057,72222.23%
39安國80542,880,72531.46%
40矽統23632,821,137281.98%
41尼克森33172,706,4119.65%
42松翰54712,675,652-2.51%
43世紀民生53142,635,985412.17%
44晶焱6411 2,456,180-10.51%
45研通62292,152,23119.77%
46沛亨62912,128,86416.70%
47凌通49522,128,010-13.56%
48凌陽創新52361,999,74810.00%
49鈺太66791,965,689-7.01%
50晶相光35301,845,3436.60%
51M3166431,782,16920.34%
52倚強32191,703,17749.68%
53系微62311,689,5134.64%
54晶宏31411,614,1177.08%
55威鋒電子67561,550,110-8.83%
56杰力52991,483,423-12.32%
57晶心科65331,478,1877.00%
58點序64851,474,48916.84%
59聚積35271,448,880-19.18%
60廣閎科66931,413,76729.21%
61揚智30411,397,164-14.19%
62通嘉35881,348,683-7.24%
63九齊64941,187,325-11.74%
64宏觀65681,137,2886.74%
65芯鼎66951,125,64510.49%
66普誠61291,115,932-3.04%
67應廣67161,081,904-15.30%
68虹冠32571,055,31129.32%
69類比科34381,010,7864.92%
70禾瑞亞3556967,4681.24%
71來頡6799966,6656.56%
72亞信3169929,5669.02%
73海德威3268923,948-5.03%
74九暘8040661,1142.65%
75迅杰6243627,985-12.93%
76智微4925556,801-14.81%
77驊訊6237501,19111.69%
78旺玖6233387,503-7.12%
79笙科5272341,2872.86%
80笙泉3122324,174-11.10%
81安格6684317,007-15.36%
82金麗科3228308,986-27.25%
83鑫創3259281,87717.89%
84聯傑3094187,75613.20%
85凱鈺5468165,03336.88%
86通泰5487164,183-15.49%
87佑華微8024153,782-31.37%
88合邦610391,55466.84%
89點晶328864,096-6.89%
90太欣530219,43339.69%

以上報告。等我這週比較不忙再回來補充。

2025 年大事記

2025 年倒數 24 小時,除非老共突然登陸台灣,不然該發生的都發生了。這一年的重大里程碑如下。

  • 投資績效續創新高
    • 2025 年的總收益大約是 20 歲~49 歲這三十年的儲蓄總和。符合滾雪球理論。
    • 投資在成長和配息的比例約 80:20 (78.31% : 21.69%)。
    • 壓力測試 1: 爽爽過也可以撐過連續五年的暴跌 (-40.66%),跌到第六年才破產。
    • 壓力測試 2: 只動用股息的話 ,每年只花總投資的 (1-78.31%)*4%,AI 說安全。
    • 依據個人在 QQQ、SPY、0050、TOPIX 的權重試算如下。
總回報 (%)SPYQQQ0050.TW1475.TTotal / Avg
權重13.00%52.00%11.85%1.46%78.31%
Mean11.60%12.35%14.20%11.77%12.50%
Min-36.81%-41.73%-43.20%-16.01%-40.66%
Max38.07%54.85%74.96%35.12%54.74%
STD18.13%29.49%24.72%16.03%26.63%
統計自1994~2000~2004~2016~
  • 年度獲得專利數創新高
    • 國內專利通過 5 篇。
    • 大陸專利通過 1 篇。
    • 美國專利通過 2 篇。
    • 有效專利合計 31 篇。
    • 過期專利累積到 8 篇。
  • 讀的書很少
  • 原子習慣、人生的五種財富、持續買進、張忠謀自傳(下)、輝達之道
  • 但有行萬里路
  • 去了澳洲、日本、新加坡、義大利、希臘。
  • 獲得星空聯盟金卡一枚。
  • 理論基礎緩緩進步

  • 新的工作領域
  • 入門資料科學家 – 還帶新人 。
    • 學 Product management。
    • 滿有趣的是 – 我在公司這麼久了,以前都沒跟這兩個部門打過交道。
  • 未完成的志業
  • 甚多。在不自虐的前提下,明年打算做更多沒有做過的事。

超學習時代

最近的 Gemini 3 Pro 真的變比較聰明,所以我取消 Monica 的訂閱,改訂 Gemini。現在想要學習最新的技術,不但學校教不了;網路課程也教不了。就算是追著科技網紅,心裡沒有譜的話,也會像個無頭蒼蠅一樣、不會授粉只會傳播細菌,哈!

以 AI 技術來說,訓練模型、微調模型、RAG (檢索增強生成) 都是舊世代的技術。次世代的技術重點在於 Reasoning 和 Agency。雖然這個發展有跡可循、合情合理,但是沒有前面的跌跌撞撞,也絕不可能一步到位。短短一兩年之間,我們有了下面的這些進化。

[觀念改變]

一個 AI model 自己角色扮演 –> 建立認知架構:記憶、規畫、反思。

LangChain –> LangGraph, 線性思考 –> 非線性思考、圖論、立體化。

Funcation call –> Tool call。錯誤檢查和自我校正。

[模型調校]

Supervised Fine-Tuning、 RLHF (reinforcement learning from human feedback) –> DPO (Direct Preference Optimization)、IPO (Identity Preference Optimization)、KTO (Kahneman-Tversky Optimization)。

全能模型 –> SLERP (Spherical Linear Interpolation)、TIES-Merging。

自我對局 (Self-Play) 強化。

[In Model Learning]

Prompt –> DSPy (Declarative Self-improving Language Programs),透過 Compiler 自動尋找 Prompt 組合。

快問快答 –> Chain of Tought、Tree of Thought –> Test-Time Compute (有節制地想久一點,時間換取品質)

[模型評估]

BLEU、ROUGE 考試 –> LLM-as-a-Judge,自動評估

多元評價 – RAGAS

  • R:Retrieval(檢索)
  • A:Accuracy(準確性)
  • G:Generality(通用性)
  • A:Adherence(遵循性)
  • S:Stability(穩定性)

[多模態]

OCR + LLM –> 原生多模態 (Native Multimodel)、audio/video tokenization。

文字到文字 –> any-to-any interaction

上述有很多新的東西,也有一些半新半舊,我打算加強 Agentic、MCP 這方面的知識,然後快速進入 DSPy 的領域。

附帶一提,雖然退訂 Monica 可以省錢,但是我還不打算把 Coursera 停掉。因為上面還是有很多 Andrew Ng 開的短課程。愈長的課程愈容易過時、短課程甚至像  Andrej Karpathy 的 Youtube 都可能有一些最新的東西。至於 ArXiv 肯定好料滿滿,但是可能要叫 NoteLLM 幫我讀了。

RAG with FAISS

RAG (Retrieval-Augmented Generation) 大家應該都知道了。至於 FAISS 是 Facebook AI Research(FAIR)開發的技術,主要用途是對海量高維度的資料作出相似度的比較。由於我是第一次看到 RAG 和 FAISS (Facebook AI Similarity Search) 一起用,所以做個筆記。

基本上 RAG 的知識庫可能是一本書、一本使用手冊、一堆 Facebook 的用戶資料等等。它們先分為不同的小段落,然後 tokenize,每個段落再 encode 為一個向量。同理,對使用者提問也做同樣的事,但此處理解為只產生一個向量。

由於知識庫的向量筆數很多, FAISS 為他們製作 Index。提問的向量用 FAISS 的函數中找出最接近的幾筆最相關的向量,再根據 index 反查出 text 原文。然後把 text 和使用者提問合在一起去問 LLM。

對 LLM 來說,它可以有自己的 tokenizer。總之,RAG 已經功成身退了。

假如不用 FAISS,純靠 Pytorch 的話,那麼要自己用 dot product 去比較相似性。因為每個 word 就可能對應到一個高維的 token,所以每個 pragraph 的向量就是所有組成 pragraph 的 word 的向量的平均值。

最後補充 DPR (Dense Passage Retriever)。顯然,它對於 question 和 context (passage) 用了兩套函數 – 所謂 dual encoder [1]。我們可以想像,對於 question 的編碼應該要力求精準,但是對於參考文件這部分,如果是一本百科全書、或是整個資料庫,那編碼時主要是求快!所以兩邊的編碼方式不太一樣、甚至 tokenizer 不太一樣 (但是相容) 應該也是合理的。

[REF]

  1. https://blog.csdn.net/qq_45668004/article/details/138256448

Adjusted R-Squared 小整理

Adjusted R2 是 R2 的進階版, 它考慮了模型中變數 (預測因子) 的數量, 懲罰那些濫竽充數的變數, 在多變量回歸 (multiple regression ) 中達到去蕪存菁的效果.

聽起來相當美好.  但我們怎麼知道何時需要它? 要是我們的 model 已經是最好了, 再調整它是否浪費時間? 我們可以先看 R2 的破綻在哪裡?

R2 = 1 – SSR/SST

若 SSR/SST < 1, 表示這是個真分數. 當我新增一個因子, 表現得和平均 (猜的期望值) 一樣好, 真分數 (分子分母加同樣數字) 愈加愈大, R 會愈來愈小. 所以加到沒用的因子, R 會變差 (Adjusted R 變差). 反過來, 如果我們是要減少變數, 也可以預測減掉一個變數是否有感?

Adjusted R² = 1 – [(1 – R²) * (n – 1) / (n – k – 1)]

  • 如果加入的變數有貢獻 (提高解釋力), Adjusted R² 會上升.
  • 如果加入的變數無貢獻 (p-value 高, 不顯著), Adjusted R² 會下降或持平.

基本上, k 如果增加一個變數, 但它對 R2 又無額外貢獻, 分母的 (n – k – 1) 變小, … 以小學程度的數學可知 Adjusted R² 變小.

順便偷渡一下 n. n -> ∞, (n – 1) / (n – k – 1) -> 1, Adjusted R² 越接近 R² (增加變數的懲罰很小). n 越小, 分母越小, 懲罰項越大, 讓 Adjusted R² 更容易小於 R², 這能更敏感地偵測冗餘變數 (overfitting). 但因為它效力強到難以分辨 feature 好壞, 所以一般不調整 n, 只調整 k.

舉例而言, 現在要估計房價模型. 變數有坪數、屋齡、噪音 (亂數) 三個, k = 3. 統計樣本 n = 100 個. 為了說明方便, 我們先在 Python 固定亂數種子. 做出一堆可以收斂的假資料.

import statsmodels.api as sm
import pandas as pd
import numpy as np

# 步驟 1: 固定亂數種子與資料(同之前)
np.random.seed(0)
n = 100
X = pd.DataFrame({
    '坪數': np.random.uniform(20, 200, n),
    '屋齡': np.random.uniform(1, 50, n),
    '噪音': np.random.normal(0, 1, n)
})
y = 5000 * X['坪數'] - 2000 * X['屋齡'] + np.random.normal(0, 10000, n)  # real y

安裝 library ( pip install statsmodels) 後, 很多東西都不用算. 包括 OLS (Ordinary Least Squares) model 都會建好. 因為太方便了, 所以定義一個會印出過程的 function.

# 函數:計算 R²/adj_r2、係數和 p-value
def compute_and_compare(model_vars, model_name):
    X_sub = sm.add_constant(X[model_vars])  # 加常數項
    model = sm.OLS(y, X_sub).fit()          # 擬合 OLS 模型
    
    # 計算 R² 和 adj_r2
    r2 = model.rsquared
    adj_r2 = model.rsquared_adj
    print(f"\n{model_name} (變數: {model_vars}):")
    print(f"  R² = {r2:.4f}")
    print(f"  Adjusted R² = {adj_r2:.4f}")
    
    # 得到估計係數
    params = model.params
    print("  估計係數(params):")
    for var in params.index:
        print(f"    {var}: {params[var]:.2f}")
    
    # 得到每個變數的 p-value
    pvalues = model.pvalues
    print("  每個變數的 p-value(顯著性檢定):")
    for var in pvalues.index:
        print(f"    {var}: {pvalues[var]:.4f} (顯著: {pvalues[var] < 0.05})")
    
    print()  # 空行分隔

讓 3 個變數的 model A 跑一下, 然後讓除掉噪音 (random noise, 不是房子旁邊有噪音), 用只有 2 個變數的 model B 跑一下.

# 步驟 2: 計算模型 A (有噪音)
compute_and_compare(['坪數', '屋齡', '噪音'], "模型 A (有噪音)")

# 步驟 3: 計算模型 B (無噪音)
compute_and_compare(['坪數', '屋齡'], "模型 B (無噪音)")

執行上面程式, 會印出:

模型 A (有噪音) (變數: ['坪數', '屋齡', '噪音']):
  R² = 0.9745
  Adjusted R² = 0.9736
  估計係數(params):
    const: -949.47
    坪數: 4995.64
    屋齡: -2003.71
    噪音: 42.60
  每個變數的 p-value(顯著性檢定):
    const: 0.9644 (顯著: False)
    坪數: 0.0000 (顯著: True)
    屋齡: 0.0000 (顯著: True)
    噪音: 0.9655 (顯著: False)


模型 B (無噪音) (變數: ['坪數', '屋齡']):
  R² = 0.9744
  Adjusted R² = 0.9737
  估計係數(params):
    const: -947.35
    坪數: 4995.64
    屋齡: -2003.72
  每個變數的 p-value(顯著性檢定):
    const: 0.9623 (顯著: False)
    坪數: 0.0000 (顯著: True)
    屋齡: 0.0000 (顯著: True)

我們先關心 Model A 的 R² = 0.9745 > Adjusted R² = 0.9736, 或曰 Adjusted R² < , 這個訊號是提示我們的 model 可能有冗餘的變數存在! 調一調會更好! 至於誰是老鼠屎? 這時還看不出來.

但我們也印出了 p-value, 噪音的 p-value = 0.9655 很不顯著, 所以就抓它了! 在 Model B, 我們只用兩個變數.

此時 R² = 0.9744 > Adjusted R² = 0.9737 仍然成立, 或曰 Adjusted R² < 就是成立, 那這個時候戰犯要抓誰呢?

const 這個 p-value 值雖然大了點, 但是通常不會是標的. 而且坪數和屋齡的 p-value 都為 0 了, 表示極為顯著! 基本上就沒得挑了. 這也告訴我們指標並非絕對的, 要綜合起來使用.

Model B 的 R² 雖然輸給 Model A (0.9744 < 0.9745), 但我們本來就是抓 overfitting (模型在訓練資料上表現好, 但在未見過的資料上表現差), 所以不會太在意這裡掉了一點. 反而是看 Adjusted R² 從 0.9736 升到 0.9737, 還拔掉一個 p-value 很大的變數, 故改用 model B 是值得肯定的方向.