看懂AI發展3大定律!從砸大錢到蒸餾學習 要變更強大仍得做這件事 【記者呂承哲/台北報導】隨著中國AI新創公司DeepSeek問世,AI發展來到新階段,輝達(NVIDIA)執行長黃仁勳在CES主題演講提及AI發展的3種縮放定律(Scaling Laws):預訓練擴展(pretraining scaling)、訓練後擴展(post-training scaling)與測試階段擴展(test-time scaling,又稱長思考long thinking),這些方式推動了AI在日益複雜的應用領域中不斷進化,不過,如同輝達所強調,最終要讓AI模型更強大,仍需要購買足夠的AI晶片才行。
閱讀全文