中國超300個大模型,僅有4成完成備案
2024-05-19 13:00
小號
默認
大號
截至今年4月底,,國內(nèi)共計推出了305個大模型。而截至5月16日,,只有約140個大模型完成生成式人工智能服務備案,,占發(fā)布總量的45.9%。這一嚴峻現(xiàn)實的背后除了有技術(shù)層面的難度,,還有訓練和推理過程中高昂算力成本的制約,;即便是跨過這一關(guān),大模型企業(yè)如何實現(xiàn)商業(yè)化,依然著面臨不小的難度,。 | 相關(guān)閱讀(每日經(jīng)濟新聞)
51

六和璧
現(xiàn)在國產(chǎn)大模型“百家爭鳴”的熱鬧氛圍讓我想起了團購網(wǎng)站“千團大戰(zhàn)”的時候,互聯(lián)網(wǎng)贏家通吃的現(xiàn)實催促著所有人全力沖刺,。
國內(nèi)很多公司開發(fā)的大模型都在拿GPT3.5或者4對標,,宣稱在某些方面“不落下風”,有的號稱在參數(shù)更少的情況下性能相當,,有的甚至宣稱“全面領(lǐng)先”,。這些模型是如何實現(xiàn)這些所謂的領(lǐng)先呢?
簡而言之,,這多半是過擬合現(xiàn)象導致的,。所謂過擬合,是機器學習和統(tǒng)計建模中的一個常見問題,,簡單來說,,就是在測試中表現(xiàn)出色,而在實際應用中卻不盡如人意,。
因此,,在評估大模型能力時,我們不應過分關(guān)注這些測試集的得分,。實際上,,過度擬合在生活中的例子比比皆是,如大學排名的刷分,、自媒體的刷流量等,。真正優(yōu)秀的模型應當是在公開市場競爭中,人們愿意為其支付額外費用的模型,。其他任何補充說明都是多余的,。
大浪淘沙,接下來的大模型“淘汰賽”正在進行中,,“鹿死誰手”,,還得看核心本事。