據最新報道,Facewall Intelligence推出了最新旗艦端AI大模型MINICPM-2B,引數規模達20億,精選資料1TB用於訓練。 在多個主流評測列表中,MINICPM-2B的中英文平均成績均超過開源MISTRAL-7B。 此舉引發了業界對小型車型的關注和討論。
事實上,AI行業對小模型的定義並不統一。 有人認為只有幾十億個引數的模型應該叫“小模型”,而另一些人則認為,1-30億個引數的模型更適合叫輕量級大模型或嵌入式大模型。 目前主流開源模型大多有70億和130億個引數,而Meta發布的Llama 2系列模型最大引數數只有700億。
在AI模型之外尋找一條新路,或許是Microsoft在AI時代掌控自己命運的最佳選擇。 對於那些沒有條件“依賴”OpenAI大模型的公司來說,Microsoft的做法似乎是乙個啟示——在業界普遍關注超大規模引數數量的時候,反其道而行之的“小模型”似乎正在成為All in AI大模型的“退路”。
“小模型”的優點是節省資源、電力、金錢和時間。 與引數尺度大的LLM相比,“小”模型最大的優點是更“經濟”,不僅省電、省錢,還省時。 而這個“省”的特點,也注定會讓小尺寸的車型更容易落地,更容易賺錢。
此外,金融行業對輕量化大模型的態度非常積極。 出於安全和私隱方面的考慮,金融行業無法接受基於公有雲的大模型,有些場景需要私有雲,而另一些場景則需要AI在離線裝置上執行。 因此,具有本地化部署能力的輕量級大模型更受金融行業的青睞。
汽車也是AI模型的重要落地場景。 隨著新能源汽車的快速發展,車機系統有機會變得像手機一樣無所不能。 這也導致不少手機廠商轉型到汽車製造,以期通過手機的產品思維跨境搶占新的終端市場。 但是,主流的基於雲服務的大型車型,如果要上車,難免會受到網路環境的限制。 因此,在很多大型AI模型“上車”的場景下,離線執行的能力顯得尤為重要。 這也為輕量化車型在車載系統方面提供了大量機會。
金融圖書館網綜合編輯)。
kecai.co