不管花言巧語如何,谷歌的開源GEMMA肯定是一件好事。 無論是感受到 Meta Mistral 的壓力,還是當初 2 月**動態激勵計畫開源計畫,Google 這次重新加入開源陣營,都會讓開源社群的生態更加繁榮,也可以站在道德制高點上,在一定程度上譴責 CloseAI,給 OpenAI 打眼藥。
之前談到 Meta 的 LLAMA 2 時,我分析了一下,一方面 Meta 團隊願意開源,樂村天吹開源,保證 AI 安全; 另一方面,主要是因為它處於落後的位置,而閉源產品無法擊敗它,所以最好開放它,這樣不僅可以得到社群的支援,還可以聚集大家的力量與openAI抗衡。 (像 Qianwen、Yi 和 GLM 這樣的國內開源工作都做得很好)。
這個gemma主要有2b和7b兩種尺寸,雖然不如駱駝那麼完整,但工具鏈比較完整,易於部署。 可惜的是,技術報告還是模仿了OpenAI的風格,說了點什麼,卻說不多。
公告的評價與LLAMA-2進行了對比,甚至顯示了7B可以對抗13B的姿態:
技術報告來回新增了Mistral-7B:
值得注意的是,有人指出,Mistral在這份技術報告中的得分仍然偏低,與之前的Qwen 15 公布時的資料彙總:
咱們說幾句個人意見:就目前而言,對普通國內使用者沒有直接影響。
這種開源主要是基礎模式,沒有聊天版,只有英文版,對於國內使用者和一般愛好者來說意義不大。 在這個階段,在相同尺寸下,在效能方面超越LLAMA-2 7B不再是一項成就。
公尺斯特拉爾已經大大超過了LLAMA-2,並且將比公尺斯特拉爾更客觀。 而被刷掉的SOTA就沒有那麼有意義了,它仍然取決於社群生態和大家的認可。 小型模型將進一步提高資料質量,今年將看到更多執行在裝置端的應用和模型。
谷歌之前曾表示要把這個模型安裝到手機裡執行,現在有越來越多的小模型可用,05b、1.8b、2b…相比之下,似乎Microsoft的phi-2效果更好,模型越小,資料質量越重要。 最後丟擲乙個**體驗的鏈結,畢竟是7b模型....如果過多地使用閉源商業模式,你會覺得7b效應相當差:
Stability AI 發布了 Stable Diffusion 3,提高了多主題提示的效能、影象質量和拼寫能力。 加入候補名單:
prompt:epic **artwork of a wizard atop a mountain at night casting a cosmic spell into the dark sky that says "stable diffusion 3" made out of colorful energy
Stable Diffusion 3 系列型號的範圍從 800m 到 8b,為使用者提供了多種可擴充套件性和質量選擇。 Stable Diffusion 3 將 Diffusion Transformer 架構 (DIT) 與 Flow Matching 相結合,並將在不久的將來以技術報告的形式發布。
負責任的 AI 安全措施貫穿於模型訓練、測試、評估和部署的整個過程中。 感覺有OpenAI這樣的鲶魚,國外的AI公司一直在不停地飛。 對於 Stability AI:2022 年 8 月 10 日 SD 10;
2022 年 12 月 1 日,SD 20 ;12 月 7 日,SD 21 ;
2023 年 4 月 13 日,SDXL 測試版; 6 月 22 日, SDXL 09;7 月 26 日,SDXL 10;
2023 年 11 月 21 日,SVD ** 生成模型; 11 月 28 日,SDXL Turbo;
2024 年 2 月 12 日,穩定級聯