AI大模型的熱潮進一步加速了智慧型算力的稀缺,在此背景下,如何找到更高效的算力解決方案成為眾多銀行的難題。 銀行智慧型算力不足的根本原因是什麼?一些地方內建的“算力池”和已經實現的AI代理,能否為大銀行模型提供“底層算力支撐”?
今年以來,越來越多的國內銀行積極擁抱大規模模型技術,並在眾多金融場景中廣泛應用。 同時,算力瓶頸正成為大模型技術布局的一大挑戰。
算力的基礎是先進的AI晶元。 然而,由於美國對先進AI晶元(包括GPU晶元)出口中國的限制,國內銀行在開發大型金融模型時普遍遇到算力瓶頸。 某股份制銀行IT部門負責人表示。
據了解,為了解決算力瓶頸的挑戰,不少銀行都大顯身手。
具體來說,大型銀行只是簡單地建立自己的算力,雖然這種方式的成本相當昂貴,但好處是銀行具有高度的自主性和安全性,還可以根據自己的業務需求開發大型金融模型。
中小銀行一直在試水算力混合部署,即在公有雲的基礎上,先呼叫大型網際網絡企業或電信裝置服務商的大模型計算服務介面,然後通過私有化部署對自身資料的大模型進行預訓練。
目前,中小銀行已經形成了相對成熟的雲+算力服務解決方案,主要引入大型網際網絡企業和電信裝置服務商的計算資源,解決前者對大模型資料的預訓練和優化。 某中小銀行資訊科技部主任介紹。
為各種規模的銀行提供差異化解決方案。
調查發現,目前具備自建算力能力的主要是大型國有銀行和部分股份制銀行。
究其原因,這些銀行儲備了一定數量的先進AI晶元,廣泛用於自身金融大模型資料的預訓練。
考慮到單個先進的AI晶元**相當昂貴,保留一定數量的晶元將是一筆不小的開支,只有大型銀行和一些股份制銀行才能負擔得起。 上述中小銀行資訊科技部負責人表示。
相應地,大型銀行在開發自己的金融模型方面取得了更快的進展。
據某大型銀行IT部門人士透露,他們建立了異構GPU算力資源池,實現了基於雲服務部署的算力靈活排程。
這使我們能夠快速構建基礎模型、金融行業模型和基於計算演算法的場景模型。 IT人員直言不諱地說。 目前,這些大模型已廣泛應用於智慧型客服、文字生成、輔助研發、智慧型投顧、智慧型採集、大資料風控等場景。
上述IT人士坦言,由於美國限制對華出口先進AI晶元的影響,加上銀行內部金融模式迭代的加速,他們也發現自己的GPU晶元正在被快速“消耗”。 因此,他們也嘗試與一些大型網際網絡公司開展算力合作,如共同建設算力集群、算力網路儲存等底層基礎設施,進一步利用外部算力資源進行金融大模型的優化迭代。
相比之下,絕大多數中小銀行基本採用算力租賃或算力混合部署的方式,解決自身研發大模型技術的算力瓶頸。
目前,我們主要通過租賃大型網際網絡企業的計算資源(即通過雲部署呼叫後者的算力)來開展銀行內部資料大模型的預訓練,但這種算力投入每年仍達數百萬元。 上述中小銀行資訊科技部負責人表示。
據中小銀行資訊科技部負責人介紹,為了盡可能降低算力成本,他們正在考慮開發輕量級大模型,即在第三方金融科技平台開發的大模型產品的基礎上,對場景進行優化適配, 然後結合銀行內部資料的預訓練結果,開發出適合特定任務或特定場景的大模型,既能有效減少資料預訓練的工作量和算力投入,又能節省大模型研發中的大量“重複性工作”。
調查發現,為了進一步節約算力投入,部分中小銀行還採用“大模型+小模型”的方式,推動大模型技術在金融場景中的應用。 具體來說,首先是大模型起到了任務分解和排程的作用,通過大模型對小模型的排程,可以實現更智慧型的工作,減少海量資料預訓練帶來的算力投入二是通過大模型對特徵向量進行賦能,可以替代小模型所需的特徵工程工作,也可以減少大量的算力投入。
在很多銀行家看來,雖然很多銀行已經採取了很多措施來解決算力瓶頸,但在金融大模型迭代加快、大模型技術快速發展的趨勢下,真正解決算力瓶頸的最好辦法是積極擁抱國產AI晶元。
目前,一些銀行已嘗試引入國產GPU晶元作為新的計算資源支援,用於其進一步研發金融模型。
然而,由於美國國產GPU晶元和先進的AI晶元在技術路線和軟體生態上存在差異,以及國產GPU晶元仍在進一步提公升計算效能,國產GPU晶元要適應現有的金融模型研發技術架構,仍需要一定的工作量和時間。
在第乙個算力池中試水。
為了解決行業內眾多企業開發大模型的算力瓶頸,近期不少地方都在積極建設“算力池”。
這也引起了多家銀行的濃厚興趣。
如果我們能夠通過本地算力池解決資料預訓練的問題,可能會加快我們金融大模型的迭代公升級過程,讓大模型技術更好地應用於更多的金融場景。 上述中小銀行資訊科技部負責人表示。
但他很快發現,最大的挑戰是如何“防止資料傳播”。
過去,當他們與大型網際網絡公司合作進行算力租賃時,後者將大模型資料預訓練所需的計算資源部署在中小銀行,這樣銀行在使用本地部署的計算資源進行海量資料預訓練時,就沒有了“資料出行”的麻煩。 如今,如何在“資料不流動”的情況下引入本地算力池的算力資源,他們目前正在研究合規運營方案的可行性。
有來自IT部門的中小銀行建議,相關金融監管部門不妨為銀行等金融機構建立算力池,供不同規模的銀行進行金融大模型資料的預訓練,這樣不僅可以解決很多銀行普遍遇到的“算力瓶頸”, 同時也最小化了大模型技術帶來的銀行間金融服務“差距”。然而,誰來資助算力的購買或租賃,如何分配算力,如何構建匹配不同銀行轉賬介面的底層基礎設施,都面臨著一定的現實挑戰。
AIagent已經初具規模。
臨近年底,AI行業再次提供了“王者炸彈”。
近日,在首屆OpenAI開發者大會上,OpenAI發布了AIAGENT GPTS的初始形態,並推出了相應的生產工具GPTbuilder。 使用者只需與 GPTbuilder 聊天並描述所需的 GPT 功能,即可生成自己的 GPT。
對此,某城商行IT部門負責人透露,他們也注意到AIAGENT業務日趨火爆,該行高層也認為AIAGENT大模型技術在很多金融場景中都能發揮出更加智慧型化的服務效果,但由於算力的瓶頸, 他們不太可能對這種尖端的大模型技術進行探索性研究。
AIagent,又稱AI agent,與LLM屬於兩個完全不同的概念,LLM本質上是一種大型語言模型,包括GPT、GLM等基於自然語言處理和海量引數的生成式預訓練大型模型,但AIAGENT側重於AI與環境的互動,並根據當前環境的特點, 人工智慧自主決策和採取行動。
在某種程度上,LLM 是 AI 代理的關鍵環節。 但是,目前aiagent還不成熟,存在很多錯誤和問題。 但是,可以預見的是,如果AIAGENT技術成熟並形成各種實際應用,可以幫助金融機構更高效、更低成本地使用AI技術。
多家中小銀行直言,隨著AIAGENT技術的日益成熟和資料加密檢索技術的不斷進步,未來可能會引入AIAGENT大模型技術,並嘗試將其應用到更多的金融場景中,因為AIAGENT確實可以在智慧型服務、降本增效方面發揮更強大的作用。 然而,這項工作能否開展的乙個主要前提是,銀行能否構建獨立、安全、穩定、強大的計算資源,以支援AIAGENT等前沿大模型技術的研發和應用。 陳志.
*:城市財經新聞。