OpenAI 最近宣布,ChatGPT 的語音功能現在可供所有免費使用者使用。 這意味著您無需支付任何費用,您可以與 ChatGPT 進行自然對話,體驗與真人互動的魔力。
當該應用程式在 Google Play 商店中更新時,您會在“事件和訂單”部分看到更新,其中說:“現在您可以通過語音自然地與 ChatGPT 互動,無論是在旅途中閒聊、給家人讀睡前故事,還是在晚餐時解決爭論,ChatGPT 都能滿足您的需求。 只需 ** ChatGPT 應用程式並點選耳機圖示即可開始對話!雖然 Apple 的 App Store 尚未發布任何公告,但該功能已經在 iOS 應用程式中可用。
12月21日,醫渡科技自主研發的醫療垂直領域模型正式發布,這是國內首個面向醫療垂直領域多場景的專業大語言模型,為C端提供專業的醫療級個性化服務,助力提公升B端醫療、教學、科研、管理等場景的質量和效率。
目前,醫度技術模型在分指導、基礎醫學、全科醫學等多個醫療明確任務場景下的評價表現超過GPT35.已在許多頭部醫院得到應用。 同日,醫渡科技與華為簽署深化合作協議,共同推出智慧醫療解決方案,推動醫療健康產業智慧型化轉型。
當地時間12月20日,普利茲獎得主泰勒·布蘭奇(Taylor Blanche)、史黛西·希夫(Stacy Schiff)等11位非**美國作家在紐約曼哈頓聯邦法院起訴美國人工智慧公司“開放人工智慧研究中心”(OpenAI)和Microsoft,指控他們濫用作品訓練chatgpt。
作者告訴法庭,OpenAI 未經許可從網際網絡上批量複製他們的作品並將其包含在 ChatGPT 的訓練資料中,侵犯了他們作品的版權。 他們還表示,由於Microsoft“深度參與”了人工智慧模型的訓練和開發,因此也應該承擔侵權責任。 作者向法院提出了未指明金額的損害賠償要求,並要求法院命令這些公司停止並停止侵犯版權。
Meta 近日發布了一系列 AI 翻譯模型,實現了不超過 2 秒的實時語音轉換延遲,支援多種語言翻譯,並具備模仿語氣、語速、情感等特性的能力。 這一系列模型稱為 Seamless Communication,包括 SeamlessExpressive、SeamlessStreaming、SeamlessM4T v2 和 Seamless,其中前三個已在 GitHub 上開源。
為確保翻譯準確性並避免濫用,Meta 採用毒性緩解技術,在訓練前過濾掉“有毒內容”,並在翻譯生成過程中自動檢測和調整生成的有毒單詞,同時為音訊新增水印以進行跟蹤**。 為了防止濫用的風險,Meta 還在音訊中新增了水印,通過在音訊中嵌入難以察覺的訊號,您可以準確跟蹤音訊並對抗各種攻擊媒介。
天眼查APP顯示,近日,理想汽車旗下北京車合佳資訊科技有限公司再次申請註冊“Li-AI”商標在科學儀器類,目前狀態也在等待實質審查。 據悉,去年9月,該公司為科學儀器和服務申請了“Li-AI”商標,不久前,上述兩個商標被駁回。
據報道,最近的 Gemini-Pro 評測顯示,在多模態領域取得了重大進展,與 GPT-4V 相當,並在某些方面優於 GPT-4V。 首先,在多模態專有基準MME的綜合性能中,Gemini-Pro在2024年問世4分的高分超過GPT-4V,在感知和認知方面展現出全方位優勢。
其次,在37項視覺理解任務中,Gemini-Pro在文字翻譯、顏色地標字元識別、OCR等任務中表現出色,而GPT-4V在名人識別任務上得分為0。 在高階認知、具有挑戰性的視覺任務和各種專家能力方面,Gemini-Pro表現出很強的視覺感知和理解能力,但在位置識別任務上表現不佳。
12月20日,統信軟體正式發布統信UOS AI V1版本1,並與多家大型模型合作夥伴簽訂了“燈塔專案”。 根據官方介紹,UOS AI V10 實現大模型統一管理,完成5個主流大模型的適配,成功對接本地模型。 此外,瀏覽器、全域性搜尋、郵箱、登出等應用均與UOS AI全面對接,實現應用體驗的智慧型化公升級。
uos ai v1.版本1帶來了全新公升級的桌面智慧型助手,支援自然語言互動,覆蓋開啟應用、設定系統功能、建立排程等40+場景,支援知識答疑、內容創作等。 同時,UOS AI v11、還支援雲端和端端模型接入,**接入國內外主流大模型,包括千帆、訊飛星火、智普、360智腦等;裝置側對接文生圖、語音、自然語言搜尋、處理、分類等區域性模型。
12月21日,智源教育學院宣布發布擁有370億個引數的多模態大型模型EMU2。
據介紹,EMU2在小樣本多模態理解任務中大幅超越Flamingo-80B、IDEFICS-80B等主流多模態預訓練大模型,在VQ**2、OKVQA、MSVD、MM-Vet、Touchstone等多項少樣本理解、視覺問答、主體驅動影象生成任務中均取得最佳表現。
EMU2 具有強大的多模態上下文學習能力,甚至可以解決需要即時推理的任務,例如視覺提示和基於物件的生成。 基於 EMU2 微調的 EMU2-Chat 可以準確理解**指令,從而更好地感知資訊、理解意圖和制定決策。 EMU2-Gen 可以接受影象、文字和交錯位置序列作為輸入,以實現靈活、可控、高質量的影象和**生成。 研究團隊還表示,EMU2可以作為各種多模態任務的基礎模型和通用介面。