3月14日,清華大學(xué)高性能計算研究所翟季冬教授團(tuán)隊與清華系科創(chuàng)企業(yè)清程極智聯(lián)合宣布,開源大模型推理引擎“赤兔Chitu”,該引擎首次實現(xiàn)在非英偉達(dá)Hopper架構(gòu)GPU及各類國產(chǎn)芯片上原生運(yùn)行FP8精度模型,為國產(chǎn)AI芯片的廣泛應(yīng)用和生態(tài)建設(shè)帶來了新的突破。清程極智CEO湯雄超表示,當(dāng)前國內(nèi)在推理引擎這一核心環(huán)節(jié),仍缺乏生產(chǎn)級開源產(chǎn)品。開源‘赤兔’引擎是助力國內(nèi)AI生態(tài)建設(shè)的重要一步。
據(jù)“工信微報”2月8日消息,中國移動、中國電信、中國聯(lián)通三家基礎(chǔ)電信企業(yè)均已全面接入DeepSeek開源大模型。工業(yè)和信息化部運(yùn)行監(jiān)測協(xié)調(diào)局介紹,2025年春節(jié)期間,基礎(chǔ)電信企業(yè)力推最新AI技術(shù)普惠應(yīng)用,三家基礎(chǔ)電信企業(yè)均已全面接入DeepSeek開源大模型,實現(xiàn)在多場景、多產(chǎn)品中應(yīng)用,針對熱門的DeepSeek-R1模型提供專屬算力方案和配套環(huán)境,助力國產(chǎn)大模型性能釋放。
5月28日消息,浪潮信息發(fā)布了“源2.0-M32” 開源大模型。該模型在源2.0系列大模型基礎(chǔ)上,采用了“基于注意力機(jī)制的門控網(wǎng)絡(luò)”技術(shù),構(gòu)建包含32個專家的混合專家模型(MoE),并大幅提升模型算力效率。M32憑借特別優(yōu)化設(shè)計的模型架構(gòu),在僅激活37億參數(shù)的情況下,取得了和700億參數(shù)LLaMA3相當(dāng)?shù)男阅芩?,所消耗算力僅為LLaMA3的1/19。
針對網(wǎng)傳華為發(fā)布會大模型生成圖片疑人工操控的消息,昇騰社區(qū)回應(yīng):5月10日,在鯤鵬昇騰開發(fā)者大會的一場技術(shù)討論上,演示了mxRAG SDK功能。本次演示面向開發(fā)者,展示如何通過十幾行代碼即可完成RAG應(yīng)用開發(fā)?,F(xiàn)場圖片為實時生成,調(diào)用的是開源大模型。代碼中有time.sleep(6)等表述,是命令等待讀取外部開源大模型實時生成的圖片,并非調(diào)取預(yù)置圖片。本次展示的均為真實代碼,也將在昇騰社區(qū)上開放,歡迎開發(fā)者使用并提出寶貴建議。
當(dāng)?shù)貢r間周四,美國科技巨頭Meta推出了其最強(qiáng)大的開源人工智能(AI)模型Llama 3,以追趕行業(yè)領(lǐng)導(dǎo)者OpenAI。 Meta首席執(zhí)行官扎克伯格聲稱,Llama 3有8B和70B兩個版本,大版本的Llama 3將有超過4000億參數(shù)。由于預(yù)訓(xùn)練和指令微調(diào),Llama 3相比Llama 2有了極大的改進(jìn)。
4月16日,百度AI開發(fā)者大會上,百度創(chuàng)始人、董事長兼首席執(zhí)行官李彥宏再次表達(dá)了他對大模型開閉源之爭的看法。李彥宏表示,因為有了文心4.0基礎(chǔ)模型,可以根據(jù)需要兼顧效果、響應(yīng)速度、推理成本等考慮裁減出適合各種場景的小尺寸模型。通過降維裁減出來的模型, 比直接拿開源模型調(diào)出來的模型,在同等尺寸下效果更好,在同等效果下成本明顯更低?!耙郧罢f開源便宜,其實在大模型領(lǐng)域,開源是最貴的。所以開源模型會越來越落后?!崩顝┖攴Q。