4月30日消息,OpenAI首席執(zhí)行官山姆·奧特曼在社交平臺(tái)表示,昨晚開始回滾GPT-4o的最新更新,現(xiàn)在免費(fèi)版的回滾已100%完成,付費(fèi)版完成后會(huì)再次進(jìn)行更新,預(yù)計(jì)晚些時(shí)候?qū)δP蛡€(gè)性進(jìn)行額外的修復(fù),并將在未來幾天分享更多信息。此前,奧特曼發(fā)文稱,“GPT-4o的最近幾次更新使其個(gè)性變得過于諂媚和煩人(盡管其中也有一些非常好的部分),我們正在盡快修復(fù)?!?
當(dāng)?shù)貢r(shí)間4月25日,OpenAI首席執(zhí)行官山姆·奧特曼在社交媒體上表示,已經(jīng)升級(jí)了GPT-4o模型,目前在智能和個(gè)性兩方面都有所提升。
當(dāng)?shù)貢r(shí)間3月25日,美國開放人工智能研究中心(OpenAI)宣布推出4o圖像生成功能,“將迄今最先進(jìn)的圖像生成器集成至GPT-4o”。即日起,所有Plus、Pro、Team及免費(fèi)用戶將陸續(xù)在ChatGPT和Sora中體驗(yàn)該功能,企業(yè)版與教育版即將接入,Sora平臺(tái)同步啟用。開發(fā)者即將通過API調(diào)用GPT-4o圖像生成功能,接口權(quán)限將于未來數(shù)周內(nèi)開放。據(jù)介紹,GPT-4o圖像生成功能可精準(zhǔn)文本渲染、嚴(yán)格遵循指令提示、深度調(diào)用4o知識(shí)庫及對(duì)話上下文——包括對(duì)上傳圖像進(jìn)行二次創(chuàng)作或?qū)⑵滢D(zhuǎn)化為視覺靈感。
北京時(shí)間3月18日早間,OpenAI發(fā)布事故報(bào)告更新稱,GPT-4o大多數(shù)用戶的API問題已解決,仍在持續(xù)關(guān)注剩余少量客戶的情況。數(shù)日前,OpenAI發(fā)布報(bào)告指出,用戶可能通過API使用GPT-4o時(shí)遭遇響應(yīng)性能下降問題。
北京時(shí)間1月20日11時(shí)54分,OpenAI發(fā)布事故報(bào)告指出,當(dāng)前遭遇GPT-4o和4o-mini模型性能下降問題,目前正在進(jìn)行調(diào)查,并將盡快發(fā)布最新消息。
1月9日消息,今天凌晨,微軟研究院開源了目前最強(qiáng)小參數(shù)模型——phi-4。去年12月12日,微軟首次展示了phi-4,參數(shù)只有140億性能卻極強(qiáng),在GPQA研究生水平、MATH數(shù)學(xué)基準(zhǔn)測(cè)試中,超過了OpenAI的GPT-4o,也超過了同類頂級(jí)開源模型Qwen 2.5 -14B和Llama-3.3-70B。在美國數(shù)學(xué)競(jìng)賽AMC的測(cè)試中phi-4更是達(dá)到了91.8分,超過了Gemini Pro 1.5、GPT-4o、Claude 3.5 Sonnet、Qwen 2.5等知名開閉源模型,甚至整體性能可以與4050億參數(shù)的Llama-3.1媲美。
12月31日,山姆·奧特曼公布了2025年OpenAI即將發(fā)布的技術(shù)產(chǎn)品,包括通用人工智能AGI、智能體更好的GPT-4o升級(jí)版、更好的記憶存儲(chǔ)、更好的上下文窗口成人模式、深度研究特色功能更好的Sora更好的個(gè)性化定制等。
近日,李飛飛團(tuán)隊(duì)提出了關(guān)系關(guān)鍵點(diǎn)約束(ReKep/Relational Keypoint Constraints)。簡單來說,該方法就是將任務(wù)表示成一個(gè)關(guān)系關(guān)鍵點(diǎn)序列。并且,這套框架還能很好地與 GPT-4o 等多模態(tài)大模型很好地整合。從演示視頻來看,這種方法的表現(xiàn)相當(dāng)不錯(cuò)。該團(tuán)隊(duì)也已發(fā)布相關(guān)代碼。李飛飛表示,該工作展示了視覺與機(jī)器人學(xué)習(xí)的更深層次融合。雖然論文中沒有提及李飛飛在今年 5 年初創(chuàng)立的專注空間智能的 AI 公司 World Labs,但 ReKep 顯然在空間智能方面大有潛力。
當(dāng)?shù)貢r(shí)間8月20日,美國開放人工智能研究中心(OpenAI)宣布推出GPT-4o微調(diào)自定義版本,即日起對(duì)所有付費(fèi)使用級(jí)別開發(fā)人員開放。開發(fā)人員可以使用自定義數(shù)據(jù)集對(duì)GPT-4o進(jìn)行微調(diào),從而針對(duì)特定用例以更低的成本獲得更高的性能。OpenAI表示,微調(diào)模型完全在客戶的控制之下,擁有業(yè)務(wù)數(shù)據(jù)的全部所有權(quán),可以確保數(shù)據(jù)永遠(yuǎn)不會(huì)被共享或用于訓(xùn)練其他模型。
OpenAI當(dāng)?shù)貢r(shí)間7月18日推出名為“GPT-4o mini”的迷你AI模型,該模型是GPT-4o的一個(gè)分支。OpenAI計(jì)劃稍后將圖像、視頻和音頻集成到其中。
OpenAI聯(lián)合創(chuàng)始人兼首席執(zhí)行官山姆·奧特曼當(dāng)?shù)貢r(shí)間5月15日就GPT-4o說明稱,盡管GPT-4o的文本模式已經(jīng)發(fā)布,但語音模式還未發(fā)布。
北京時(shí)間5月14日凌晨,OpenAI再迎重磅更新,雖然不是AI搜索,也不是GPT-5,而是發(fā)布了新旗艦?zāi)P虶PT-4o,但也足以讓業(yè)內(nèi)震撼。 在此次OpenAI 僅有26分鐘的春季發(fā)布會(huì)中,OpenAI首席技術(shù)官穆里·穆拉提(Muri Murati)宣布推出名為GPT-4o的新旗艦生成式AI模型,其集文本音頻視覺于一身,能力全新升級(jí)。 此前不少爆料提到,OpenAI將推出AI搜索,與谷歌搜索競(jìng)爭(zhēng),從而增強(qiáng)ChatGPT的功能并開拓新市場(chǎng),并稱這款產(chǎn)品將在谷歌本周的開發(fā)者大會(huì)前推出。 不過,OpenAI CEO山姆·奧特曼對(duì)此否認(rèn),其表示,“不是 GPT-5,也不是搜索引擎,但我們一直在努力開發(fā)一些我們認(rèn)為人們會(huì)喜歡的新東西!對(duì)我來說就像魔法一樣?!?GPT-4o顯然就是奧特曼所說的“像魔法一樣”的新東西。GPT-4o中的o就是Omni,其是拉丁語詞根,意思是全面、全能,奧特曼稱其“最好的模型”,并免費(fèi)開放。