777精品久无码人妻蜜桃,国产日本精品视频在线观看 ,国产亚洲99久久精品熟女av,brazzersvideosex欧美最新版,人人爽人人人爽人人爽

搜索中心

ChatGPT-4o重新上線

分享至

8月9日消息,OpenAI發(fā)文宣布GPT-4o已重新上線,供Plus和Team用戶使用。若需多平臺使用,用戶可在ChatGPT網(wǎng)頁版設(shè)置中啟用“顯示舊版模型”來訪問GPT-4o。此前,在GPT-5發(fā)布后,OpenAI曾停止提供GPT-4o,這一決定曾引發(fā)用戶爭議。

OpenAI宣布向ChatGPT用戶開放GPT-4.1模型

分享至

北京時間5月15日凌晨,美國開放人工智能研究中心(OpenAI)宣布,應(yīng)廣大用戶的要求,GPT-4.1即日起將直接在ChatGPT中提供。GPT-4.1是一款專攻編碼任務(wù)和指令遵循的專用模型。Plus、Pro和Team用戶將能夠通過模型選擇器中的“更多模型”下拉菜單訪問GPT-4.1。企業(yè)版和教育版用戶將在未來幾周內(nèi)獲得訪問權(quán)限。OpenAI還將推出GPT-4.1 mini替代現(xiàn)有的GPT-4o mini,該版本將在ChatGPT中向所有用戶開放。

OpenAI回應(yīng)GPT-4o更新后個性過于諂媚:已回滾到老版本

分享至

4月30日消息,OpenAI首席執(zhí)行官山姆·奧特曼在社交平臺表示,昨晚開始回滾GPT-4o的最新更新,現(xiàn)在免費版的回滾已100%完成,付費版完成后會再次進行更新,預(yù)計晚些時候?qū)δP蛡€性進行額外的修復(fù),并將在未來幾天分享更多信息。此前,奧特曼發(fā)文稱,“GPT-4o的最近幾次更新使其個性變得過于諂媚和煩人(盡管其中也有一些非常好的部分),我們正在盡快修復(fù)?!?

OpenAI升級GPT-4o模型,提升智能和個性

分享至

當?shù)貢r間4月25日,OpenAI首席執(zhí)行官山姆·奧特曼在社交媒體上表示,已經(jīng)升級了GPT-4o模型,目前在智能和個性兩方面都有所提升。

OpenAI官宣GPT-4本月底退役,由4o完全替代

分享至

OpenAI在其網(wǎng)站上表示,從4月30日起,GPT-4將被GPT-4o“完全替代”,但GPT-4將繼續(xù)通過API提供使用。OpenAI稱,“在面對面的評估中,它(4o)在寫作、編碼、STEM等方面持續(xù)超過GPT-4。”據(jù)The Verge 10日報道,OpenAI下周將揭曉一系列新的AI模型,其中將包括GPT-4.1, 這將是4o多模態(tài)模型的改進版。OpenAI同時還將推出更小的GPT-4.1 mini和nano版本,以及o3“推理”模型和新的名為o4-mini的推理模型。

OpenAI推出GPT-4o圖像生成功能

分享至

當?shù)貢r間3月25日,美國開放人工智能研究中心(OpenAI)宣布推出4o圖像生成功能,“將迄今最先進的圖像生成器集成至GPT-4o”。即日起,所有Plus、Pro、Team及免費用戶將陸續(xù)在ChatGPT和Sora中體驗該功能,企業(yè)版與教育版即將接入,Sora平臺同步啟用。開發(fā)者即將通過API調(diào)用GPT-4o圖像生成功能,接口權(quán)限將于未來數(shù)周內(nèi)開放。據(jù)介紹,GPT-4o圖像生成功能可精準文本渲染、嚴格遵循指令提示、深度調(diào)用4o知識庫及對話上下文——包括對上傳圖像進行二次創(chuàng)作或?qū)⑵滢D(zhuǎn)化為視覺靈感。

OpenAI:大多數(shù)用戶GPT-4o API問題已解決

分享至

北京時間3月18日早間,OpenAI發(fā)布事故報告更新稱,GPT-4o大多數(shù)用戶的API問題已解決,仍在持續(xù)關(guān)注剩余少量客戶的情況。數(shù)日前,OpenAI發(fā)布報告指出,用戶可能通過API使用GPT-4o時遭遇響應(yīng)性能下降問題。

消息稱OpenAI GPT-4.5最快有望下周面世 GPT-5或5月下旬發(fā)布

分享至

2月21日消息,據(jù)悉,微軟正在為OpenAI的最新模型做準備,預(yù)計GPT-4.5最快有望于下周面世,微軟預(yù)計GPT-5有望于5月下旬發(fā)布。更新后的GPT-5將對ChatGPT的使用方式進行重大改進,統(tǒng)一OpenAI的o系列和GPT系列模型,減少用戶選擇模型的困惑。

OpenAI:GPT-4o及4o-mini模型性能下降,正在調(diào)查

分享至

北京時間1月20日11時54分,OpenAI發(fā)布事故報告指出,當前遭遇GPT-4o和4o-mini模型性能下降問題,目前正在進行調(diào)查,并將盡快發(fā)布最新消息。

微軟開源最強小模型Phi-4,超GPT-4o、可商用

分享至

1月9日消息,今天凌晨,微軟研究院開源了目前最強小參數(shù)模型——phi-4。去年12月12日,微軟首次展示了phi-4,參數(shù)只有140億性能卻極強,在GPQA研究生水平、MATH數(shù)學(xué)基準測試中,超過了OpenAI的GPT-4o,也超過了同類頂級開源模型Qwen 2.5 -14B和Llama-3.3-70B。在美國數(shù)學(xué)競賽AMC的測試中phi-4更是達到了91.8分,超過了Gemini Pro 1.5、GPT-4o、Claude 3.5 Sonnet、Qwen 2.5等知名開閉源模型,甚至整體性能可以與4050億參數(shù)的Llama-3.1媲美。

2025年OpenAI新產(chǎn)品:AGI、智能體、GPT-4o升級版等

分享至

12月31日,山姆·奧特曼公布了2025年OpenAI即將發(fā)布的技術(shù)產(chǎn)品,包括通用人工智能AGI、智能體更好的GPT-4o升級版、更好的記憶存儲、更好的上下文窗口成人模式、深度研究特色功能更好的Sora更好的個性化定制等。

李飛飛團隊提出ReKep,讓機器人具備空間智能,還能整合GPT-4o

分享至

近日,李飛飛團隊提出了關(guān)系關(guān)鍵點約束(ReKep/Relational Keypoint Constraints)。簡單來說,該方法就是將任務(wù)表示成一個關(guān)系關(guān)鍵點序列。并且,這套框架還能很好地與 GPT-4o 等多模態(tài)大模型很好地整合。從演示視頻來看,這種方法的表現(xiàn)相當不錯。該團隊也已發(fā)布相關(guān)代碼。李飛飛表示,該工作展示了視覺與機器人學(xué)習的更深層次融合。雖然論文中沒有提及李飛飛在今年 5 年初創(chuàng)立的專注空間智能的 AI 公司 World Labs,但 ReKep 顯然在空間智能方面大有潛力。

OpenAI宣布推出GPT-4o微調(diào)自定義版本

分享至

當?shù)貢r間8月20日,美國開放人工智能研究中心(OpenAI)宣布推出GPT-4o微調(diào)自定義版本,即日起對所有付費使用級別開發(fā)人員開放。開發(fā)人員可以使用自定義數(shù)據(jù)集對GPT-4o進行微調(diào),從而針對特定用例以更低的成本獲得更高的性能。OpenAI表示,微調(diào)模型完全在客戶的控制之下,擁有業(yè)務(wù)數(shù)據(jù)的全部所有權(quán),可以確保數(shù)據(jù)永遠不會被共享或用于訓(xùn)練其他模型。

OpenAI發(fā)布迷你AI模型GPT-4o mini

分享至

OpenAI當?shù)貢r間7月18日推出名為“GPT-4o mini”的迷你AI模型,該模型是GPT-4o的一個分支。OpenAI計劃稍后將圖像、視頻和音頻集成到其中。

研究稱GPT-4通過圖靈測試

分享至

自英國計算機科學(xué)家阿蘭.圖靈于1950年提出關(guān)于判斷機器是否能夠思考的著名試驗“圖靈測試”以來,該測試就被視為判斷計算機是否具有模擬人類思維能力的關(guān)鍵。兩位研究人員以真人、初代聊天機器人ELIZA、GPT-3.5和GPT-4為研究對象,試圖了解誰在誘使人類參與者認為它是人類方面表現(xiàn)最成功。結(jié)果顯示,多達54%的參與者將GPT-4誤認為真人,是迄今為止首次有AI模型以如此高的結(jié)果通過圖靈測試。

蔣杰:騰訊混元大模型部分中文能力已追平GPT-4

分享至

5月17日消息,騰訊集團副總裁蔣杰在騰訊云生成式AI產(chǎn)業(yè)應(yīng)用峰會上表示,騰訊混元大模型目前整體性能已居國內(nèi)第一梯隊,部分中文能力已追平GPT-4。在生視頻能力上,騰訊混元可16s 完成視頻生成。在生3D層面,騰訊混元已布局文/圖生3D,單圖僅需30秒即可生成3D模型。

OpenAI山姆·奧特曼:新款語音模型GPT-4o尚未發(fā)布

分享至

OpenAI聯(lián)合創(chuàng)始人兼首席執(zhí)行官山姆·奧特曼當?shù)貢r間5月15日就GPT-4o說明稱,盡管GPT-4o的文本模式已經(jīng)發(fā)布,但語音模式還未發(fā)布。

OpenAI用26分鐘再次震撼世界,新模型GPT-4o語音水平接近人類

分享至

北京時間5月14日凌晨,OpenAI再迎重磅更新,雖然不是AI搜索,也不是GPT-5,而是發(fā)布了新旗艦?zāi)P虶PT-4o,但也足以讓業(yè)內(nèi)震撼。 在此次OpenAI 僅有26分鐘的春季發(fā)布會中,OpenAI首席技術(shù)官穆里·穆拉提(Muri Murati)宣布推出名為GPT-4o的新旗艦生成式AI模型,其集文本音頻視覺于一身,能力全新升級。 此前不少爆料提到,OpenAI將推出AI搜索,與谷歌搜索競爭,從而增強ChatGPT的功能并開拓新市場,并稱這款產(chǎn)品將在谷歌本周的開發(fā)者大會前推出。 不過,OpenAI CEO山姆·奧特曼對此否認,其表示,“不是 GPT-5,也不是搜索引擎,但我們一直在努力開發(fā)一些我們認為人們會喜歡的新東西!對我來說就像魔法一樣?!?GPT-4o顯然就是奧特曼所說的“像魔法一樣”的新東西。GPT-4o中的o就是Omni,其是拉丁語詞根,意思是全面、全能,奧特曼稱其“最好的模型”,并免費開放。

OpenAI計劃下周宣布ChatGPT和GPT-4更新,但不會推出GPT-5和搜索引擎

分享至

OpenAI當?shù)貢r間5月10日宣布,將于太平洋時間5月13日上午10點舉行直播,演示ChatGPT和GPT-4的部分更新。 OpenAI首席執(zhí)行官山姆·奧特曼在社交媒體平臺X發(fā)文稱,此次更新無關(guān)GPT-5和搜索引擎,“但我們一直在努力開發(fā)一些我們認為人們會喜歡的新東西!對我來說,感覺就像魔法一樣”。

OpenAI CEO最新演講:GPT-5性能遠超GPT-4,保持迭代部署很重要

分享至

4月25日,OpenAI聯(lián)合創(chuàng)始人兼首席執(zhí)行官薩姆.奧爾特曼(Sam Altman)在斯坦福大學(xué)發(fā)表演講,提及AGI(通用人工智能)發(fā)展、OpenAI的迭代節(jié)奏等。有消息稱,這場演講在英偉達禮堂進行,超一千人在門口排隊,熱度頗高。"GPT-5會更加智能,這將是歷史上最令人矚目的事件之一。"在一段流出的視頻中,奧爾特曼表示,以高度的科學(xué)確定性來說,GPT-5將比GPT-4智能很多,GPT-6將比GPT-5智能很多,而我們遠未觸及極限。 此前OpenAI已推出GPT-3.5和GPT-4。對于OpenAI的產(chǎn)品迭代,奧爾特曼認為盡早且頻繁推出AI產(chǎn)品,保持迭代部署非常重要,即便現(xiàn)在看來ChatGPT還有點令人尷尬,GPT-4還顯得愚蠢。要讓社會為技術(shù)進步做好準備,依賴于迭代部署。

點擊加載更多