精品国产三级a在线观看网站,亚洲综合色成在线观看,亚洲熟妇一区二区三区,,中文字幕成人精品久久不卡 ,永久免费av无码网站国产

OpenAI

重磅資訊

發(fā)布免費(fèi)大模型GPT-4o,?

更快、更智能、更安全


????太平洋時(shí)間2024年5月13號(hào)上午10點(diǎn),OpenAI春季發(fā)布會(huì)攜GPT-4o重磅來襲。OpenAI首席技術(shù)官 Mira Murati 表示,更新后的模型“速度更快”,并提高了“文本、視覺和音頻方面的功能”。它將免費(fèi)向所有用戶開放,付費(fèi)用戶將繼續(xù)“擁有免費(fèi)用戶五倍的容量限制”。


圖片來源: https://twitter.com/OpenAI



GPT-4o 中的“o”代表“omni”,指的是GPT-4o的多模態(tài)(全能),是朝著更自然的人機(jī)交互邁出的一步——它接受文本、音頻和圖像的任意組合作為輸入,并生成文本、音頻和圖像的任意組合輸出。


它可以在短至232毫秒的時(shí)間內(nèi)響應(yīng)音頻輸入,平均響應(yīng)時(shí)間為320毫秒(接近人類對(duì)話中的響應(yīng)時(shí)間)。雖然在英語文本和代碼方面,GPT-4o與GPT-4 Turbo的性能相當(dāng),但在非英語文本方面有了顯著改進(jìn),不僅速度更快,同時(shí)API費(fèi)用降低了50%,是GPT-4 Turbo的一半與現(xiàn)有模型相比,GPT-4o在視覺和音頻理解方面表現(xiàn)尤為出色。


以下為新模型能力的展示

01

能力探索

02

模型評(píng)估

通過傳統(tǒng)的基準(zhǔn)測(cè)試后發(fā)現(xiàn),

GPT-4o在文本、推理和編碼智能方面達(dá)到了GPT-4 Turbo級(jí)別性能,

同時(shí)在多語種、音頻和視覺能力方面創(chuàng)造了

新的里程碑


>>> 文本評(píng)估


推理能力增強(qiáng)——GPT-4o 在 0 次 COT MMLU(常識(shí)問題)上創(chuàng)下了 88.7% 的新高分。所有這些評(píng)估都是使用OpenAI的新的simple evals庫進(jìn)行收集的。此外,在傳統(tǒng)的 5 次無 CoT MMLU 上,GPT-4o 創(chuàng)下了 87.2% 的新高。

(注:Llama3 400b仍在訓(xùn)練中)

? >>>?音頻ASR性能


與Whisper-v3相比,GPT-4o顯著提高了所有語言的語音識(shí)別性能,特別是對(duì)于資源匱乏的語言。

>>>?音頻翻譯性能


GPT-4o在語音翻譯方面達(dá)到了新的最先進(jìn)水平,并且在MLS基準(zhǔn)測(cè)試中優(yōu)于 Whisper-v3。

>>>?M3Exam 0-Shot結(jié)果


M3Exam-基準(zhǔn)測(cè)試既是多語言評(píng)估也是視覺評(píng)估,包括其他國家標(biāo)準(zhǔn)化測(cè)試的多項(xiàng)選擇題,有時(shí)還包括圖形和圖表。在所有語言的基準(zhǔn)測(cè)試中,GPT-4o表現(xiàn)得都比GPT-4更強(qiáng)(團(tuán)隊(duì)省略了斯瓦希里語和爪哇語的視力結(jié)果,因?yàn)檫@些語言的視力問題只有 5 個(gè)或更少)。


?如果想了解更多有關(guān)GPT-4的內(nèi)容,點(diǎn)擊下面鏈接即可查看?

https://www.semrush.com/blog/gpt-4/?

>>>?視覺理解評(píng)估


在圖片視覺理解評(píng)估方面,GPT-4o在視覺感知基準(zhǔn)測(cè)試上達(dá)到了最先進(jìn)的性能。所有視覺評(píng)估都是0-shot,包括MMMU、MathVista和ChartQA。

03

語言標(biāo)記

以下 20 種語言被選為新標(biāo)記器

在不同語言家族中壓縮的代表


04

模型安全和限制


GPT-4o通過各種技術(shù)來確保安全,采用了過濾訓(xùn)練數(shù)據(jù)和通過后期訓(xùn)練完善模型行為等技術(shù)。并且創(chuàng)建了新的安全系統(tǒng),來為語言輸出提供防護(hù)措施。


另外,OpenAI還根據(jù)準(zhǔn)備框架和自愿承諾,對(duì)GPT-4o進(jìn)行了評(píng)估。在網(wǎng)絡(luò)安全、CBRN(化學(xué)、生物、輻射和核)風(fēng)險(xiǎn)、說服力和模型自主性方面的評(píng)估顯示,GPT-4o在任何一個(gè)類別中的風(fēng)險(xiǎn)評(píng)級(jí)均未到達(dá)中等以上。這一評(píng)估包括在整個(gè)模型訓(xùn)練過程中進(jìn)行一系列自動(dòng)和人工評(píng)估:測(cè)試了模型在安全緩解措施前后的版本,使用了自定義的微調(diào)和提示,以更好地引發(fā)模型的能力。


除此之外,GPT-4o還經(jīng)過了70多名外部專家在社會(huì)心理學(xué)、偏差和公平性、虛假信息等領(lǐng)域的大量外部紅隊(duì)測(cè)試,來確定新增模態(tài)會(huì)引入或放大的風(fēng)險(xiǎn)。利用這些經(jīng)驗(yàn)來完善安全干預(yù)措施,以提高與GPT-4o交互的安全性。

模型限制性示例


05

模型可用性


??? GPT-4o是OpenAI在深度學(xué)習(xí)領(lǐng)域的最新進(jìn)展,也是朝著實(shí)際可用性的方向邁出的一步。在過去兩年OpenAI團(tuán)隊(duì)一直致力于提高技術(shù)棧的各個(gè)層面的效率, GPT-4o就是這項(xiàng)工作的首個(gè)成果,并且其功能將以迭代的方式逐漸提升。


??? ChatGPT中已經(jīng)推出GPT-4o的文本和圖像功能(會(huì)在免費(fèi)版和Plus版本中提供),未來幾周內(nèi)還將在ChatGPT Plus中推出帶有GPT-4o的語音模式的新版本。


????開發(fā)者現(xiàn)在可以通過API訪問GPT-4o作為文本和視覺模型,與GPT-4 Turbo相比,GPT-4o更快、價(jià)格更低且速率限制提高了5倍。OpenAI還計(jì)劃在未來幾周內(nèi),將GPT-4o的新音頻和視頻功能支持添加到API中,但目前僅對(duì)少數(shù)可信賴的合作伙伴開放。

詳細(xì)內(nèi)容請(qǐng)?jiān)L問:https://openai.com/index/hello-gpt-4o/



END


點(diǎn)贊(2) 打賞

評(píng)論列表 共有 0 條評(píng)論

暫無評(píng)論

服務(wù)號(hào)

訂閱號(hào)

備注【拉群】

商務(wù)洽談

微信聯(lián)系站長

發(fā)表
評(píng)論
立即
投稿
返回
頂部