正在閱讀:

盤前機(jī)會(huì)前瞻|OpenAI全新AI模型GPT-4o橫空出世!這幾家公司在AI語(yǔ)音和多模態(tài)領(lǐng)域與OpenAI合作緊密,部分產(chǎn)品已實(shí)現(xiàn)落地(附概念股)

掃一掃下載界面新聞APP

盤前機(jī)會(huì)前瞻|OpenAI全新AI模型GPT-4o橫空出世!這幾家公司在AI語(yǔ)音和多模態(tài)領(lǐng)域與OpenAI合作緊密,部分產(chǎn)品已實(shí)現(xiàn)落地(附概念股)

GPT-4o語(yǔ)音交互更自然逼真。

5月14日,OpenAI推出了一個(gè)更快、更便宜的人工智能模型來(lái)支持其聊天機(jī)器人ChatGPT。在周一的直播活動(dòng)中,OpenAI推出了新的大語(yǔ)言模型GPT-4o。這是其已經(jīng)問(wèn)世一年多的GPT-4模型的更新版本。該模型基于來(lái)自互聯(lián)網(wǎng)的大量數(shù)據(jù)進(jìn)行訓(xùn)練,更擅長(zhǎng)處理文本和音頻,并且支持50種語(yǔ)言。新模式將面向所有用戶,而不僅僅是付費(fèi)用戶。GPT-4o的發(fā)布勢(shì)將撼動(dòng)快速發(fā)展的人工智能領(lǐng)域,目前GPT-4仍然是黃金標(biāo)準(zhǔn)。OpenAI發(fā)布新模型也正值谷歌I/O開(kāi)發(fā)者大會(huì)的前一天。谷歌是人工智能領(lǐng)域的早期領(lǐng)導(dǎo)者,預(yù)計(jì)將利用這次活動(dòng)發(fā)布更多人工智能更新,以追趕有微軟公司支持的OpenAI。

【機(jī)會(huì)前瞻】

5月14日凌晨,美國(guó)人工智能研究公司OpenAI舉辦了備受期待的“春季更新”活動(dòng),活動(dòng)亮點(diǎn)包括推出新旗艦?zāi)P汀癎PT-4o”和在ChatGPT中免費(fèi)提供更多功能。

GPT-4o是對(duì)其一年多前發(fā)布的GPT-4模型的重大更新。GPT-4o不僅在文本和音頻處理上更加出色,還支持多達(dá)50種語(yǔ)言,面向所有用戶開(kāi)放,不僅限于付費(fèi)用戶。GPT-4o的“o”代表“omni”,意為全能,標(biāo)志著向更自然的人機(jī)交互邁出了重要一步。該模型能夠接受文本、音頻和圖像的任意組合作為輸入,并生成相應(yīng)的輸出內(nèi)容。

OpenAI官網(wǎng)介紹,GPT-4o在API速度上進(jìn)行了顯著提升,同時(shí)大幅降低了成本。新模式在最快232毫秒內(nèi)響應(yīng)音頻輸入,平均響應(yīng)時(shí)間為320毫秒,與人類對(duì)話響應(yīng)時(shí)間相仿。此外,OpenAI計(jì)劃在未來(lái)一個(gè)月內(nèi)向Plus用戶推出基于GPT-4o的改進(jìn)語(yǔ)音體驗(yàn)。

據(jù)悉,GPT-4o將提供與GPT-4同等水平的智能,同時(shí)在文本、圖像及語(yǔ)音處理方面實(shí)現(xiàn)提升。GPT-4o能夠感知用戶情緒,分析面部表情,使其語(yǔ)音交互更自然逼真。GPT-4o還能根據(jù)要求調(diào)整說(shuō)話語(yǔ)氣,展現(xiàn)高度的可塑性,并具備唱歌功能。OpenAI還宣布,GPT-4o將免費(fèi)提供給所有用戶使用,付費(fèi)用戶可享受更高的調(diào)用額度。

對(duì)于蘋果電腦用戶,OpenAI將推出專為macOS設(shè)計(jì)的ChatGPT桌面應(yīng)用,允許用戶通過(guò)快捷鍵與ChatGPT互動(dòng)。Windows版本預(yù)計(jì)將在今年晚些時(shí)候推出。

未經(jīng)正式授權(quán)嚴(yán)禁轉(zhuǎn)載本文,侵權(quán)必究。

OpenAI

  • 美國(guó)司法部敦促法院強(qiáng)制谷歌剝離Chrome瀏覽器,OpenAI有意收購(gòu)
  • AI早報(bào) | OpenAI有意買下谷歌Chrome瀏覽器;人形機(jī)器人被裝上AI鼻子

評(píng)論

暫無(wú)評(píng)論哦,快來(lái)評(píng)價(jià)一下吧!

下載界面新聞

微信公眾號(hào)

微博

盤前機(jī)會(huì)前瞻|OpenAI全新AI模型GPT-4o橫空出世!這幾家公司在AI語(yǔ)音和多模態(tài)領(lǐng)域與OpenAI合作緊密,部分產(chǎn)品已實(shí)現(xiàn)落地(附概念股)

GPT-4o語(yǔ)音交互更自然逼真。

5月14日,OpenAI推出了一個(gè)更快、更便宜的人工智能模型來(lái)支持其聊天機(jī)器人ChatGPT。在周一的直播活動(dòng)中,OpenAI推出了新的大語(yǔ)言模型GPT-4o。這是其已經(jīng)問(wèn)世一年多的GPT-4模型的更新版本。該模型基于來(lái)自互聯(lián)網(wǎng)的大量數(shù)據(jù)進(jìn)行訓(xùn)練,更擅長(zhǎng)處理文本和音頻,并且支持50種語(yǔ)言。新模式將面向所有用戶,而不僅僅是付費(fèi)用戶。GPT-4o的發(fā)布勢(shì)將撼動(dòng)快速發(fā)展的人工智能領(lǐng)域,目前GPT-4仍然是黃金標(biāo)準(zhǔn)。OpenAI發(fā)布新模型也正值谷歌I/O開(kāi)發(fā)者大會(huì)的前一天。谷歌是人工智能領(lǐng)域的早期領(lǐng)導(dǎo)者,預(yù)計(jì)將利用這次活動(dòng)發(fā)布更多人工智能更新,以追趕有微軟公司支持的OpenAI。

【機(jī)會(huì)前瞻】

5月14日凌晨,美國(guó)人工智能研究公司OpenAI舉辦了備受期待的“春季更新”活動(dòng),活動(dòng)亮點(diǎn)包括推出新旗艦?zāi)P汀癎PT-4o”和在ChatGPT中免費(fèi)提供更多功能。

GPT-4o是對(duì)其一年多前發(fā)布的GPT-4模型的重大更新。GPT-4o不僅在文本和音頻處理上更加出色,還支持多達(dá)50種語(yǔ)言,面向所有用戶開(kāi)放,不僅限于付費(fèi)用戶。GPT-4o的“o”代表“omni”,意為全能,標(biāo)志著向更自然的人機(jī)交互邁出了重要一步。該模型能夠接受文本、音頻和圖像的任意組合作為輸入,并生成相應(yīng)的輸出內(nèi)容。

OpenAI官網(wǎng)介紹,GPT-4o在API速度上進(jìn)行了顯著提升,同時(shí)大幅降低了成本。新模式在最快232毫秒內(nèi)響應(yīng)音頻輸入,平均響應(yīng)時(shí)間為320毫秒,與人類對(duì)話響應(yīng)時(shí)間相仿。此外,OpenAI計(jì)劃在未來(lái)一個(gè)月內(nèi)向Plus用戶推出基于GPT-4o的改進(jìn)語(yǔ)音體驗(yàn)。

據(jù)悉,GPT-4o將提供與GPT-4同等水平的智能,同時(shí)在文本、圖像及語(yǔ)音處理方面實(shí)現(xiàn)提升。GPT-4o能夠感知用戶情緒,分析面部表情,使其語(yǔ)音交互更自然逼真。GPT-4o還能根據(jù)要求調(diào)整說(shuō)話語(yǔ)氣,展現(xiàn)高度的可塑性,并具備唱歌功能。OpenAI還宣布,GPT-4o將免費(fèi)提供給所有用戶使用,付費(fèi)用戶可享受更高的調(diào)用額度。

對(duì)于蘋果電腦用戶,OpenAI將推出專為macOS設(shè)計(jì)的ChatGPT桌面應(yīng)用,允許用戶通過(guò)快捷鍵與ChatGPT互動(dòng)。Windows版本預(yù)計(jì)將在今年晚些時(shí)候推出。

未經(jīng)正式授權(quán)嚴(yán)禁轉(zhuǎn)載本文,侵權(quán)必究。