近日,宣型擴(kuò)型選信和IBM宣布,上提式擴(kuò)由Mistral AI公司開發(fā)的供開競(jìng)彩足球APP官方廣受歡迎的開源Mixtral-8x7B大型語(yǔ)言模型(LLM)已經(jīng)可在其watsonx人工智能與數(shù)據(jù)平臺(tái)上使用。
p=medium600)
IBM_watson_x_social
IBM 提供了Mixtral-8x7B 的優(yōu)化版本,在內(nèi)部測(cè)試中,大模的方與常規(guī)模型相比,擇范助企展該版本能夠?qū)⑼掏铝浚丛诮o定時(shí)間段內(nèi)可處理的圍幫數(shù)據(jù)量)提高50%[i]。這可能可以將時(shí)間延遲減少35-75%,靈活從而加快獲得洞察的宣型擴(kuò)型選信和時(shí)間,具體取決于批處理量的上提式擴(kuò)大小。這是供開競(jìng)彩足球APP官方通過一個(gè)稱為量化的過程來實(shí)現(xiàn)的,該過程減少了LLM 的源的業(yè)模型大小和內(nèi)存需求,進(jìn)而可以加快處理速度,大模的方有助于降低成本和能耗。擇范助企展
Mixtral-8x7B 的圍幫加入擴(kuò)展了IBM 的開放、多模型戰(zhàn)略,隨時(shí)隨地滿足客戶的需求,并為他們提供選擇和靈活性,使其可以跨業(yè)務(wù)來擴(kuò)展其企業(yè)級(jí)人工智能解決方案。通過數(shù)十年的人工智能研發(fā)、與Meta和Hugging Face開放式協(xié)作,以及與模型領(lǐng)導(dǎo)者的合作伙伴關(guān)系,IBM 正在擴(kuò)展其watsonx.ai 模型目錄,并引入新的功能、語(yǔ)言和模式。
IBM 的企業(yè)就緒基礎(chǔ)模型選擇及其watsonx 人工智能和數(shù)據(jù)平臺(tái)可幫助客戶利用生成式人工智能獲得新的洞察力和效率,并基于信任原則創(chuàng)建新的業(yè)務(wù)模式。IBM 可幫助客戶根據(jù)所針對(duì)的業(yè)務(wù)領(lǐng)域(如金融)的合適用例及性價(jià)比目標(biāo)來選擇合適的模型。
Mixtral-8x7B 結(jié)合了稀疏建模與專家混合技術(shù)來構(gòu)建,"稀疏建模"是只查找和使用數(shù)據(jù)中最重要部分以創(chuàng)建更高效的模型的創(chuàng)新技術(shù);而"專家混合技術(shù)"是把擅長(zhǎng)并解決不同部分問題的不同模型("專家")結(jié)合在一起的技術(shù)。Mixtral-8x7B 模型因其能夠快速處理和分析海量數(shù)據(jù)以提供與上下文相關(guān)的見解而廣為人知。
IBM軟件公司產(chǎn)品管理與增長(zhǎng)高級(jí)副總裁Kareem Yusuf博士表示:"客戶要求在部署最適合其獨(dú)特用例和業(yè)務(wù)要求的模型時(shí)擁有選擇權(quán)和靈活性。通過在watsonx上提供Mixtral-8x7B和其它模型,我們不僅為客戶提供了部署人工智能的可選性,還為人工智能構(gòu)建者和業(yè)務(wù)領(lǐng)導(dǎo)者提供了一個(gè)強(qiáng)大的生態(tài)系統(tǒng),使他們能夠利用工具和技術(shù)推動(dòng)不同行業(yè)和領(lǐng)域的創(chuàng)新。"
在同一周,IBM還宣布在watsonx上提供由ELYZA公司開源的日本LLM模型ELYZA-japanese-Llama-2-7b。IBM 還在watsonx 上提供Meta 的開源模型Llama-2-13B-chat 和Llama-2-70B-chat 以及其它第三方模型,未來幾個(gè)月還將推出更多模型。
有關(guān)IBM未來方向和意圖的聲明如有更改或撤回,恕不另行通知,僅代表目標(biāo)和目的。
(作者:產(chǎn)品中心)