隨需應(yīng)變、彈性高效的按需服務(wù)實(shí)現(xiàn)企業(yè)快速導(dǎo)入NVDIA GPUs極速算力
深耕于臺(tái)灣的GMI Cloud,利用其供應(yīng)鏈優(yōu)勢(shì),為企業(yè)提供即時(shí)且價(jià)格合理的NVIDIA GPU算力,協(xié)助企業(yè)用戶在人工智慧競(jìng)爭(zhēng)中保持領(lǐng)先地位。
加州圣塔克拉拉--(美國(guó)商業(yè)資訊)--專為⼈⼯智慧和機(jī)器學(xué)習(xí)⼯作負(fù)載設(shè)計(jì)的新興GPU云端平臺(tái)GMI Cloud,正在加快NVDIA GPU的應(yīng)用步伐。今日正式推出全新的即時(shí)云端運(yùn)算服務(wù),專為致力于應(yīng)用人工智慧的企業(yè)量身打造,協(xié)助其實(shí)現(xiàn)從原型設(shè)計(jì)到產(chǎn)品化的全新可能性。用戶可透過(guò)彈性高效的按需服務(wù)實(shí)現(xiàn)企業(yè)快速導(dǎo)入NVDIA GPUs極速算力。
AI運(yùn)算需求急速激增
目前,隨著市場(chǎng)對(duì)人工智慧運(yùn)算能力的需求急速激增,迫使企業(yè)須采取更具策略性的應(yīng)對(duì)措施。在快速變化的環(huán)境中,企業(yè)通常需支付25-50% 的預(yù)付款,并簽訂為期三年的合約,以獲得6-12 個(gè)月后部署GPU 運(yùn)算基礎(chǔ)架構(gòu)的承諾。然而,人工智慧的迅速變革要求企業(yè)具備更靈活的運(yùn)算能力,以適應(yīng)不斷變化的需求。
即時(shí)GPU,無(wú)限AI
憑借與瑞昱半導(dǎo)體(Realtek Semiconductors, TPE: 2379)和弘憶國(guó)際(GMI Technologies, TPE: 3312)的合作關(guān)系,以及臺(tái)灣強(qiáng)⼤的供應(yīng)鏈⽣態(tài)系統(tǒng), GMI Cloud能夠確保更快速的部署和更⾼的營(yíng)運(yùn)效率。相較于其他地區(qū)的GPU供應(yīng)商, GMI Cloud在臺(tái)灣的實(shí)體運(yùn)營(yíng)將GPU交付時(shí)間從數(shù)⽉縮短⾄數(shù)天,大幅提升市場(chǎng)競(jìng)爭(zhēng)力。 GMI Cloud正迅速成為市場(chǎng)最具競(jìng)爭(zhēng)⼒的新成員。
GMI Cloud創(chuàng)辦⼈兼執(zhí)⾏⻑ Alex Yeh表示:“我們的使命是透過(guò)即時(shí)、⾼效的GPU云服務(wù),為⼈類的⼈⼯智慧雄⼼壯志賦能。我們不僅僅是在建構(gòu)云,我們更是在打造⼈⼯智慧時(shí)代的根基。GMI Cloud致⼒于改變開(kāi)發(fā)⼈員和資料科學(xué)家利⽤ NVIDIA GPU的⽅式,以及全⼈類從⼈⼯智慧中獲益的途徑!
為何重要
技術(shù)領(lǐng)導(dǎo)者們正積極抓住人工智慧浪潮帶來(lái)的商機(jī),而各種規(guī)模的企業(yè)在獲取運(yùn)算能力方面卻面臨重重障礙。
例如,中小型企業(yè)往往沒(méi)有足夠的預(yù)算或長(zhǎng)期規(guī)劃來(lái)支付安裝大型GPU 的前期費(fèi)用。他們需要根據(jù)自身發(fā)展情況靈活地?cái)U(kuò)大或縮小規(guī)模,這意味著將GPU 的費(fèi)用作為運(yùn)營(yíng)支出而非固定資本支出,從而將資金投入于招聘有競(jìng)爭(zhēng)力的人工智慧人才。按需存取GPU 運(yùn)算為這些團(tuán)隊(duì)提供一個(gè)即時(shí)、具成本效益且可擴(kuò)展的選擇,無(wú)需具備特殊技能即可建立基礎(chǔ)架構(gòu)。
⼤型企業(yè)也同樣⾯臨挑戰(zhàn)。例如,企業(yè)技術(shù)團(tuán)隊(duì)需靈活地對(duì)⼈⼯智慧應(yīng)⽤進(jìn)⾏實(shí)驗(yàn)、原型設(shè)計(jì)和評(píng)估,以便在⼈⼯智慧浪潮席卷⽽來(lái)之前領(lǐng)先于競(jìng)爭(zhēng)對(duì)⼿。然⽽,并非所有企業(yè)都愿意簽署長(zhǎng)期合約,也不一定愿意投入大量資本到未經(jīng)證實(shí)的運(yùn)算儲(chǔ)備中。透過(guò)即時(shí)存取GPU的靈活性,這些技術(shù)研發(fā)團(tuán)隊(duì),可輕松運(yùn)⾏多組⼤型資料集的處理或微調(diào)模型的原型專案,⽽無(wú)需承擔(dān)重⼤投資風(fēng)險(xiǎn)。
即刻開(kāi)始
GMI Cloud是⼀個(gè)由NVIDIA提供⽀援的GPU云端平臺(tái),擁有豐富的Kubernetes管理預(yù)載軟體堆疊,專為⼈⼯智慧和機(jī)器學(xué)習(xí)⼯作負(fù)載設(shè)計(jì),該平臺(tái)包括使⽤ NVIDIA TensorRT的預(yù)建構(gòu)影像,并即將⽀援NVIDIA Triton等推理伺服器在內(nèi)的所有NVIDIA預(yù)建構(gòu)容器。相比于業(yè)界大型企業(yè)為了將使用者鎖定在更大儲(chǔ)備包中而收取高達(dá)四倍的按需存取費(fèi)用, NVIDIA H100 Tensor Core GPU的價(jià)格極具競(jìng)爭(zhēng)⼒ ,僅有4.39美元/ ⼩時(shí),這使得GMI Cloud 能夠提供經(jīng)濟(jì)實(shí)惠的按需存取服務(wù)。 GMI Cloud 的執(zhí)⾏個(gè)體類型和⼤⼩的設(shè)計(jì)⽬的是為了有效地部署、微調(diào)和推理各種模型,這些模型的⼤⼩涵蓋Llama3 8b、 70b、Mixtral 8x7b、Google Gemma、以及Stable Diffusion等。
關(guān)于GMI Cloud
GMI Cloud是一家由創(chuàng)投支持的AI云端基礎(chǔ)建設(shè)公司,結(jié)合即時(shí)GPU可用性和無(wú)限的人工智慧潛力。該公司也是Realtek Semiconductor和GMI Technology共同策略支持的新創(chuàng)公司。作為領(lǐng)先的人工智慧原生GPU云平臺(tái),我們提供對(duì)最新GPU的快速存取,并專注于針對(duì)人工智慧和機(jī)器學(xué)習(xí)工作負(fù)載進(jìn)行優(yōu)化。我們的平臺(tái)確保順暢的可擴(kuò)充性和頂尖的效能,以滿足初創(chuàng)企業(yè)、研究人員和企業(yè)的多變需求。透過(guò)GMI Cloud體驗(yàn)按需GPU的強(qiáng)⼤功能,釋放無(wú)限的⼈⼯智慧潛能,讓您能夠更快、更智慧、更具成本效益地進(jìn)⾏創(chuàng)新。