DeepSeek: A forradalmi, mesterséges intelligencia világát forradalmasító eszköz

AIPU WATON GROUP

Bevezetés

Folyamatos szorongás a versengő nagy modellek, a piaci részesedésért versengő felhőszolgáltatók és a keményen dolgozó chipgyártók között – a DeepSeek-effektus továbbra is fennáll.

Ahogy a Tavaszi Fesztivál a végéhez közeledik, a DeepSeek körüli izgalom továbbra is erős. A közelmúltbeli ünnep rávilágított a technológiai iparágon belüli jelentős versenyre, sokan vitatták meg és elemezték ezt a „harcsát”. A Szilícium-völgy példátlan válságot él át: a nyílt forráskódú szoftverek hívei ismét hangot adnak véleményüknek, sőt, még az OpenAI is újraértékeli, hogy a zárt forráskódú stratégiája volt-e a legjobb választás. Az alacsonyabb számítási költségek új paradigmája láncreakciót indított el az olyan chipóriások körében, mint az Nvidia, ami rekordméretű egynapos piaci értékvesztéshez vezetett az amerikai tőzsde történetében, miközben a kormányzati szervek vizsgálják a DeepSeek által használt chipek megfelelőségét. A DeepSeek külföldi vegyes véleményei ellenére belföldön rendkívüli növekedést mutat. Az R1 modell bevezetése után a kapcsolódó alkalmazás forgalma megugrott, ami azt jelzi, hogy az alkalmazási szektorok növekedése előre fogja lendíteni az egész MI-ökoszisztémát. A pozitívum, hogy a DeepSeek szélesíti az alkalmazási lehetőségeket, ami arra utal, hogy a ChatGPT-re való támaszkodás a jövőben nem lesz olyan drága. Ez a változás tükröződik az OpenAI legutóbbi tevékenységeiben, beleértve az o3-mini nevű érvelési modell ingyenes felhasználók számára történő biztosítását a DeepSeek R1-re válaszul, valamint a későbbi frissítéseket, amelyek nyilvánossá tették az o3-mini gondolatláncát. Számos külföldi felhasználó fejezte ki háláját a DeepSeeknek ezekért a fejlesztésekért, bár ez a gondolatlánc összefoglalóként szolgál.

Optimista módon egyértelmű, hogy a DeepSeek egyesíti a hazai szereplőket. A betanítási költségek csökkentésére összpontosítva különféle upstream chipgyártók, köztes felhőszolgáltatók és számos startup csatlakozik aktívan az ökoszisztémához, növelve a DeepSeek modell használatának költséghatékonyságát. A DeepSeek tanulmányai szerint a V3 modell teljes betanítása mindössze 2,788 millió H800 GPU órát igényel, és a betanítási folyamat rendkívül stabil. A MoE (Mixture of Experts) architektúra kulcsfontosságú a betanítás előtti költségek tízszeres csökkentéséhez a 405 milliárd paraméterrel rendelkező Llama 3-hoz képest. Jelenleg a V3 az első nyilvánosan elismert modell, amely ilyen magas ritkaságot mutat a MoE-ben. Ezenkívül az MLA (Multi Layer Attention) szinergikusan működik, különösen az érvelési szempontokban. „Minél ritkább a MoE, annál nagyobb kötegméretre van szükség az érvelés során a számítási teljesítmény teljes kihasználásához, a KVCache mérete a fő korlátozó tényező; az MLA jelentősen csökkenti a KVCache méretét” – jegyezte meg a Chuanjing Technology kutatója az AI Technology Review elemzésében. Összességében a DeepSeek sikere a különféle technológiák kombinációjában rejlik, nem csak egyetlenben. Az iparági szakértők dicsérik a DeepSeek csapat mérnöki képességeit, kiemelve kiválóságukat a párhuzamos képzés és az operátorok optimalizálása terén, úttörő eredményeket elérve minden részlet finomításával. A DeepSeek nyílt forráskódú megközelítése tovább ösztönzi a nagyméretű modellek általános fejlesztését, és várható, hogy ha a hasonló modellek képekké, videókká és egyebekké bővülnek, az jelentősen ösztönözni fogja a keresletet az egész iparágban.

Lehetőségek harmadik féltől származó érvelési szolgáltatásokra

Az adatok azt mutatják, hogy a megjelenése óta a DeepSeek mindössze 21 nap alatt 22,15 millió napi aktív felhasználót (DAU) szerzett, ezzel elérve a ChatGPT felhasználói bázisának 41,6%-át, és meghaladva a Doubao 16,95 milliós napi aktív felhasználóját, így a világ leggyorsabban növekvő alkalmazásává vált, 157 országban/régióban megelőzve az Apple App Store-t. Miközben azonban a felhasználók tömegesen özönlöttek, a hackerek könyörtelenül támadták a DeepSeek alkalmazást, jelentős terhet róva a szervereire. Az iparági elemzők úgy vélik, hogy ez részben annak köszönhető, hogy a DeepSeek kártyákat használ a betanításhoz, miközben nem rendelkezik elegendő számítási teljesítménnyel az érveléshez. Egy iparági bennfentes elmondta az AI Technology Review-nak: „A gyakori szerverproblémák könnyen megoldhatók díjak felszámításával vagy további gépek vásárlásához szükséges finanszírozással; végső soron ez a DeepSeek döntésein múlik.” Ez kompromisszumot jelent a technológiára és a termékesítésre való összpontosítás között. A DeepSeek nagyrészt a kvantumkvantálásra támaszkodott az önfenntartás érdekében, mivel kevés külső finanszírozást kapott, ami viszonylag alacsony cash flow nyomást és tisztább technológiai környezetet eredményezett. Jelenleg a fent említett problémák fényében egyes felhasználók a közösségi médiában arra ösztönzik a DeepSeeket, hogy emelje meg a használati küszöböket, vagy vezessen be fizetős funkciókat a felhasználói kényelem fokozása érdekében. Ezenkívül a fejlesztők elkezdték használni a hivatalos API-kat vagy harmadik féltől származó API-kat az optimalizáláshoz. A DeepSeek nyílt platformja azonban nemrégiben bejelentette: „A jelenlegi szervererőforrások szűkösek, és az API-szolgáltatások feltöltését felfüggesztették.”

 

Ez kétségtelenül több lehetőséget nyit meg a külső szolgáltatók számára az AI infrastruktúra szektorban. A közelmúltban számos hazai és nemzetközi felhőóriás indította el a DeepSeek modell API-jait – a külföldi óriások, mint a Microsoft és az Amazon, az elsők között csatlakoztak január végén. A hazai vezető Huawei Cloud tette meg az első lépést, és február 1-jén a Silicon-alapú Flow-val együttműködve kiadta a DeepSeek R1 és V3 érvelési szolgáltatásokat. Az AI Technology Review jelentései szerint a Silicon-alapú Flow szolgáltatásai felhasználók beáramlását tapasztalták, ami gyakorlatilag "összeomlott" a platformon. A három nagy technológiai vállalat – a BAT (Baidu, Alibaba, Tencent) és a ByteDance – szintén alacsony költségű, korlátozott ideig érvényes ajánlatokat tett közzé február 3-tól, amelyek a tavalyi, a DeepSeek V2 modelljének bevezetése által kirobbant felhőszolgáltatói árháborúkra emlékeztetnek, ahol a DeepSeeket kezdték "árvágónak" nevezni. A felhőszolgáltatók kétségbeesett akciói a Microsoft Azure és az OpenAI közötti korábbi erős kapcsolatokat idézik, ahol 2019-ben a Microsoft jelentős, 1 milliárd dolláros befektetést hajtott végre az OpenAI-ba, és a ChatGPT 2023-as indulása után learatotta az előnyeit. Ez a szoros kapcsolat azonban megromlani kezdett, miután a Meta nyílt forráskódúvá tette a Llamát, lehetővé téve a Microsoft Azure ökoszisztémán kívüli más szállítók számára, hogy versenyezzenek nagy modelljeikkel. Ebben az esetben a DeepSeek nemcsak a termékhő tekintetében múlta felül a ChatGPT-t, hanem az o1 megjelenését követően nyílt forráskódú modelleket is bevezetett, hasonlóan a Llama GPT-3 felélesztését övező izgalomhoz.

 

A valóságban a felhőszolgáltatók a mesterséges intelligencia alkalmazások forgalmi átjáróiként is pozicionálják magukat, ami azt jelenti, hogy a fejlesztőkkel való kapcsolatok elmélyítése megelőző előnyöket jelent. A jelentések szerint a Baidu Smart Cloudnak több mint 15 000 ügyfele volt, akik a DeepSeek modellt használták a Qianfan platformon keresztül a modell bevezetésének napján. Emellett számos kisebb cég is kínál megoldásokat, köztük a Silicon-based Flow, a Luchen Technology, a Chuanjing Technology, valamint különböző mesterséges intelligencia infrastruktúra-szolgáltatók, amelyek elindították a DeepSeek modellek támogatását. Az AI Technology Review megtudta, hogy a DeepSeek lokalizált telepítéseinek jelenlegi optimalizálási lehetőségei elsősorban két területen léteznek: az egyik a MoE modell ritkasági jellemzőinek optimalizálása vegyes érvelési megközelítés alkalmazásával, a 671 milliárd paraméteres MoE modell helyi telepítéséhez, hibrid GPU/CPU következtetés alkalmazásával. Ezenkívül az MLA optimalizálása létfontosságú. A DeepSeek két modellje azonban továbbra is kihívásokkal néz szembe a telepítés optimalizálása terén. „A modell mérete és számos paramétere miatt az optimalizálás valóban összetett, különösen a helyi telepítéseknél, ahol a teljesítmény és a költségek közötti optimális egyensúly elérése kihívást jelent” – nyilatkozta a Chuanjing Technology kutatója. A legnagyobb akadály a memóriakapacitási korlátok leküzdésében rejlik. „Heterogén együttműködési megközelítést alkalmazunk a CPU-k és más számítási erőforrások teljes kihasználása érdekében, a ritka MoE-mátrixnak csak a nem megosztott részeit helyezzük el a CPU/DRAM-on a nagy teljesítményű CPU-operátorok általi feldolgozáshoz, míg a sűrű részek a GPU-n maradnak” – magyarázta tovább. A jelentések azt mutatják, hogy a Chuanjing nyílt forráskódú keretrendszere, a KTransformers elsősorban egy sablonon keresztül injektál különböző stratégiákat és operátorokat az eredeti Transformers implementációba, jelentősen növelve a következtetési sebességet olyan módszerek használatával, mint a CUDAGraph. A DeepSeek lehetőségeket teremtett ezeknek a startupoknak, mivel a növekedési előnyök nyilvánvalóvá válnak; sok cég számolt be észrevehető ügyfélnövekedésről a DeepSeek API bevezetése után, miután korábbi ügyfelektől kaptak optimalizálási kérdéseket. Az iparági szakértők megjegyezték: „A múltban a némileg bevált ügyfélcsoportok gyakran a nagyobb vállalatok szabványosított szolgáltatásaihoz voltak kötve, szorosan a méretbeli költségelőnyeik miatt. Miután azonban a DeepSeek-R1/V3 telepítését a Tavaszi Fesztivál előtt befejeztük, hirtelen együttműködési felkérést kaptunk több ismert ügyféltől, sőt, korábban inaktív ügyfelek is kezdeményeztek kapcsolatfelvételt DeepSeek szolgáltatásaink bemutatása érdekében.” Jelenleg úgy tűnik, hogy a DeepSeek egyre kritikusabbá teszi a modellkövetkeztetési teljesítményt, és a nagy modellek szélesebb körű elterjedésével ez továbbra is jelentősen befolyásolja majd az AI Infra iparág fejlődését. Ha egy DeepSeek-szintű modellt helyben, alacsony költséggel lehetne telepíteni, az nagyban segítené a kormányzati és vállalati digitális transzformációs erőfeszítéseket. A kihívások azonban továbbra is fennállnak, mivel egyes ügyfelek magas elvárásokat támaszthatnak a nagy modellek képességeivel kapcsolatban, ami nyilvánvalóbbá teszi, hogy a teljesítmény és a költségek egyensúlyba hozása létfontosságúvá válik a gyakorlati telepítés során. 

Annak megállapításához, hogy a DeepSeek jobb-e a ChatGPT-nél, elengedhetetlen megérteni a főbb különbségeket, erősségeket és felhasználási eseteket. Íme egy átfogó összehasonlítás:

Jellemző/Aspektus DeepSeek ChatGPT
Tulajdon Egy kínai cég fejlesztette ki OpenAI által fejlesztve
Forrásmodell Nyílt forráskódú Szabadalmazott
Költség Ingyenes használat; olcsóbb API-hozzáférési lehetőségek Előfizetéses vagy használatalapú árképzés
Testreszabás Rendkívül testreszabható, lehetővé téve a felhasználók számára, hogy finomhangolják és továbbfejlesszék Korlátozott testreszabási lehetőség
Teljesítmény meghatározott feladatokban Bizonyos területeken, például az adatelemzésben és az információkeresésben jeleskedik Sokoldalú, kiváló teljesítménnyel rendelkezik kreatív írásban és társalgási feladatokban
Nyelvi támogatás Nagy hangsúlyt fektetnek a kínai nyelvre és kultúrára Széleskörű nyelvi támogatás, de USA-központú
Képzési költség Alacsonyabb képzési költségek, hatékonyságra optimalizálva Magasabb képzési költségek, amelyek jelentős számítási erőforrásokat igényelnek
Válaszvariáció Különböző válaszokat kínálhat, amelyeket esetleg a geopolitikai kontextus is befolyásolhat Konzisztens válaszok a betanítási adatok alapján
Célközönség Rugalmasságra vágyó fejlesztők és kutatók számára készült Általános felhasználóknak szól, akik társalgási képességeket keresnek
Használati esetek Hatékonyabb kódgeneráláshoz és gyors feladatokhoz Ideális szövegek generálására, kérdések megválaszolására és párbeszéd folytatására

Kritikus nézőpont az „Nvidia felforgatásáról”

Jelenleg a Huawei mellett számos hazai chipgyártó, mint például a Moore Threads, a Muxi, a Biran Technology és a Tianxu Zhixin is alkalmazkodik a DeepSeek két modelljéhez. Egy chipgyártó az AI Technology Review-nak elmondta: „A DeepSeek struktúrája innovációt mutat, mégis továbbra is LLM. A DeepSeekhez való adaptációnk elsősorban az alkalmazások logikai megoldásaira összpontosít, így a műszaki megvalósítás meglehetősen egyszerű és gyors.” Az MoE megközelítés azonban magasabb igényeket támaszt a tárolás és az elosztás tekintetében, valamint a hazai chipekkel való telepítés során biztosítani kell a kompatibilitást, ami számos mérnöki kihívást jelent, amelyeket az adaptáció során meg kell oldani. „Jelenleg a hazai számítási teljesítmény nem éri el az Nvidia szintjét a használhatóság és a stabilitás tekintetében, ami eredeti gyári részvételt igényel a szoftverkörnyezet beállításához, a hibaelhárításhoz és az alapvető teljesítményoptimalizáláshoz” – mondta egy iparági szakember a gyakorlati tapasztalatok alapján. Ugyanakkor: „A DeepSeek R1 nagy paraméterskálája miatt a hazai számítási teljesítmény több csomópontot igényel a párhuzamosításhoz. Ezenkívül a hazai hardverspecifikációk még mindig némileg elmaradnak; például a Huawei 910B jelenleg nem tudja támogatni a DeepSeek által bevezetett FP8 következtetést.” A DeepSeek V3 modell egyik kiemelkedő pontja egy FP8 vegyes pontosságú betanítási keretrendszer bevezetése, amelyet egy rendkívül nagyméretű modellen hatékonyan validáltak, ami jelentős eredmény. Korábban olyan nagy szereplők, mint a Microsoft és az Nvidia, hasonló munkákat javasoltak, de az iparágban továbbra is kétségek merülnek fel a megvalósíthatósággal kapcsolatban. Úgy tudni, hogy az INT8-hoz képest az FP8 elsődleges előnye, hogy a betanítás utáni kvantálás szinte veszteségmentes pontosságot érhet el, miközben jelentősen növeli a következtetési sebességet. Az FP16-hoz képest az FP8 akár kétszeres gyorsulást is képes elérni az Nvidia H20-án, és több mint másfélszeres gyorsulást a H100-on. Figyelemre méltó, hogy ahogy a hazai számítási teljesítmény és a hazai modellek trendjét övező viták lendületet vesznek, egyre elterjedtebbek a találgatások arról, hogy az Nvidia megzavarható-e, és hogy megkerülhető-e a CUDA-árok. Tagadhatatlan tény, hogy a DeepSeek valóban jelentős visszaesést okozott az Nvidia piaci értékében, de ez a változás kérdéseket vet fel az Nvidia csúcskategóriás számítási teljesítményének integritásával kapcsolatban. A tőkevezérelt számítási felhalmozással kapcsolatos korábban elfogadott narratívákat megkérdőjelezik, mégis továbbra is nehéz az Nvidia számára, hogy teljes mértékben helyettesítse a betanítási forgatókönyvekben. A DeepSeek CUDA mély használatának elemzése azt mutatja, hogy a rugalmasság – például az SM használata kommunikációhoz vagy a hálózati kártyák közvetlen manipulálása – nem megvalósítható a hagyományos GPU-k számára. Az iparági nézőpontok hangsúlyozzák, hogy az Nvidia várárka magában foglalja a teljes CUDA ökoszisztémát, nem csak magát a CUDA-t, és a DeepSeek által alkalmazott PTX (Parallel Thread Execution) utasítások továbbra is a CUDA ökoszisztéma részét képezik. „Rövid távon az Nvidia számítási teljesítményét nem lehet megkerülni – ez különösen a betanításban egyértelmű; azonban a hazai kártyák logikai telepítése viszonylag könnyebb lesz, így a haladás valószínűleg gyorsabb lesz. A hazai kártyák adaptálása elsősorban a következtetésre összpontosít; még senkinek sem sikerült a DeepSeek teljesítményének modelljét hazai kártyákon nagy léptékben betanítani” – jegyezte meg egy iparági elemző az AI Technology Review-nak. Összességében a következtetés szempontjából a körülmények biztatóak a hazai nagyméretű chipek számára. A hazai chipgyártók lehetőségei a következtetés területén még nyilvánvalóbbak a betanítás túlzottan magas követelményei miatt, amelyek akadályozzák a piacra lépést. Az elemzők szerint elegendő a hazai következtetési kártyák egyszerű kihasználása; szükség esetén egy további gép beszerzése is megvalósítható, míg a betanítási modellek egyedi kihívásokat jelentenek – a megnövekedett számú gép kezelése megterhelővé válhat, és a magasabb hibaszázalék negatívan befolyásolhatja a betanítási eredményeket. A betanításnak specifikus klaszterszint-követelményei is vannak, míg a klaszterekkel szemben támasztott követelmények a következtetéshez nem olyan szigorúak, így enyhítik a GPU-követelményeket. Jelenleg az Nvidia egyetlen H20-as kártyájának teljesítménye nem haladja meg a Huawei vagy a Cambrian teljesítményét; erőssége a klaszterezésben rejlik. A számítási teljesítmény piacára gyakorolt ​​​​általános hatás alapján a Luchen Technology alapítója, You Yang az AI Technology Review-nak adott interjújában megjegyezte: "A DeepSeek ideiglenesen alááshatja az ultra-nagy betanító számítási klaszterek létrehozását és bérlését. Hosszú távon a nagy modellek betanításával, érvelésével és alkalmazásával kapcsolatos költségek jelentős csökkentésével a piaci kereslet valószínűleg megugrott. Az ezen alapuló MI későbbi iterációi ezért folyamatosan növelik a keresletet a számítási teljesítmény piacán." Továbbá „A DeepSeek érvelési és finomhangolási szolgáltatások iránti megnövekedett igénye jobban összeegyeztethető a hazai számítási környezettel, ahol a helyi kapacitások viszonylag gyengék, ami segít mérsékelni a klaszterek létrehozása utáni kihasználatlan erőforrásokból származó pazarlást; ez életképes lehetőségeket teremt a gyártók számára a hazai számítási ökoszisztéma különböző szintjein.” A Luchen Technology együttműködött a Huawei Clouddal a DeepSeek R1 sorozatú érvelési API-k és felhőalapú képalkotási szolgáltatások elindításában, amelyek a hazai számítási teljesítményen alapulnak. You Yang optimizmust fejezett ki a jövővel kapcsolatban: „A DeepSeek bizalmat kelt a hazai gyártású megoldások iránt, nagyobb lelkesedést és befektetést ösztönöz a hazai számítási képességekbe a jövőben.”

微信图片_20240614024031.jpg1

Következtetés

Az, hogy a DeepSeek „jobb”-e a ChatGPT-nél, a felhasználó konkrét igényeitől és céljaitól függ. A rugalmasságot, alacsony költségeket és testreszabhatóságot igénylő feladatokhoz a DeepSeek lehet a jobb. Kreatív írás, általános kérdések és felhasználóbarát társalgási felületek esetén a ChatGPT kerülhet az élre. Minden eszköz más célt szolgál, így a választás nagymértékben függ attól a kontextustól, amelyben használják őket.

ELV kábelmegoldások keresése

Vezérlőkábelek

BMS, busz, ipari és műszerkábelekhez.

Strukturált kábelezési rendszer

Hálózat és adat, optikai kábel, patch kábel, modulok, előlap

2024-es kiállítások és rendezvények áttekintése

2024. április 16-18. Közel-Kelet-Energia Dubaiban

2024. április 16-18. Securika Moszkvában

2024. május 9. ÚJ TERMÉKEK ÉS TECHNOLÓGIÁK BEMUTATÓ RENDEZVÉNYE Sanghajban

2024. október 22-25., SECURITY CHINA Pekingben

2024. november 19-20. CONNECTED WORLD Szaúd-Arábia


Közzététel ideje: 2025. február 10.