DeepSeek: Az AI táj forradalmasító zavaró

AIPU Waton csoport

Bevezetés

Folyamatos szorongás a versengő nagy modellek, a piaci részesedésért versenyző felhőszolgáltatók és a szorgalmas chipgyártók körében - a mélymagos hatás továbbra is fennáll.

Ahogy a tavaszi fesztivál közeledik, a DeepSeek körüli izgalom továbbra is erős. A közelmúltbeli ünnep kiemelte a technológiai iparban a verseny jelentős érzetét, sokan megvitatták és elemezték ezt a "harcsa" -ot. A Szilícium-völgy példátlan válságérzetet tapasztal: a nyílt forráskódú támogatói ismét véleményt nyilvánítanak, sőt az Openai újraértékelje, hogy a zárt forrású stratégiája a legjobb választás volt-e. Az alacsonyabb számítási költségek új paradigmája láncreakciót váltott ki az olyan chip-óriások körében, mint az NVIDIA, ami az Egyesült Államok tőzsdei történetében egynapos piaci értékveszteségeket eredményez, míg a kormányzati ügynökségek a DeepSeek által használt chipek betartását vizsgálják. A tengerentúli DeepSeek vegyes áttekintései mellett, belföldön, rendkívüli növekedést tapasztal. Az R1 modell elindítása után a kapcsolódó alkalmazás növekedett a forgalomban, jelezve, hogy az alkalmazás ágazatok növekedése elősegíti az AI ökoszisztémát. A pozitív szempont az, hogy a DeepSeek kibővíti az alkalmazási lehetőségeket, ami azt sugallja, hogy a CHATGPT -re való támaszkodás a jövőben nem lesz olyan drága. Ez a váltás tükröződik az Openai legutóbbi tevékenységeiben, ideértve az O3-MINI nevű érvelési modell szolgáltatását a Free felhasználók számára a DeepSeek R1-re adott válaszként, valamint az azt követő frissítéseket, amelyek az O3-Mini gondolatláncát nyilvánosságra hozták. Számos tengerentúli felhasználó hálát fejezett ki a DeepSeekért ezekért a fejleményekért, bár ez a gondolatlánc összefoglalóként szolgál.

Optimista módon nyilvánvaló, hogy a DeepSeek egyesíti a hazai játékosokat. A képzési költségek csökkentésére összpontosítva, a különféle upstream chipgyártók, a közbenső felhőszolgáltatók és számos induló vállalkozás aktívan csatlakozik az ökoszisztémához, javítva a költséghatékonyságot a DeepSeek modell használatához. A DeepSeek dokumentumai szerint a V3 modell teljes edzéséhez mindössze 2,788 millió H800 GPU órát igényel, és az edzési folyamat rendkívül stabil. A MOE (a szakértők keveréke) architektúra elengedhetetlen az edzés előtti költségek tízszeresével, összehasonlítva a LLAMA 3-hoz képest, 405 milliárd paraméterrel. Jelenleg a V3 az első nyilvánosan elismert modell, amely a Moe -ban ilyen magas sparsitást mutat be. Ezenkívül az MLA (többrétegű figyelem) szinergetikusan működik, különösen az érvelés szempontjából. "Minél ritkább a moe, annál nagyobb a tétel mérete az érvelés során, hogy teljes mértékben kihasználhassa a számítási teljesítményt, és a KVCACHE mérete a legfontosabb korlátozó tényező; az MLA jelentősen csökkenti a KVCACHE méretét" - jegyezte meg a Chuanjing Technology kutatója az AI Technology Review elemzésében. Összességében a DeepSeek sikere a különféle technológiák kombinációjában rejlik, nem csak egyetlen. Az ipari bennfentesek dicsérik a DeepSeek csapat mérnöki képességeit, megjegyezve, hogy kiválóságuk a párhuzamos képzésben és az operátor optimalizálásában, és minden részlet finomításával úttörő eredményeket ér el. A DeepSeek nyílt forráskódú megközelítése tovább fokozza a nagy modellek általános fejlesztését, és várható, hogy ha hasonló modellek képeket, videókat és még sok másra bővülnek, ez jelentősen serkenti a keresletet az iparban.

Lehetőségek a harmadik féltől származó érvelési szolgáltatásokhoz

Az adatok azt mutatják, hogy a kiadás óta a DeepSeek mindössze 21 napon belül felhalmozódott a 22,15 millió napi aktív felhasználó (DAU), elérve a CHATGPT felhasználói bázisának 41,6% -át, és meghaladja a Doubao napi aktív alkalmazóinak 16,95 millió aktív felhasználóját, így világszerte a leggyorsabban növekvő alkalmazásává válik, és az Apple App Store-t 157 országban/régiókban. Miközben a felhasználók drogokba kerültek, a számítógépes hackerek könyörtelenül támadják meg a DeepSeek alkalmazást, és jelentős feszültséget okoztak a szerverein. Az iparági elemzők úgy vélik, hogy ez részben annak köszönhető, hogy a DeepSeek kártyák kiképzésre kerülnek, miközben nincs elegendő számítási képesség az érveléshez. Egy iparági bennfentes tájékoztatta az AI technológiai áttekintést: "A gyakori szerver problémái könnyen megoldhatók díjakkal vagy finanszírozással, hogy több gépet vásároljanak; végül a DeepSeek döntéseitől függ." Ez kompromisszumot jelent a technológiára és a termelésre való összpontosításra. A DeepSeek nagymértékben támaszkodott a kvantum kvantálódásra az önmegfelelődés szempontjából, kevés külső finanszírozást kapott, ami viszonylag alacsony cash flow nyomást és tisztább technológiai környezetet eredményezett. Jelenleg, a fent említett problémák fényében, néhány felhasználó sürgeti a Mélységben a közösségi médiában, hogy emelje fel a felhasználási küszöbértékeket, vagy vezessen be fizetett funkciókat a felhasználói kényelem fokozása érdekében. Ezenkívül a fejlesztők megkezdték a hivatalos API vagy harmadik fél API-k használatát az optimalizáláshoz. A DeepSeek nyitott platformja azonban a közelmúltban bejelentette: "A jelenlegi szerver erőforrások ritkák, és az API szolgáltatási újratöltéseket felfüggesztették."

 

Ez kétségtelenül több lehetőséget nyit meg az AI infrastruktúra-szektor harmadik fél gyártóinak. A közelmúltban számos hazai és nemzetközi felhő óriás indította el a DeepSeek Model API -ját - az Overeas Giants Microsoft és az Amazon január végén csatlakoztak az elsők között. A hazai vezető, a Huawei Cloud az első lépést tett, és a Mélység R1 és a V3 érvelési szolgáltatásait kiadta a február 1-jén a szilícium-alapú Flow-val együttműködve. Az AI Technology Review jelentései azt mutatják, hogy a szilícium-alapú Flow szolgáltatásai a felhasználók beáramlását látták, amely ténylegesen összeomlott "a platformon. A három nagy technológiai vállalat-a BAT (Baidu, Alibaba, Tencent) és a Bydedance-szintén kiadott olcsó, korlátozott időtartamú ajánlatokat, február 3-tól kezdve, emlékeztetve a tavalyi Cloud eladó Price Wars-t, amelyet a DeepSeek V2 modellindítása meggyújtott, ahol a DeepSeek elkezdte megnevezni az "Price Butcher" -et. A felhő-gyártók őrült cselekedetei visszatükrözik a Microsoft Azure és az Openai közötti korábbi szoros kapcsolatokat, ahol 2019-ben a Microsoft jelentős 1 milliárd dolláros beruházást hajtott végre az Openai-ba, és a Chatgpt 2023-ban történő bevezetése után a Meta nyílt forrású láma után elkezdte a szoros kapcsolatot, hogy a Meta Open Sourced Llam-n kívüli előrelépéseket kövessen el. Ebben az esetben a DeepSeek nemcsak meghaladta a CHATGPT-t a termékhőben, hanem az O1 kiadását követő nyílt forráskódú modelleket is bevezette, hasonlóan a Llama GPT-3 újjáéledését körülvevő izgalomhoz.

 

A valóságban a felhőszolgáltatók az AI alkalmazások forgalmi átjárókként is pozicionálják magukat, vagyis a fejlesztőkkel való kapcsolatok elmélyítése megelőző előnyöket jelent. A jelentések azt mutatják, hogy a Baidu Smart Cloudnak több mint 15 000 ügyfele volt a DeepSeek modell felhasználásával a Qianfan platformon a modell indítási napján. Ezenkívül számos kisebb cég kínál megoldásokat, köztük a szilícium-alapú Flow-t, a Luchen Technology-t, a Chuanjing technológiát és a különféle AI infra-szolgáltatókat, amelyek támogatást indítottak a DeepSeek modellek számára. Az AI Technology Review megtudta, hogy a DeepSeek lokalizált telepítéseinek jelenlegi optimalizálási lehetőségei elsősorban két területen léteznek: az egyik optimalizálja a MOE modell sparsity -jellemzőit, vegyes érvelési megközelítést alkalmazva a 671 milliárd milliárd paraméter Moe modell telepítésére, miközben hibrid GPU/CPU következtetéseket alkalmaz. Ezenkívül az MLA optimalizálása létfontosságú. A DeepSeek két modelljének azonban továbbra is néhány kihívással kell szembenéznie a telepítés optimalizálásában. "A modell méretének és számos paraméterének köszönhetően az optimalizálás valóban összetett, különösen a helyi telepítéseknél, ahol a teljesítmény és a költségek közötti optimális egyensúly elérése kihívást jelent" - mondta a Chuanjing Technology kutatója. A legjelentősebb akadály a memória kapacitási korlátok leküzdésében rejlik. "Heterogén együttműködési megközelítést alkalmazunk a CPU-k és más számítási erőforrások teljes felhasználására, csak a ritka Moe mátrix nem megosztott részeit helyezzük el a CPU/DRAM-ra a nagy teljesítményű CPU-operátorok felhasználásával történő feldolgozáshoz, míg a sűrű részek a GPU-n maradnak"-magyarázta tovább. A jelentések azt mutatják, hogy a Chuanjing nyitott forrású, a KTransFormers nyílt forráskódú kerete elsősorban különféle stratégiákat és operátorokat injektál az eredeti Transformers megvalósításba egy sablonon keresztül, jelentősen javítva a következtetési sebességet olyan módszerekkel, mint a Cudagraph. A DeepSeek lehetőséget teremtett ezekre az induló vállalkozásokra, mivel a növekedési előnyök nyilvánvalóvá válnak; Számos cég számolt be az ügyfelek észrevehető növekedéséről a DeepSeek API elindítása után, és az optimalizálást kereső korábbi ügyfelektől kérdést kapott. Az iparág bennfentesei megjegyezték: "A múltban a kissé megalapozott ügyfélcsoportokat gyakran bezárták a nagyobb vállalatok szabványosított szolgáltatásaiba, szorosan kötve a méretarányos költségek előnyeivel. A DeepSeek-R1/V3 telepítésének befejezése után azonban a tavaszi fesztivál előtt hirtelen együttműködési kérelmeket kaptunk, és még a korábban még nem működő ügyfelek kezdeményezték a kapcsolatot a DeepSeek szolgáltatásaink bevezetésére." Jelenleg úgy tűnik, hogy a DeepSeek egyre kritikusabbá teszi a modellek következtetéseit, és a nagy modellek szélesebb körű elfogadásával ez továbbra is jelentősen befolyásolja az AI infra -ipar fejlődését. Ha egy mélymagos szintű modellt helyben lehet telepíteni olcsó költséggel, akkor ez nagymértékben segítené a kormányt és a vállalati digitális átalakulási erőfeszítéseket. A kihívások azonban továbbra is fennállnak, mivel egyes ügyfelek magas elvárásokkal rendelkezhetnek a nagy modell képességekkel kapcsolatban, így nyilvánvalóbbá teszi, hogy a teljesítmény és a költségek kiegyensúlyozása létfontosságúvá válik a gyakorlati telepítésben. 

Annak felmérése érdekében, hogy a DeepSeek jobb -e, mint a chatgpt, elengedhetetlen a legfontosabb különbségeik, erősségeik és használati esetek megértése. Itt egy átfogó összehasonlítás:

Feature/Aspect Mélység Citgpt
Tulajdon Egy kínai cég fejlesztette ki Az Openai fejlesztette ki
Forrásmodell Nyílt forráskód Szabadalmazott
Költség Szabadon használható; Olcsóbb API -hozzáférési lehetőségek Előfizetés vagy fizetésenkénti árképzés
Testreszabás Nagyon testreszabható, lehetővé téve a felhasználók számára, hogy csípjenek és építsenek rá Korlátozott testreszabás elérhető
Teljesítmény konkrét feladatokban Kitűnő bizonyos területeken, például az adatelemzés és az információkeresés Sokoldalú, erős előadással a kreatív írásban és a beszélgetési feladatokban
Nyelvtámogatás Erősen összpontosít a kínai nyelvre és kultúrára Széles nyelvi támogatás, de az USA-központú
Képzési költségek Alacsonyabb képzési költségek, a hatékonyság érdekében optimalizálva Magasabb képzési költségek, jelentős számítási forrásokat igényelve
Válaszváltozás Különböző válaszokat kínálhat, amelyeket valószínűleg a geopolitikai kontextus befolyásol Konzisztens válaszok képzési adatok alapján
Célközönség A fejlesztők és a kutatók számára, akik rugalmasságot akarnak Az általános felhasználók számára, akik beszélgetési képességeket keresnek
Használati eseteket használ Hatékonyabb a kódgeneráláshoz és a gyors feladatokhoz Ideális a szöveg előállításához, a lekérdezések megválaszolásához és a párbeszédben való részvételhez

A "nvidia" megzavarásának kritikus perspektívája

Jelenleg a Huawei mellett számos háztartási chipgyártó, például a Moore Threads, a Muxi, a Biran Technology és a Tianxu Zhixin szintén alkalmazkodik a DeepSeek két modelljéhez. Egy chipgyártó elmondta az AI Technology Review -nek: "A DeepSeek struktúrája innovációt mutat, mégis továbbra is LLM. A DeepSeek -hez való adaptációnk elsősorban az indoklásra összpontosít, így a műszaki megvalósítás meglehetősen egyszerű és gyors." A MOE megközelítés azonban nagyobb igényeket igényel a tárolás és az eloszlás szempontjából, a kompatibilitás biztosításával, amikor a háztartási chipekkel telepítik, és számos mérnöki kihívást jelentenek, amelyek az adaptáció során megoldást igényelnek. "Jelenleg a háztartási számítási teljesítmény nem felel meg az NVIDIA -nak a használhatóság és a stabilitás terén, és az eredeti gyári részvételt igényel a szoftver környezet beállításához, a hibaelhárításhoz és az alapvető teljesítmény -optimalizáláshoz" - mondta az iparági szakember gyakorlati tapasztalatok alapján. Ezzel egyidejűleg: "A DeepSeek R1 nagy paraméter skálájának köszönhetően a háztartási számítási teljesítményhez több csomópont szükséges a párhuzamosításhoz. Ezenkívül a háztartási hardver specifikációi még mindig hátrahagynak; például a Huawei 910b jelenleg nem tudja támogatni a DeepSeek által bevezetett FP8 következtetést." A DeepSeek V3 modell egyik legfontosabb eleme egy FP8 vegyes precíziós edzési keret bevezetése, amelyet egy rendkívül nagy modell alapján hatékonyan validáltak, és jelentős eredményt jelentenek. Korábban olyan nagy szereplők, mint a Microsoft és az Nvidia, a kapcsolódó munkát javasolták, de kételkednek az iparban a megvalósíthatóság szempontjából. Magától értetődik, hogy az INT8-hoz képest az FP8 elsődleges előnye, hogy az edzés utáni kvantálás szinte veszteségmentes pontosságot érhet el, miközben jelentősen javítja a következtetési sebességet. Az FP16 -hoz való összehasonlításkor az FP8 akár kétszer is gyorsulhat az NVIDIA H20 -ban és több mint 1,5 -szeres gyorsulást a H100 -on. Nevezetesen, mivel a háztartási számítási erő és a háztartási modellek tendenciájával kapcsolatos viták lendületet kapnak, a spekulációk arról, hogy az NVIDIA megszakadhat -e, és hogy a CUDA várárok megkerülhetők -e, egyre inkább elterjedt. Az egyik tagadhatatlan tény az, hogy a DeepSeek valóban jelentős csökkenést okozott az NVIDIA piaci értékében, ám ez a váltás kérdéseket vet fel az NVIDIA csúcskategóriás számítási teljesítmény-integritásával kapcsolatban. A tőke-vezérelt számítási felhalmozódásról szóló korábban elfogadott narratívákat megtámadják, ám az NVIDIA-nak továbbra is nehéz, hogy teljes mértékben helyettesítsék a képzési forgatókönyvekben. A DeepSeek CUDA mély felhasználásának elemzése azt mutatja, hogy a rugalmasság - például az SM kommunikációhoz vagy a hálózati kártyák közvetlen manipulálásához - nem lehetséges a szokásos GPU -k számára. Az iparági szempontok hangsúlyozzák, hogy az NVIDIA várárai a CUDA ökoszisztémájának teljes, nem pedig a CUDA -t magukban foglalják, és a PTX (párhuzamos szál végrehajtás) utasítások, amelyeket a DeepSeek alkalmazott, továbbra is a CUDA ökoszisztéma részét képezi. "Rövid távon az NVIDIA számítási erejét nem lehet megkerülni - ez különösen egyértelmű a képzésben; azonban a háztartási kártyák indokláshoz történő telepítése viszonylag könnyebb lesz, tehát a haladás valószínűleg gyorsabb lesz. A hazai kártyák adaptációja elsősorban a következtetésekre összpontosít; még senki sem sikerült képezni a mélyösés teljesítményének modelljét a háztartási kártyákra", az iparági elemzőknek az AI technológiára vonatkozóan. Összességében következtetési szempontból a körülmények biztatóak a háztartási nagy modell chipeknél. A háztartási chipgyártók lehetőségei a következtetés területén belül sokkal nyilvánvalóbbak a képzés túl magas követelményei miatt, amelyek akadályozzák a belépést. Az elemzők azt állítják, hogy elegendő a háztartási következtetési kártyák egyszerű kiaknázása; Szükség esetén megvalósítható egy kiegészítő gép beszerzése, míg az edzési modellek egyedi kihívásokat jelentenek - a megnövekedett számok kezelése terhessé válhat, és a magasabb hibaarány negatívan befolyásolhatja az edzés eredményeit. A képzésnek konkrét klaszter -skála követelményei is vannak, míg a klaszterekre vonatkozó következtetési igények nem olyan szigorúak, ezáltal megkönnyítve a GPU követelményeit. Jelenleg az Nvidia Single H20 -kártyájának teljesítménye nem haladja meg a Huawei vagy a Cambrian teljesítményét; Erőssége a klaszterezésben rejlik. A Luchen Technology alapítója, az AI Technology Review interjújában megjegyezte a Luchen Technology alapítójára, a Luchen Technology alapítója alapján: "A DeepSeek ideiglenesen alááshatja az ultra nagy képzési számítási klaszterek létesítését és bérleti díját. Hosszú távon, azáltal, hogy jelentősen csökkenti a nagymodell képzéshez kapcsolódó költségeket, az indokláshoz és az alkalmazásokhoz, az indoklás, és az alkalmazások, a piac iránti igény, a forgalomba hozatal, az indoklás, és az alkalmazások, az alkalmazások, az alkalmazások, az alkalmazások, az alkalmazások, az alkalmazások, az alkalmazások, az alkalmazások, és az alkalmazások, az alkalmazások, az indoklások, és az alkalmazások. tartós kereslet a számítási energiapiacon. " Ezenkívül "a DeepSeek fokozott érvelési és finomhangolási szolgáltatások iránti igénye jobban összeegyeztethető a hazai számítási tájakkal, ahol a helyi kapacitások viszonylag gyengék, segítve a tétlen erőforrások poszt-alapításának tétleninek enyhítését; ez életképes lehetőségeket teremt a gyártók számára a háztartási számítási ökoszisztéma különböző szintjeinél." A Luchen Technology együttműködött a Huawei Cloud -szal a DeepSeek R1 Series Indinging API -k és a Cloud Imaging szolgáltatások elindításában a hazai számítási teljesítmény alapján. Yang Yang optimizmust fejezett ki a jövőben: "A DeepSeek bizalmat ösztönöz a belföldön előállított megoldásokba, ösztönözve a nagyobb lelkesedést és a hazai számítási képességekbe történő beruházásokat."

微信图片 _20240614024031.jpg1

Következtetés

Az, hogy a DeepSeek "jobb", mint a chatgpt, a felhasználó sajátos igényeitől és célkitűzéseitől függ. A rugalmasságot, az olcsó költségeket és a testreszabást igénylő feladatok esetében a DeepSeek jobb lehet. A kreatív írás, az általános vizsgálat és a felhasználóbarát beszélgetési interfészek érdekében a CHATGPT vállalhatja a vezetést. Minden eszköz különböző célokat szolgál, tehát a választás nagymértékben függ attól a kontextustól, amelyben használják őket.

Keresse meg az ELV kábel megoldást

Vezérlő kábelek

BMS, busz, ipari, műszeres kábelhez.

Strukturált kábelrendszer

Hálózat és adatok, száloptikai kábel, javítózsinór, modulok, előlapok

2024 kiállítások és események áttekintése

2024. április 16.-18.

2024. április 16-án, 1824-ben Securika Moszkvában

2024. május 9 -én új termékek és technológiák indító rendezvénye Sanghajban

2024. október 22., 25., Biztonsági Kína Pekingben

2024. november 19.20. Csatlakoztatott világ KSA


A postai idő: 2010. február 10-én