डीप लर्निंग जीपीयू बेंचमार्क

हम अपने काम के लिए भाषा मॉडल को लगातार प्रशिक्षित कर रहे हैं। हमारी टीम विभिन्न कार्यों के लिए चुने गए दर्जनों अलग-अलग वीडियो कार्ड का उपयोग करती है: कहीं न कहीं हमें एक शक्तिशाली डीजीएक्स स्टेशन की आवश्यकता होती है, और कहीं न कहीं आरटीएक्स २०८० टीआई जैसा पुराना गेमिंग कार्ड पर्याप्त है। मॉडल प्रशिक्षण के लिए इष्टतम जीपीयू चुनने से प्रक्रिया की गति और लागत-प्रभावशीलता दोनों पर महत्वपूर्ण प्रभाव पड़ सकता है।

दिलचस्प बात यह है कि मशीन लर्निंग के लिए जीपीयू तुलना के साथ इंटरनेट पर काफी लेख हैं, लेकिन भाषा मॉडल प्रशिक्षण के लिए गति पर बहुत कम ध्यान केंद्रित किया गया है। अधिकतर केवल अनुमान परीक्षण ही पाए जाते हैं। जब नई H100 चिप जारी की गई, तो NVIDIA की रिपोर्ट में कहा गया कि यह प्रशिक्षण में A100 से नौ गुना तेज थी, लेकिन हमारे कार्यों के लिए, नया कार्ड पुराने कार्ड की तुलना में केवल 90% तेज था। तुलनात्मक रूप से, हमारे क्लाउड प्रदाताओं के पास इन जीपीयू के बीच २ गुना मूल्य अंतर था, इसलिए पैसे बचाने के लिए नए एच १०० पर स्विच करने का कोई मतलब नहीं था।

इसके अलावा, हमने परीक्षण के लिए एक डीजीएक्स स्टेशन लिया, जिसमें 8 ए100 80 जीबी ग्राफिक्स कार्ड हैं और इसकी कीमत 10 हजार डॉलर प्रति माह है। परीक्षण के बाद, यह स्पष्ट हो गया कि इस स्टेशन का मूल्य/प्रदर्शन अनुपात हमें बिल्कुल भी सूट नहीं करता है और इस पैसे के लिए, हम ६६ एक्स आरटीएक्स ३०९० ले सकते हैं, जो कुल मिलाकर बहुत अधिक उपयोगी होगा।

हमारे अनुवाद भाषा मॉडल में 500 मिलियन पैरामीटर (औसतन 100 मिलियन से 300 मिलियन) हैं। यह संभव है कि यदि हम मापदंडों की संख्या में उल्लेखनीय वृद्धि करते हैं, तो डीजीएक्स का मूल्य/प्रदर्शन अनुपात बेहतर होगा। वर्तमान में, हम बड़े भाषा मॉडल को प्रशिक्षित नहीं करते हैं जो सभी भाषाओं के बीच एक ही बार में सभी विविधताओं में अनुवाद कर सकते हैं, लेकिन प्रत्येक भाषा जोड़ी के लिए अलग-अलग भाषा मॉडल का उपयोग करते हैं, जैसे। अंग्रेजी जर्मन। ऐसे प्रत्येक मॉडल में 120 से 300 एमबी तक का समय लगता है।

यह ध्यान देने योग्य है कि विभिन्न भाषाओं में इंटरनेट पर अलग-अलग मात्रा में डेटा होता है, और जबकि। उदाहरण के लिए, स्पैनिश के लिए, आप अनुवाद के साथ 500 मिलियन वाक्य पा सकते हैं, लेकिन तिब्बती जैसी दुर्लभ भाषाओं के लिए मॉडल का प्रशिक्षण करते समय, आपको उपलब्ध डेटा के आधार पर मशीन लर्निंग कार्यों के लिए एक विशिष्ट जीपीयू चुनने की आवश्यकता होती है। अंग्रेजी से स्पेनिश में अनुवाद मॉडल बनाने के लिए, हम 4 x RTX 4500 और 256GB RAM वाले सर्वर का उपयोग करते हैं। इसी समय, तिब्बती भाषा को १६ जीबी रैम के साथ आरटीएक्स २०८० टीआई पर प्रशिक्षित किया जा सकता है, क्योंकि यह तंत्रिका नेटवर्क की जटिलता को बढ़ाने के लिए कोई मतलब नहीं है और परिणामस्वरूप, डेटा की एक छोटी मात्रा के साथ अधिक शक्तिशाली सर्वर लेने के लिए।

ग्राफिक्स प्रोसेसर और सैद्धांतिक आंकड़े का चयन

भाषा मॉडल प्रशिक्षण ओपनएनएमटी-टीएफ ढांचे का उपयोग करके हमारे आंतरिक डेटा स्टूडियो प्लेटफॉर्म पर हुआ। इस चरण में डेटा तैयारी, मॉडल प्रशिक्षण और संदर्भ अनुवाद के साथ मॉडल तुलना शामिल थी। प्रशिक्षण के दौरान एफपी32 के बजाय एफपी16 का उपयोग करने से हमें अनुवाद की गुणवत्ता में गिरावट किए बिना भाषा मॉडल के प्रशिक्षण समय को काफी कम करने की अनुमति मिली, लेकिन हमारे सभी जीपीयू ने इसका समर्थन नहीं किया।

ग्राफिक्स प्रोसेसर चुनते समय, प्रोसेसिंग पावर (टीएफएलओपीएस), वीडियो मेमोरी (वीआरएएम), जीपीयू बेंचमार्क परिणाम, लाइब्रेरी और फ्रेमवर्क समर्थन, बजट और अन्य कारकों (ग्राफिक्स कार्ड का आकार और फॉर्म फैक्टर, पावर आवश्यकताएं) जैसे मेट्रिक्स पर विचार करना मानक है।, शीतलन, और आपके सिस्टम के साथ अनुकूलता)। पाठ पीढ़ी मॉडल का प्रशिक्षण करते समय, आपको यह भी ध्यान रखना चाहिए कि विभिन्न भाषाएं विभिन्न मात्रा में संसाधनों का उपभोग करेंगी। उदाहरण के लिए, लैटिन भाषाओं के लिए एक वर्ण को एन्कोड करने के लिए 1 बाइट, सिरिलिक भाषाओं के लिए 2 बाइट्स और चित्रलिपि वाली भाषाओं के लिए 3 बाइट्स का उपयोग किया जाता है। यह समझना कि आपके ग्राफिक्स कार्ड में क्या विशेषताएं होंगी, सीखने की प्रक्रिया की गति पर महत्वपूर्ण प्रभाव पड़ेगा।

उपयोग किए गए जीपीयू के संदर्भ में मॉडलों को प्रशिक्षित करते समय, वीडियो कार्ड को उपयोग की अवधि के अनुसार दो समूहों में विभाजित किया गया था: प्रारंभिक वीडियो कार्ड, जिनका उपयोग सीखने की गति का पहला माप करने के लिए किया गया था, और वर्तमान में उपयोग में आने वाले कार्ड। इन ग्राफ़िक्स कार्डों की मुख्य विशेषताएं क्रमशः तालिका 1 और तालिका 2 में पाई जा सकती हैं।

तालिका 1 - पहले प्रयुक्त ग्राफ़िक्स प्रोसेसर और उनके तकनीकी पैरामीटर
 

Number of GPUsGPUVRAM, GCUDAFP16,
TFLOPS
FP32,
TFLOPS
1Tesla V100-SXM2HBM2, 167.031.3316.31
2Tesla V100-SXM2HBM2, 327.031.3315.67
1RTX 4060 TiGDDR6, 88.922.0622.06
1Nvidia A40GDDR6, 488.637.4237.42
2Nvidia A40GDDR6, 968.637.4237.42
1Nvidia A100HBM2, 408.077.9719.49
1Nvidia A100HBM2, 808.077.9719.49
1Nvidia RTX A6000GDDR6, 488.638.7138.71
1Nvidia A10GDDR6, 248.631.2431.24
8Nvidia A10GDDR6, 1928.631.2431.24
1Nvidia H100HBM3, 809.0204.951.22


नोट्स
1. 7.0 से अधिक CUDA के साथ, FP16 का उपयोग करने से CUDA संस्करण और ग्राफिक्स कार्ड की विशेषताओं के आधार पर प्रशिक्षण गति में वृद्धि होगी।
2. यदि ग्राफिक्स कार्ड का विनिर्देश इंगित करता है कि एफपी16 से एफपी32 प्रदर्शन अनुपात 1 से 1 से अधिक है, तो मिश्रित परिशुद्धता का उपयोग करके विनिर्देश में निर्दिष्ट मात्रा से प्रशिक्षण गति बढ़ाने की गारंटी दी जाएगी। उदाहरण के लिए, क्वाड्रो आरटीएक्स 6000 के लिए 32.62 (2:1) का एफपी16 टीएफएलओपीएस मान वर्कआउट को कम से कम दो गुना (व्यवहार में 2.4 गुना) तेज कर देगा

तालिका 2 - वर्तमान में उपयोग किए जाने वाले जीपीयू मॉडल और उनकी मुख्य विशेषताएं
 

Number of GPUs in useGPUVRAM, GCUDAFP16,
TFLOPS
FP32,
TFLOPS
1Quadro RTX 6000GDDR6, 247.532.6216.31
2Quadro RTX 6000GDDR6, 487.532.6216.31
4Quadro RTX 6000GDDR6, 967.532.6216.31
2Nvidia TITAN RTXGDDR6, 487.532.6216.31
4Nvidia RTX A4500GDDR6, 968.623.6523.65
1Nvidia GeForce RTX 3090GDDR6X, 248.635.5835.58
1Nvidia GeForce RTX 3070GDDR6, 88.620.3120.31

* - FP16,TFLOPS और FP32,TFLOPS के मान प्रति GPU विनिर्देशों से लिए गए हैं

जीपीयू प्रशिक्षण और परीक्षण प्रक्रिया

मॉडलों को 18 जीपीयू के सेट का उपयोग करके प्रशिक्षित किया गया था। तंत्रिका नेटवर्क प्रशिक्षण की प्रक्रिया में, हमने कई भाषा जोड़े (सौ से अधिक भाषाएँ) का उपयोग किया। जीपीयू परीक्षणों ने यह पहचानने में मदद की है कि कौन सा हार्डवेयर विशिष्ट कार्यों के लिए सबसे अच्छा प्रदर्शन करता है। हमारी भाषा जोड़े के प्रशिक्षण के दौरान, निम्नलिखित तंत्रिका नेटवर्क मापदंडों को आधार के रूप में लिया गया थाः
 

  • वोकाब का आकार = 30 000
  • न्यूमुनिट्स = 768
  • परतें = 6
  • शीर्ष = 16
  • आंतरिक आयाम = 4 096


सबसे पहले, आइए तालिका 1 के आधार पर उन जीपीयू को चिह्नित करें जो पहले समूह से संबंधित थे। 1,000 चरणों की अनुमानित गति और 100,000 इकाइयों के बैच आकार के गुणक पर मॉडल को प्रशिक्षित करने में बिताए गए मिनटों और सेकंडों में समय को संकेतकों की तुलना के आधार के रूप में लिया जाएगा।

हम इस बात पर जोर देते हैं कि पहले समूह के लिए, गति माप के उपयोग के साथ किया गया था संरेखण तंत्र और केवल उपयोग करना एफपी32. इस तंत्र का उपयोग किए बिना कुछ सर्वरों पर सीखने की गति बहुत तेज हो सकती है।

संरेखण तंत्र आधार और अनुवादित पाठ में सबस्ट्रिंग के मिलान की अनुमति देता है। स्वरूपित पाठ, जैसे वेब पेज, का अनुवाद करना आवश्यक है, जब किसी वाक्य में एक सबस्ट्रिंग को एक अलग फ़ॉन्ट में हाइलाइट किया जा सकता है और हाइलाइटिंग के साथ अनुवाद किया जाना चाहिए।

तंत्रिका नेटवर्क के उपर्युक्त मापदंडों को ध्यान में रखते हुए, पहली तालिका से सबसे अच्छा समय जीपीयू एनवीडिया एच १०० द्वारा २२ मिनट के सीखने के समय के साथ दिखाया गया था। [+] और मध्यवर्ती समय को उसी ब्रांड GeForce RTX 4060 Ti के GPU द्वारा 72 मिनट के सीखने के समय के साथ दिखाया गया था और अंतिम स्थान GPU टेस्ला V100-SXM 2 द्वारा 140 मिनट के सीखने के समय के साथ लिया गया था।

जीपीयू परीक्षण में 20 मिनट और 28 सेकंड के सीखने की अवस्था के साथ आठ एनवीडिया ए10 कार्ड, 56 मिनट के समय के साथ दो एनवीडिया ए40 कार्ड और 86 मिनट में आने वाले दो टेस्ला वी100-एसएक्सएम कार्ड भी थे। जीपीयू की एक ही श्रृंखला के कई कार्डों का एक साथ अनुप्रयोग मॉडलों की प्रशिक्षण प्रक्रिया को तेज कर सकता है और उच्च क्षमता वाले जीपीयू के साथ लगभग एक ही समय दिखा सकता है, लेकिन ऐसी तकनीक वित्तीय और प्रक्रियात्मक रूप से पर्याप्त तर्कसंगत नहीं हो सकती है। सीखने की गति माप के परिणाम तालिका संख्या 3 में देखे जा सकते हैं।

तालिका 3 - पहले उपयोग किए गए ग्राफिकल मानचित्रों पर प्रशिक्षण समय माप
 

Using the alignment mechanism
Effective batch size = 100 000
FP 32
Number of GPUs in useGPUApproximate speed (min. sec),
1,000 steps
Batch size in use
8Nvidia A1020,286 250
1Nvidia H1002225 000
1A100 (80 Gb)4025 000
1A100 (40 Gb)5615 000
2Nvidia A405612 500
1RTX A600068,2512 500
1GeForce RTX 4060 Ti724 167
1Nvidia A4082,0812 500
2Tesla V100-SXM864 167
1Nvidia A10104,505 000
1Tesla V100-SXM21404 167


इसके बाद, आइए वर्तमान में उपयोग में आने वाले ग्राफिक्स गैस पैडल का तुलनात्मक विश्लेषण करें (तालिका 2)। ग्राफ़िक्स प्रोसेसर के इस समूह के लिए, गति माप का उपयोग करके किया गया था संरेखण तंत्र, साथ ही एफपी16 और एफपी32 का उपयोग करना। इस तंत्र और मिश्रित परिशुद्धता सहित गति माप क्रमशः तालिका 4 और 5 में नीचे प्रस्तुत किए जाएंगे।

इसलिए, इस तालिका से जीपीयू की गति को मापने के बाद, हम कह सकते हैं कि ३१ मिनट के प्रशिक्षण समय के साथ आरटीएक्स ए ४५०० श्रृंखला जीपीयू द्वारा पहला स्थान लिया गया था, लेकिन इस बात पर जोर दिया जाना चाहिए कि प्रशिक्षण मॉडल की ऐसी गति प्राप्त की गई थी ४ तक इस्तेमाल किए गए जीपीयू की इकाइयों की संख्या में वृद्धि। इस तथ्य की उपेक्षा करते हुए, उपरोक्त जीपीयू की प्रशिक्षण गति बहुत अधिक होगी, जो इसे अंतिम तालिका में अंतिम स्थान पर रखेगी।

४७ मिनट के सीखने के समय के साथ क्वाड्रो आरटीएक्स ६००० श्रृंखला जीपीयू दूसरे स्थान पर है। यह ध्यान दिया जाना चाहिए कि ऐसी प्रशिक्षण गति प्रयुक्त प्रोसेसर की इकाइयों की संख्या से विपरीत रूप से वातानुकूलित होती है, जो चार के बराबर होती है। ऐसे केवल एक जीपीयू का उपयोग करने से लगभग 3.2 गुना गति हानि होगी और परिणामस्वरूप लगभग 153 मिनट होंगे और इसे अंतिम स्थान पर रखा जाएगा।

तीसरी पंक्ति टाइटन आरटीएक्स श्रृंखला जीपीयू द्वारा 75 मिनट और 85 सेकंड के समय के साथ ली गई थी। यह सीखने की गति स्कोर 2 प्रोसेसर के उपयोग के कारण है, जिससे मॉडल का प्रशिक्षण समय कम हो गया।

एक इकाई की संख्या में प्रशिक्षण की गति के मामले में निर्विवाद नेता निश्चित रूप से ७८ मिनट और २६ सेकंड के समय के साथ जीफोर्स आरटीएक्स ३०९० श्रृंखला जीपीयू होगा। इस जीपीयू की इकाइयों की संख्या बढ़ाने से मॉडल प्रशिक्षण गति में तेजी आएगी, जो स्पष्ट रूप से उपर्युक्त सभी जीपीयू मॉडल से आगे निकल जाएगी। मॉडल प्रशिक्षण समय माप पर डेटा तालिका 4 में देखा जा सकता है।

तालिका 4 - पहले इस्तेमाल किए गए जीपीयू पर भाषा मॉडल प्रशिक्षण गति का तुलनात्मक विश्लेषण
 

Using the alignment mechanism
Effective batch size = 100 000
FP 32
Number of GPUs in useGPUApproximate speed (min. sec),
1,000 steps
Batch size in use
4Nvidia RTX A4500315 000
4Quadro RTX 6000476 250
2Nvidia TITAN RTX75,856 250
1GeForce RTX 309078,266 250
2Quadro RTX 6000886 250
1GeForce RTX 3070104,172 000
1Quadro RTX 60001536 250


एफपी16 का उपयोग करके निम्नलिखित प्रशिक्षण गति माप किए गए। एफपी32 की तुलना में, आधा परिशुद्धता मॉडल प्रशिक्षण के दौरान खपत की गई मेमोरी की मात्रा को कम करने और जीपीयू पर गणना में तेजी लाने की अनुमति देता है। प्रतिनिधित्व की सटीकता FP32 के उपयोग की तुलना में कम होगी।

पिछली तालिका से एफपी32 का उपयोग करके मॉडलों के प्रशिक्षण समय को मापते हुए, हम कह सकते हैं कि तंत्रिका नेटवर्क का प्रशिक्षण समय लगभग दो गुना कम हो गया था। प्रदर्शन माप परिणामों के आधार पर, हम तालिका 4 में मशीन लर्निंग जीपीयू बेंचमार्क से देख सकते हैं कि जीपीयू की स्थिति काफी हद तक अपरिवर्तित रही। क्वाड्रो आरटीएक्स 6000 श्रृंखला कार्ड GeForce RTX 3090 GPU को 96 सेकंड से हराकर पांचवें स्थान से छठे स्थान पर पहुंच गया। अंतिम संख्याएँ तालिका 5 में दिखाई गई हैं।

तालिका 5 - पहले इस्तेमाल किए गए जीपीयू पर भाषा मॉडल प्रशिक्षण गति का तुलनात्मक विश्लेषण
 

Using the alignment mechanism
Effective batch size = 100 000
FP 16
Number of GPUs in useGPUApproximate speed (min. sec),
1,000 steps
Batch size in use
4Nvidia RTX A450015,8110 000
4Quadro RTX 600020,3412 500
2Nvidia TITAN RTX32,686 250
2Quadro RTX 600037,9310 000
1GeForce RTX 309038,8910 000
1GeForce RTX 307048,512 500
1Quadro RTX 600052,5610 000

अक्सर पूछे जाने वाले प्रश्न (एफएक्यू)

क्या यह गहन सीखने के लिए जीपीयू खरीदने लायक है?

गहन शिक्षण के लिए जीपीयू खरीदने से प्रशिक्षण की गति और दक्षता में काफी वृद्धि हो सकती है, जिससे यह गंभीर परियोजनाओं के लिए एक सार्थक निवेश बन सकता है। हालाँकि, निर्णय में बजट, विशिष्ट उपयोग के मामलों और क्या क्लाउड समाधान अधिक लागत प्रभावी हो सकते हैं जैसे कारकों पर विचार किया जाना चाहिए।

गहन शिक्षण के लिए कौन सा जीपीयू सबसे अच्छा है?

NVIDIA A100 को अक्सर गहन शिक्षण के लिए शीर्ष विकल्प माना जाता है, जो बड़े मॉडलों के लिए असाधारण प्रदर्शन और स्मृति प्रदान करता है। बजट के प्रति जागरूक उपयोगकर्ताओं के लिए, NVIDIA RTX 3090 प्रभावी ढंग से प्रशिक्षण मॉडल के लिए मजबूत क्षमताएं प्रदान करता है।

क्या एएमडी या एनवीआईडीआईए गहन सीखने के लिए बेहतर है?

NVIDIA को आम तौर पर इसके मजबूत सॉफ्टवेयर पारिस्थितिकी तंत्र के कारण गहन शिक्षण के लिए पसंद किया जाता है, जो लोकप्रिय ढांचे के साथ प्रदर्शन और अनुकूलता को बढ़ाता है। जबकि एएमडी जीपीयू में सुधार हुआ है, वे अभी भी गहन शिक्षण अनुप्रयोगों के लिए अनुकूलन और समर्थन के मामले में एनवीआईडीआईए से पीछे हैं।

क्या जीपीयू एनएलपी में मदद करता है?

हां, जीपीयू समानांतर गणनाओं को कुशलतापूर्वक संभालकर प्राकृतिक भाषा प्रसंस्करण (एनएलपी) में तंत्रिका नेटवर्क प्रशिक्षण में काफी तेजी लाते हैं। यह गति वृद्धि तेजी से प्रयोग और पुनरावृत्ति की अनुमति देती है, जिससे मॉडल प्रदर्शन में सुधार होता है और प्रशिक्षण समय कम हो जाता है।

अधिक आकर्षक पाठ प्रतीक्षा कर रहे हैं

ऑन-प्रिमाइस स्पीच रिकॉग्निशन क्या है?

ऑन-प्रिमाइस स्पीच रिकॉग्निशन क्या है?

September 19, 2024

अनुवाद प्रणाली में सांख्यिकीय महत्व का आकलन करना

अनुवाद प्रणाली में सांख्यिकीय महत्व का आकलन करना

September 10, 2024

विपणन में भाषण मान्यता

विपणन में भाषण मान्यता

August 23, 2024

हमसे संपर्क करें

0/250
* आवश्यक फ़ील्ड दर्शाता है

आपकी गोपनीयता हमारे लिए अत्यंत महत्वपूर्ण है; आपके डेटा का उपयोग केवल संपर्क उद्देश्यों के लिए किया जाएगा।

ईमेल

पुरा होना।

आपके अनुरोध को सफलतापूर्वक भेजा गया है

× 
Customize Consent Preferences

We use cookies to help you navigate efficiently and perform certain functions. You will find detailed information about all cookies under each consent category below.

The cookies that are categorized as "Necessary" are stored on your browser as they are essential for enabling the basic functionalities of the site.

We also use third-party cookies that help us analyze how you use this website, store your preferences, and provide the content and advertisements that are relevant to you. These cookies will only be stored in your browser with your prior consent.

You can choose to enable or disable some or all of these cookies but disabling some of them may affect your browsing experience.

Always Active

Necessary cookies are required to enable the basic features of this site, such as providing secure log-in or adjusting your consent preferences. These cookies do not store any personally identifiable data.

No cookies to display.

Always Active

Functional cookies help perform certain functionalities like sharing the content of the website on social media platforms, collecting feedback, and other third-party features.

No cookies to display.

Always Active

Analytical cookies are used to understand how visitors interact with the website. These cookies help provide information on metrics such as the number of visitors, bounce rate, traffic source, etc.

No cookies to display.

Always Active

Performance cookies are used to understand and analyze the key performance indexes of the website which helps in delivering a better user experience for the visitors.

No cookies to display.

Always Active

Advertisement cookies are used to provide visitors with customized advertisements based on the pages you visited previously and to analyze the effectiveness of the ad campaigns.

No cookies to display.