GPU

Vad är det bästa grafikkortet för djupt lärande?

Vad är det bästa grafikkortet för djupt lärande?
Om en CPU är hjärnan på en dator är en GPU själen. Medan de flesta datorer kan fungera utan en bra GPU, är djup inlärning inte möjligt utan en. Detta beror på att djupinlärning kräver komplexa operationer som matrismanipulation, exceptionella beräkningsförutsättningar och betydande datorkraft.

Erfarenhet är avgörande för att utveckla de färdigheter som krävs för att tillämpa djup inlärning i nya frågor. En snabb GPU innebär en snabb vinst i praktisk erfarenhet genom omedelbar feedback. GPU: er innehåller flera kärnor för att hantera parallella beräkningar. De innehåller också omfattande minnesbandbredd för att enkelt hantera denna information.

Vårt bästa rekommenderade val för bästa grafikkort för djupinlärning är Nvidia Geforce RTX 2080 Founders Edition. Köp den nu för $ 1 940 USD på Amazon

Med detta i åtanke försöker vi svara på frågan ”Vad är det bästa grafikkortet för AI, maskininlärning och djupinlärning?”Genom att granska flera grafikkort som för närvarande finns tillgängliga 2021. Recenserade kort:

  1. AMD RX Vega 64
  2. NVIDIA Tesla V100
  3. Nvidia Quadro RTX 8000
  4. GeForce RTX 2080 Ti
  5. NVIDIA Titan RTX

Nedan följer resultaten:


AMD RX Vega 64

Radeon RX Vega 64

Funktioner

Recension

Om du inte gillar NVIDIA GPU: er, eller om din budget inte tillåter dig att spendera mer än $ 500 på ett grafikkort, har AMD ett smart alternativ. AMDs RS Vega 64 är mycket svårt att ignorera med en anständig mängd RAM, en snabb minnesbandbredd och mer än tillräckligt med strömprocessorer.

Vega-arkitekturen är en uppgradering från tidigare RX-kort. När det gäller prestanda ligger den här modellen nära GeForce RTX 1080 Ti, eftersom båda dessa modeller har en liknande VRAM. Dessutom stöder Vega native half-precision (FP16). ROCm och TensorFlow fungerar, men programvaran är inte lika mogen som i NVIDIA-grafikkort.

Allt som allt är Vega 64 en anständig GPU för djup inlärning och AI. Denna modell kostar långt under $ 500 USD och gör jobbet för nybörjare. För professionella applikationer rekommenderar vi dock att du väljer ett NVIDIA-kort.

AMD RX Vega 64 Detaljer: Amazon


NVIDIA Tesla V100

Tesla V100

Funktioner:

Recension:

NVIDIA Tesla V100 är en behemoth och ett av de bästa grafikkorten för AI, maskininlärning och djupinlärning. Detta kort är helt optimerat och kommer packat med alla godsaker man kan behöva för detta ändamål.

Tesla V100 finns i 16 GB och 32 GB minneskonfigurationer. Med massor av VRAM, AI-acceleration, hög minnesbandbredd och specialiserade tensorkärnor för djupinlärning kan du vara säker på att varje träningsmodell kommer att gå smidigt - och på kortare tid. Specifikt kan Tesla V100 leverera 125TFLOPS djupinlärningsprestanda för både träning och inferens [3], möjliggjort av NVIDIAs Volta-arkitektur.

NVIDIA Tesla V100 Detaljer: Amazon, (1)


Nvidia Quadro RTX 8000

Nvidia Quadro Rtx 8000

Funktioner:

Recension:

Speciellt konstruerad för djupinlärningsmatrisberäkningar och beräkningar är Quadro RTX 8000 ett förstklassigt grafikkort. Eftersom det här kortet har stor VRAM-kapacitet (48 GB) rekommenderas den här modellen för att undersöka extra stora beräkningsmodeller. När den används i par med NVLink kan kapaciteten ökas till upp till 96 GB VRAM. Vilket är mycket!

En kombination av 72 RT och 576 Tensor-kärnor för förbättrade arbetsflöden ger över 130 TFLOPS prestanda. Jämfört med det dyraste grafikkortet på vår lista - Tesla V100 - erbjuder den här modellen potentiellt 50 procent mer minne och lyckas fortfarande kosta mindre. Även på installerat minne har den här modellen enastående prestanda när den arbetar med större batchstorlekar på en enda GPU.

Återigen, som Tesla V100, är ​​den här modellen endast begränsad av ditt pristak. Som sagt, om du vill investera i framtiden och i högkvalitativ dator, få en RTX 8000. Vem vet, du kan leda forskningen om AI. Tesla V100 är baserad på Turing-arkitektur där V100 är baserad på Volta-arkitektur, så Nvidia Quadro RTX 8000 kan betraktas som lite modernare och lite kraftfullare än V100.

Nvidia Quadro RTX 8000 Detaljer: Amazon


GeForce RTX 2080 Ti

Geforce RTX 2080 Founders Edition

Funktioner:

Recension:

GeForce RTX 2080 Ti är ett budgetalternativ som är idealiskt för småskaliga arbetsbelastningar, snarare än storskalig träningsutveckling. Detta beror på att det har ett mindre GPU-minne per kort (endast 11 GB). Den här modellens begränsningar blir tydligare när man tränar några moderna NLP-modeller. Det betyder dock inte att detta kort inte kan tävla. Fläktdesignen på RTX 2080 möjliggör mycket tätare systemkonfigurationer - upp till fyra GPU: er inom en enda arbetsstation. Dessutom tränar den här modellen neurala nätverk med 80 procent hastigheterna för Tesla V100. Enligt LambdaLabs riktmärken för djupinlärningsprestanda, jämfört med Tesla V100, är ​​RTX 2080 73% snabbare än FP2 och 55% hastighet för FP16.

Under tiden kostar den här modellen nästan 7 gånger mindre än en Tesla V100. Ur både pris- och prestationssynpunkt är GeForce RTX 2080 Ti en utmärkt GPU för djupinlärning och AI-utveckling.

GeForce RTX 2080 Ti Detaljer: Amazon


NVIDIA Titan RTX

NVIDIA Titan RTX-grafik

Funktioner:

Recension:

NVIDIA Titan RTX är en annan mid-range GPU som används för komplexa djupinlärningsoperationer. Den här modellens 24 GB VRAM räcker för att fungera med de flesta batchstorlekar. Om du vill träna större modeller kan du dock para ihop det här kortet med NVLink-bron för att effektivt få 48 GB VRAM. Detta belopp skulle vara tillräckligt även för stora transformator-NLP-modeller. Dessutom möjliggör Titan RTX träning av modeller med blandad precision i full takt (i.e., FP 16 tillsammans med FP32-ackumulering). Som ett resultat utför denna modell cirka 15 till 20 procent snabbare i operationer där Tensor Cores används.

En begränsning av NVIDIA Titan RTX är designen med två fläktar. Detta hindrar mer komplexa systemkonfigurationer eftersom den inte kan packas i en arbetsstation utan väsentliga ändringar av kylmekanismen, vilket inte rekommenderas.

Sammantaget är Titan en utmärkt, all-purpose GPU för nästan alla djupinlärningsuppgifter. Jämfört med andra grafikkort för allmänt ändamål är det verkligen dyrt. Det är därför den här modellen inte rekommenderas för spelare. Ändå skulle extra VRAM och prestationsförbättring sannolikt uppskattas av forskare som använder komplexa deep learning-modeller. Priset på Titan RTX är betydelsefullt lägre än V100 som visas ovan och skulle vara ett bra val om din budget inte tillåter V100-prissättning för att göra djupinlärning eller din arbetsbelastning inte behöver mer än Titan RTX (se intressanta riktmärken)

NVIDIA Titan RTX Detaljer: Amazon


Välja det bästa grafikkortet för AI, maskininlärning och djupinlärning

AI, maskininlärning och djupinlärningsuppgifter bearbetar massor av data. Dessa uppgifter kan vara mycket krävande för din hårdvara. Nedan följer funktionerna som du måste tänka på innan du köper en GPU.

Kärnor

Som en enkel tumregel, ju större antal kärnor, desto högre blir prestanda för ditt system. Antalet kärnor bör också beaktas, särskilt om du har att göra med en stor mängd data. NVIDIA har utsett sina kärnor till CUDA, medan AMD kallar sina kärnor strömprocessorer. Välj det högsta antalet bearbetningskärnor som din budget tillåter.

Process kraft

Processorkraften för en GPU beror på antalet kärnor i systemet multiplicerat med de klockhastigheter som du kör kärnorna med. Ju högre hastighet och ju högre antal kärnor, desto högre blir processorkraften som din GPU kan beräkna data med. Detta avgör också hur snabbt ditt system kommer att utföra en uppgift.

VRAM

Video RAM, eller VRAM, är ett mått på mängden data som ditt system kan hantera på en gång. Högre VRAM är avgörande om du arbetar med olika Computer Vision-modeller eller utför några CV Kaggle-tävlingar. VRAM är inte lika viktigt för NLP eller för att arbeta med andra kategoriska data.

minnesbandbredd

Minnesbandbredden är den hastighet med vilken data läses eller lagras i minnet. Enkelt uttryckt är det VRAM: s hastighet. Mätt i GB / s innebär mer minnesbandbredd att kortet kan rita mer data på kortare tid, vilket innebär snabbare användning.

Kyl

GPU-temperatur kan vara en betydande flaskhals när det gäller prestanda. Moderna grafikprocessorer ökar hastigheten till maximalt när de kör en algoritm. Men så snart en viss temperaturgräns uppnås sänker GPU bearbetningshastigheten för att skydda mot överhettning.

Fläktens design för luftkylare skjuter luft utanför systemet medan fläktarna som inte fläktar suger in luft. I arkitektur där flera grafikprocessorer är placerade bredvid varandra kommer icke-fläktfläktar att värmas upp mer. Om du använder luftkylning i en installation med 3 till 4 GPU: er, undvik fläktar som inte är fläktar.

Vattenkylning är ett annat alternativ. Även om det är dyrt, är den här metoden mycket tystare och säkerställer att även de tuffaste GPU-inställningarna förblir svala under hela driften.

Slutsats

För de flesta användare som fördjupar sig i djup inlärning, kommer RTX 2080 Ti eller Titan RTX att ge dig den största pengarna. Den enda nackdelen med RTX 2080 Ti är en begränsad 11 GB VRAM-storlek. Träning med större batchstorlekar gör att modeller kan träna snabbare och mycket mer exakt, vilket sparar mycket av användarens tid. Detta är endast möjligt när du har Quadro GPU: er eller en TITAN RTX. Med halvprecision (FP16) kan modeller passa in i GPU: er med otillräcklig VRAM-storlek [2]. För mer avancerade användare är Tesla V100 dock där du ska investera. Det är vårt bästa val för det bästa grafikkortet för AI, maskininlärning och djupinlärning. Det är allt för den här artikeln. Vi hoppas att du gillade det. Tills nästa gång!

Referenser

  1. Bästa GPU: er för AI, maskininlärning och djupinlärning 2020
  2. Bästa GPU för djupinlärning 2020
  3. NVIDIA AI INFERENSPLATFORM: Jättehopp i prestanda och effektivitet för AI-tjänster, från datacentret till nätverkets kant
  4. NVIDIA V100 TENSOR CORE GPU
  5. Titan RTX riktmärken för djupinlärning
Gratis och öppen källkodsmotorer för utveckling av Linux-spel
Den här artikeln kommer att täcka en lista över gratis motorer med öppen källkod som kan användas för att utveckla 2D- och 3D-spel på Linux. Det finns...
Shadow of the Tomb Raider for Linux Tutorial
Shadow of the Tomb Raider är det tolfte tillskottet till Tomb Raider-serien - en action-äventyrsspelfranchise skapad av Eidos Montreal. Spelet mottogs...
Hur man förbättrar FPS i Linux?
FPS står för Bildrutor per sekund. FPS: s uppgift är att mäta bildfrekvensen i videouppspelningar eller spelprestanda. Med enkla ord betecknas antalet...