Видеокарта обзор: Видеокарты / Overclockers.ua

Содержание

Видеокарты / Overclockers.ua

ПроизводительМодельGPUПамять
Radeon RX 6900 XT
PowercolorRed Devil RX 6900 XT Ultimate 16GB GDDR6 (AXRX 6900XTU 16GBD6-3DHE/OC)AMD Radeon RX 6900 XT16384 MB GDDR6
Radeon RX 6800 XT
AMDRadeon RX 6800 XTAMD Radeon RX 6800 XT16384 MB GDDR6
ASUSTUF-RX6800XT-O16G-GAMINGAMD Radeon RX 6800 XT16384 GDDR6
Radeon RX 6800
AMDRadeon RX 6800AMD Radeon RX 680016384 MB GDDR6
Radeon RX 6700 XT
AMDRadeon RX 6700 XTAMD Radeon RX 6700 XT12228 MB GDDR6
Radeon RX 6600 XT
ASUSROG-STRIX-RX6600XT-O8G-GAMINGAMD Radeon RX 6600 XT8192 MB GDDR6
GigabyteGV-R66XTGAMINGOC PRO-8GDAMD Radeon RX 6600 XT8192 MB GDDR6
MSIRadeon RX 6600XT Gaming X 8GAMD Radeon RX 6600 XT8192 MB GDDR6
Radeon RX 5700 XT
MSIRadeon RX 5700 XTAMD Radeon RX 5700 XT8192 MB GDDR6
MSIRadeon RX 5700 XT Gaming XAMD Radeon RX 5700 XT8192 MB GDDR6
Radeon RX 5700
MSIRadeon RX 5700AMD Radeon RX 57008192 MB GDDR6
Radeon RX 5600 XT
ASUSROG-STRIX-RX5600XT-O6G-GAMINGAMD Radeon RX 5600 XT6144 MB GDDR6
MSIRadeon RX 5600 XT Gaming XAMD Radeon RX 5600 XT6144 MB GDDR6
Radeon RX 5500 XT
ASUSDUAL-RX5500XT-O8G-EVOAMD Radeon RX 5500 XT8192 MB GDDR6
MSIRX 5500 XT Gaming X 8GAMD Radeon RX 5500 XT8192 MB GDDR6
SapphirePulse RX 5500 XT 4G GDDR6
AMD Radeon RX 5500 XT
4096 GB GDDR6
Radeon VII
AMDRadeon VIIAMD Radeon VII16384 MB HBM2
Radeon RX Vega 64
AMDRadeon RX Vega 64AMD Radeon RX Vega 648192 MB HBM2
AMDRadeon RX Vega 64AMD Radeon RX Vega 648192 MB HBM2
SapphireRadeon RX Vega64 8GB HBM2 LCAMD Radeon RX Vega 648192 MB HBM2
Radeon RX Vega 56
ASUSROG-STRIX-RXVEGA56-O8G-GAMINGAMD Radeon RX Vega 568192 MB HBM2
SapphireNitro+ Radeon RX Vega 56 8GAMD Radeon RX Vega 568192 MB HBM2
Radeon RX 580
ASUSROG-STRIX-RX580-O8G-GAMINGAMD Radeon RX 5808192 MB GDDR5
MSIRadeon RX 580 Mech 2 8G OCAMD Radeon RX 5808192 MB GDDR5
PowercolorRed Devil Golden Sample Radeon RX 580 8GB GDDR5AMD Radeon RX 5808192 MB GDDR5
SapphirePulse Radeon RX 580 8GD5AMD Radeon RX 5808192 MB GDDR5
SapphireNitro+ Radeon RX 580 4GBAMD Radeon RX 5804096 MB GDDR5
Radeon RX 570
ASUSROG-STRIX-RX570-O4G-GAMINGAMD Radeon RX 5704096 MB GDDR5
SapphirePulse ITX Radeon RX 570 4GD5AMD Radeon RX 5704096 MB GDDR5
Radeon RX 560
ASUSROG-STRIX-RX560-O4G-GAMINGAMD Radeon RX 5604096 MB GDDR5
ASUSAREZ-RX560-O2G-EVOAMD Radeon RX 5602048 MB GDDR5
MSIRadeon RX 560 Aero ITX 4G OCAMD Radeon RX 5604096 MB GDDR5
PowercolorRed Dragon Radeon RX 560 2GB GDDR5 OCAMD Radeon RX 5602048 MB GDDR5
Radeon RX 550
ASUSRX550-4GAMD Radeon RX 5504096 MB GDDR5
Radeon RX 480
AMDRadeon RX 480AMD Radeon RX 4808192 MB GDDR5
ASUSROG STRIX-RX480-O8G-GAMINGAMD Radeon RX 4808192 MB GDDR5
Radeon RX 470
ASUSROG STRIX-RX470-O4G-GAMINGAMD Radeon RX 4704096 MB GDDR5
MSIRadeon RX 470 Gaming X 8GAMD Radeon RX 4708192 MB GDDR5
Radeon RX 460
ASUSROG STRIX-RX460-O4G-GAMINGAMD Radeon RX 4604096 MB GDDR5
SapphireNitro RX 460 4G D5AMD Radeon RX 46040960 MB GDDR5
Radeon R9 Fury X
AMDRadeon R9 Fury XAMD Radeon R9 Fury X4096 MB HBM
Radeon R9 Fury
SapphireTri-X R9 Fury 4G HBHAMD Radeon R9 Fury4096 MB HBH
Radeon R9 Nano
AMDRadeon R9 NanoAMD Radeon R9 Nano4096 MB HBM
Radeon R9 390X
ASUSSTRIX-R9390X-DC3OC-8GD5-GAMINGAMD Radeon R9 390X8192 MB GDDR5
SapphireTri-X R9 390X 8G D5AMD Radeon R9 390X8192 MB GDDR5
Radeon R9 390
ASUSSTRIX-R9390-DC3OC-8GD5-GAMINGAMD Radeon R9 3908192 MB GDDR5
Radeon R9 380X
ASUSSTRIX-R9380X-4G-GAMINGAMD Radeon R9 380X4096 MB GDDR5
SapphireNitro R9 380X 4G D5AMD Radeon R9 380X4096 MB GDDR5
XFXRadeon R9 380X DD Black Edition OCAMD Radeon R9 380X4096 MB GDDR5
Radeon R9 380
ASUSSTRIX-R9380-DC2OC-2GD5-GAMINGAMD Radeon R9 3802048 MB GDDR5
SapphireRadeon R9 380 2G D5 (ITX Compact)AMD Radeon R9 3802048 MB GDDR5
Radeon R7 370
ASUSSTRIX-R7370-DC2OC-4GD5-GAMINGAMD Radeon R7 3704096 MB GDDR5
MSIRadeon R7 370 Gaming 2GAMD Radeon R7 3702048 MB GDDR5
Radeon R7 360
SapphireNitro R7 360 2G D5AMD Radeon R7 3602048 MB GDDR5
Radeon R9 295X2
AMDRadeon R9 295X2AMD Radeon R9 295X22 x 4096 MB GDDR5
Radeon R9 290X
AMDRadeon R9 290XAMD Radeon R9 290X4096 MB GDDR5
ASUSR9290X-DC2OC-4GD5AMD Radeon R9 290X4096 MB GDDR5
MSIR9 290X LightningAMD Radeon R9 290X4096 MB GDDR5
Radeon R9 290
ASUSR9290-DC2OC-4GD5AMD Radeon R9 2904096 MB GDDR5
Radeon R9 280X
ASUSR9280X-DC2T-3GD5AMD Radeon R9 280X3072 MB GDDR5
ASUSMatrix-R9280X-P-3GD5AMD Radeon R9 280X3072 MB GDDR5
MSIR9 280X Gaming 3GAMD Radeon R9 280X3072 MB GDDR5
Radeon R9 285
GigabyteGV-R9285WF2OC-2GDAMD Radeon R9 2852048 MB GDDR5
HISR9 285 IceQ X2 OCAMD Radeon R9 2852048 MB GDDR5
MSIR9 285 Gaming 2GAMD Radeon R9 2852048 MB GDDR5
Radeon R9 280
HISR9 280 IceQ X2 OCAMD Radeon R9 2803072 MB GDDR5
SapphireDual-X R9 280 OC With BoostAMD Radeon R9 2803072 MB GDDR5
Radeon R9 270X
ASUSR9270X-DC2T-2GD5AMD Radeon R9 270X2048 MB GDDR5
GigabyteGV-R927XOC-2GDAMD Radeon R9 270X2048 MB GDDR5
MSIR9 270X Gaming 2GAMD Radeon R9 270X2048 MB GDDR5
MSIR9 270X HawkAMD Radeon R9 270X2048 MB GDDR5
Radeon R9 270
ASUSR9270-DC2OC-2GD5AMD Radeon R9 2702048 MB GDDR5
MSIR9 270 Gaming 2GAMD Radeon R9 2702048 MB GDDR5
SapphireDual-X R9 270 with Boost & OCAMD Radeon R9 2702048 MB GDDR5
Radeon R7 265
ASUSR7265-DC2-2GD5AMD Radeon R7 2652048 MB GDDR5
HISR7 265 iPower IceQ X2 Boost ClockAMD Radeon R7 2652048 MB GDDR5
Radeon R7 260X
GigabyteGV-R726XOC-1GDAMD Radeon R7 260X1024 MB GDDR5
MSIR7 260X 2GD5 OCAMD Radeon R7 260X2048 MB GDDR5
Radeon R7 260
ASUSR7260-1GD5AMD Radeon R7 2601024 MB GDDR5
Radeon R7 250
ASUSR7250-1GD5AMD Radeon R7 2501024 MB GDDR5
GigabyteGV-R725OC-2GIAMD Radeon R7 2502048 MB DDR3
Radeon R7 240
GigabyteGV-R724OC-2GIAMD Radeon R7 2402048 MB DDR3
Radeon HD 7970
AMDRadeon HD 7970AMD Radeon HD 79703072 MB GDDR5
ASUSHD7970-DC2T-3GD5AMD Radeon HD 79703072 MB GDDR5
ASUSHD7970-DC2-3GD5AMD Radeon HD 79703072 MB GDDR5
ASUSMatrix-HD7970-P-3GD5AMD Radeon HD 79703072 MB GDDR5
HIS7970 IceQ X2AMD Radeon HD 79703072 MB GDDR5
MSIR7970 LightningAMD Radeon HD 79703072 GDDR5
Radeon HD 7950
ASUSHD7950-DC2T-3GD5AMD Radeon HD 79503072 MB GDDR5
ASUSHD7950-DC2-3GD5AMD Radeon HD 79503072 MB GDDR5
MSIR7950 Twin Frozr 3GD5/OCAMD Radeon HD 79503072 MB GDDR5
PowercolorHD7950 3GB GDDR5 (AX7950 3GBD5-2DH)AMD Radeon HD 79503072 MB GDDR5
Radeon HD 7870
ASUSHD7870-DC2T-2GD5AMD Radeon HD 78702048 MB GDDR5
ASUSHD7870-DC2-2GD5AMD Radeon HD 78702048 MB GDDR5
ASUSHD7870-DC2TG-2GD5-V2AMD Radeon HD 78702048 MB GDDR5
ASUSHD7850-DC2-2GD5-V2AMD Radeon HD 78702048 MB GDDR5
GigabyteGV-R787OC-2GDAMD Radeon HD 78702048 MB GDDR5
HIS7870 Fan 2GB GDDR5AMD Radeon HD 78702048 MB GDDR5
HIS7850 Fan 2GB GDDR5AMD Radeon HD 78702048 MB GDDR5
MSIR7870 Twin Frozr 2GD5/OCAMD Radeon HD 78702048 MB GDDR5
MSIR7870 HawkAMD Radeon HD 78702048 MB GDDR5
MSIR7870-2GD5T/OCAMD Radeon HD 78702048 MB GDDR5
Radeon HD 7850
MSIR7850 Power Edition 2GD5/OCAMD Radeon HD 78502048 MB GDDR5
MSIR7850 Twin Frozr 2GD5/OCAMD Radeon HD 78502048 MB GDDR5
Radeon HD 7790
ASUSHD7790-DC2OC-1GD5AMD Radeon HD 77901024 MB
Radeon HD 7770
ASUSHD7770-DC-1GD5 TOPAMD Radeon HD 77701024 MB GDDR5
GigabyteGV-R777OC-1GDAMD Radeon HD 77701024 MB GDDR5
HIS7770 IceQ X 1GB GDDR5 (H777QN1G2M)AMD Radeon HD 77701024 MB GDDR5
MSIR7770-2PMD1GD5/OCAMD Radeon HD 77701024 MB GDDR5
MSIR7770 Power Edition 1GD5/OCAMD Radeon HD 77701024 MB GDDR5
PowercolorHD7770 GHz Edition 1GB GDDR5 (AX7770 1GBD5-2DH)AMD Radeon HD 77701024 MB GDDR5
Radeon HD 7750
ASUSHD7750-1GD5AMD Radeon HD 77501024 MB GDDR5
HIS7750 iCooler 1GB GDDR5 (H775F1GD)AMD Radeon HD 77501024 MB GDDR5
HIS7750 iSilence 5 1GB GDDR5 (H775P1GD)AMD Radeon HD 77501024 MB GDDR5
PowercolorHD7750 1GB GDDR5 (AX7750 1GBD5-DH)AMD Radeon HD 77501024 MB GDDR5
PowercolorHD7750 1GB DDR3 (AX7750 1GBK3-H)AMD Radeon HD 77501024 MB DDR3
Radeon HD 6990
AMDRadeon HD 6990AMD Radeon HD 69902048 MB GDDR5
Radeon HD 6970
AMDRadeon HD 6970AMD Radeon HD 69702048 MB GDDR5
ASUSEAH6970 DCII/2DI4S/2GD5AMD Radeon HD 69702048 MB GDDR5
HISHD 6970 IceQ Turbo (H697QT2G2M)AMD Radeon HD 69702048 MB GDDR5
MSIR6970 LightningAMD Radeon HD 69702048 MB GDDR5
Radeon HD 6950
AMDRadeon HD 6950AMD Radeon HD 69502048 MB GDDR5
HISHD 6950 IceQ X Turbo X (H695QNX1G2M)AMD Radeon HD 69501024 MB GDDR5
MSIR6950 Twin Frozr III Power Edition/OCAMD Radeon HD 69502048 MB GDDR5
MSIR6950 Twin Frozr II/OCAMD Radeon HD 69502048 MB GDDR5
Radeon HD 6930
PowercolorAX6930 2GBD5-2DHAMD Radeon HD 69302048 MB GDDR5
Radeon HD 6870
GigabyteGV-R687OC-1GDAMD Radeon HD 68701024 MB GDDR5
HISHD 6870 Fan 1GB (H687F1G2M)AMD Radeon HD 68701024 MB GDDR5
MSIR6870 HawkAMD Radeon HD 68701024 MB GDDR5
MSIR6870-2PM2D1GD5AMD Radeon HD 68701024 MB GDDR5
Radeon HD 6850
HISHD 6850 IceQ X Turbo (H685QNT1GD)AMD Radeon HD 68501024 MB GDDR5
HISHD 6850 Fan (H685F1GD)AMD Radeon HD 68501024 MB GDDR5
MSIR6850 Cyclone 1GD5 Power Edition/OCAMD Radeon HD 68501024 MB GDDR5
PowercolorHD6850 1GB GDDR5 (AXP6850 1GBD5-DH)AMD Radeon HD 68501024 MB GDDR5
Radeon HD 6790
HIS6790 IceQ X Turbo 1GB GDDR5 (H679QNT1G2M)AMD Radeon HD 67901024 MB GDDR5
MSIR6790-PM2D1GD5/OCAMD Radeon HD 67901024 MB GDDR5
PowercolorHD6790 1GB GDDD5 (AX6790 1GBD5-DH)AMD Radeon HD 67901024 MB GDDR5
Radeon HD 6770
ASUSEAH6770 DC SL/2DI/1GD5AMD Radeon HD 67701024 MB GDDR5
Radeon HD 6670 GDDR5
ASUSEAH6670/DIS/1GD5AMD Radeon HD 6670 GDDR51024 MB GDDR5
HISHD 6670 Fan (H667F1GD)AMD Radeon HD 6670 GDDR51024 MB GDDR5
Radeon HD 6670 GDDR3
ASUSHD6670-2GD3AMD Radeon HD 6670 GDDR32048 MB GDDR3
PowercolorAX6670 1GBK3-HAMD Radeon HD 6670 GDDR31024 MB GDDR3
Radeon HD 6570 GDDR5
HISHD 6570 Silence (H657HC1GD)AMD Radeon HD 6570 GDDR51024 MB GDDR5
Radeon HD 6570 GDDR3
MSIR6570-MD1GD3/LPAMD Radeon HD 6570 GDDR31024 MB GDDR3
Radeon HD 6450 GDDR5
HISHD 6450 Silence (H645HT1GD)AMD Radeon HD 6450 GDDR51024 MB GDDR5
Radeon HD 5570 GDDR5
HISHD 5570 iCooler IV (H557FC512D)AMD Radeon HD 5570 GDDR5512 MB GDDR5
Radeon HD 3750
SapphireRadeon HD3750 512M DDR3AMD Radeon HD 3750512 MB GDDR3
Radeon HD 3730
SapphireRadeon HD3730 512M DDR2AMD Radeon HD 3730512 MB GDDR2
Radeon HD 5970
AMDRadeon HD 5970ATI Radeon HD 59701024 MB GDDR5
Radeon HD 5870
AMDRadeon HD 5870ATI Radeon HD 58701024 MB GDDR5
MSIR5870 LightningATI Radeon HD 58701024 MB GDDR5
Radeon HD 5850
ASUSEAH5850/2DIS/1GD5ATI Radeon HD 58501024 MB GDDR5
ASUSEAH5850 DirectCU/2DIS/1GD5ATI Radeon HD 58501024 MB GDDR5
Club3DHD 5850 1G CGAX-58524IDPATI Radeon HD 58501024 MB GDDR5
GigabyteGV-R585OC-1GDATI Radeon HD 58501024 MB GDDR5
HISHD 5850 1GB (H585F1GD)ATI Radeon HD 58501024 MB GDDR5
HISHD 5850 iCooler V (H585FN1GD)ATI Radeon HD 58501024 MB GDDR5
HISHD 5850 iCooler V Turbo (H585FNT1GD)ATI Radeon HD 58501024 MB GDDR5
MSIR5850 Twin Frozr IIATI Radeon HD 58501024 MB GDDR5
PowercolorHD5850 (AX5850 1GBD5-DH)ATI Radeon HD 58501024 MB GDDR5
PowercolorPCS+ HD5850 (AX5850 1GBD5-PPDH)ATI Radeon HD 58501024 MB GDDR5
VTX3DHD 5850 (VX5850 1GBD5-DH)ATI Radeon HD 58501024 MB GDDR5
Radeon HD 5830
HISHD 5830 iCooler V TurboATI Radeon HD 58301024 MB GDDR5
SapphireHD5830 (11169-00-10R)ATI Radeon HD 58301024 MB GDDR5
SapphireHD5830 1GB GDDR5ATI Radeon HD 58301024 MB GDDR5
Radeon HD 5770
ASUSEAH5770/2DI/512MD5ATI Radeon HD 5770512 MB GDDR5
ASUSEAH5770 CUCore/2DI/1GD5ATI Radeon HD 57701024MB GDDR5
Club3DHD 5770 CGAX-5772IATI Radeon HD 5770512 MB GDDR5
GigabyteGV-R577UD-1GDATI Radeon HD 57701024 MB GDDR5
GigabyteGV-R577SO-1GDATI Radeon HD 57701024 MB GDDR5
GigabyteGV-R577D5-1GD-BATI Radeon HD 57701024 MB GDDR5
HISHD 5770 Fan 1GB (H577FK1GD)ATI Radeon HD 57701024 MB GDDR5
HISHD 5770 IceQ 5 1GB (H577Q1GD)ATI Radeon HD 57701024 MB GDDR5
HISHD 5770 IceQ 5 Turbo 1GB (H577QT1GD)ATI Radeon HD 57701024 MB GDDR5
MSIR5770-PMD1GATI Radeon HD 57701024 MB GDDR5
MSIR5770 HawkATI Radeon HD 57701024 MB GDDR5
PowercolorHD5770 (AX5770 512MD5-H)ATI Radeon HD 5770512 MB GDDR5
PowercolorPCS+ HD5770 1GB GDDR5 (AX5770 1GBD5-PPG)ATI Radeon HD 57701024 MB GDDR5
VTX3DHD 5770 1GB GDDR5 (VX5770 1GBD5-H)ATI Radeon HD 57701024 MB GDDR5
Radeon HD 5750
ASUSEAH5750 FORMULA/2DI/1GD5ATI Radeon HD 57501024 MB GDDR5
ASUSEAH5750 FORMULA/DI/512MD5ATI Radeon HD 5750512 MB GDDR5
GigabyteGV-R575SL-1GIATI Radeon HD 57501024 MB GDDR5
GigabyteGV-R575D5-1GDATI Radeon HD 57501024 MB GDDR5
HISHD 5750 IceQ+ 1GB (H575Q1GD)ATI Radeon HD 57501024 MB GDDR5
PowercolorHD5750 1GB GDDR5 (AX5750 1GBD5-H)ATI Radeon HD 57501024 MB GDDR5
SapphireHD5750 512M GDDR5 PCIEATI Radeon HD 5750512 MB GDDR5
SapphireVAPOR-X HD5750 1GB GDDR5 PCIEATI Radeon HD 57501024 MB GDDR5
VeroHD5750 1G 128B DDR5 (VT575010050)ATI Radeon HD 57501024 MB GDDR5
VTX3DHD5750 (VX5750 512MD5-H)ATI Radeon HD 5750512 MB GDDR5
Radeon HD 5670
ASUSEAH5670/DI/1GD5ATI Radeon HD 56701024 MB GDDR5
HISHD 5670 IceQATI Radeon HD 56701024 MB GDDR5
Radeon HD 5570
ASUSEAH5570/DI/1GD3(LP)ATI Radeon HD 55701024 MB GDDR3
Radeon HD 5550
HISHD 5550 Silence (H555HB512)ATI Radeon HD 5550512 MB GDDR5
Radeon HD 5450
MSIR5450-MD512HATI Radeon HD 5450512 MB GDDR3
Radeon HD 4890
ASUSEAh5890/HTDI/1GD5/AATI Radeon HD 48901024 MB GDDR5
SapphireVapor-X TOXIC HD 4890 1GB GDDR5ATI Radeon HD 48901024 MB GDDR5
Radeon HD 4870 X2
Force3DRadeon HD 4870 X2ATI Radeon HD 4870 X22048 MB GDDR5
Radeon HD 4870
MSIR4870-T2D512ATI Radeon HD 4870512 MB GDDR5
PalitRadeon HD 4870 Sonic Dual Edition 512MBATI Radeon HD 4870512 MB GDDR5
SapphireVapor-X HD 4870 1GB GDDR5ATI Radeon HD 48701024 MB GDDR3
SapphireVapor-X TOXIC HD 4870 1GB GDDR5ATI Radeon HD 48701024 MB GDDR5
Radeon HD 4850
Force3DRadeon HD 4850 Black EditionATI Radeon HD 4850512 MB GDDR3
GainwardRadeon HD 4850 512MBATI Radeon HD 4850512 MB GDDR3
GigabyteGV-R485ZL-512HATI Radeon HD 4850512 MB GDDR3
PalitRadeon HD 4850 Sonic Special Edition DDR5ATI Radeon HD 4850512 MB GDDR5
PalitHD4850 512MB DDR3ATI Radeon HD 4850512 MB GDDR3
SapphireVapor-X HD 4850 512MB GDDR3ATI Radeon HD 4850512 MB GDDR3
SapphireHD4850 512MB GDDR3ATI Radeon HD 4850512 MB GDDR3
SapphireHD 4850 PCI-E Dual Slot FansinkATI Radeon HD 4850512 MB GDDR3
SapphireToxic HD 4850 PCI-EATI Radeon HD 4850512 MB GDDR3
SapphireRadeon HD 4850 512MBATI Radeon HD 4850512 MB GDDR3
XFXHD 4850 512 MB DDR3 XXX (HD-485-X-YDD)ATI Radeon HD 4850512 MB GDDR3
Radeon HD 4830
PowercolorAX4830 512MD3-HATI Radeon HD 4830512 MB GDDR3
Radeon HD 4770
ASUSEAh5770 FORMULA/DI/512MD5ATI Radeon HD 4770512 MB GDDR5
MSIR4770-T2D512ATI Radeon HD 4770512 MB GDDR5
Radeon HD 4730
SapphireHD 4730 512MB GDDR5ATI Radeon HD 4730512 MB GDDR5
Radeon HD 4670
ASUSEAh5670/DI/512M/AATI Radeon HD 4670512 MB GDDR3
SapphireHD 4670 (New Edition)ATI Radeon HD 46701024 MB GDDR3
SapphireHD4670 512MB GDDR4ATI Radeon HD 4670512 MB GDDR4
Radeon HD 4650
PalitHD4650 Super 512MB DDR2ATI Radeon HD 4650512 MB GDDR2
SapphireHD 4650 512MB DDR2ATI Radeon HD 4650512 MB DDR2
Radeon HD 3870 X2
SapphireHD3870 X2ATI Radeon HD 3870 X21024 MB GDDR3
Radeon HD 3870
GigabyteGV-RX387512H-BATI Radeon HD 3870512 MB GDDR4
PalitHD3870 512MB DDR3ATI Radeon HD 3870512 MB GDDR3
Radeon HD 3850
ASUSEAh4850ATI Radeon HD 3850512 MB GDDR3
PalitHD3850 Super 512MB DDR2ATI Radeon HD 3850512 MB GDDR2
XpertVisionRadeon HD3850 256MBATI Radeon HD 3850256 MB GDDR3
Radeon HD 3650
ASUSEAh4650ATI Radeon HD 3650256 MB GDDR3
ASUSEAh4650 TOPATI Radeon HD 3650256 MB GDDR3
SapphireRadeon HD 3650 256M GDDR3ATI Radeon HD 3650256 MB GDDR3
Radeon HD 2600 XT
ASUSEAh3600XTATI Radeon HD 2600 XT256 MB GDDR3
GeForce RTX 3090
ASUSTUF-RTX3090-O24G-GAMINGNVIDIA GeForce RTX 309024576 GDDR6X
Inno3DGeForce RTX 3090 iChill X4NVIDIA GeForce RTX 309024576 MB GDDR6X
MSIGeForce RTX 3090 Gaming X Trio 24GNVIDIA GeForce RTX 309024576 MB GDDR6X
MSIGeForce RTX 3090 Suprim X 24GNVIDIA GeForce RTX 309024576 MB GDDR6X
GeForce RTX 3080 Ti
ASUSROG-STRIX-RTX3080TI-O12G-GAMINGNVIDIA GeForce RTX 3080 Ti12288 MB GDDR6X
ASUSTUF-RTX3080TI-O12G-GAMINGNVIDIA GeForce RTX 3080 Ti12288 MB GDDR6X
GeForce RTX 3080
ASUSTUF-RTX3080-O10G-GAMINGNVIDIA GeForce RTX 308010240 MB GDDR6X
MSIGeForce RTX 3080 Gaming X Trio 10GNVIDIA GeForce RTX 308010240 MB GDDR6X
MSIGeForce RTX 3080 Suprim X 10GNVIDIA GeForce RTX 308010240
GeForce RTX 3070 Ti
ASUSROG-STRIX-RTX3070TI-O8G-GAMINGNVIDIA GeForce RTX 3070 Ti8192 MB GDDR6X
MSIGeForce RTX 3070 Ti GAMING X TRIO 8GNVIDIA GeForce RTX 3070 Ti8192 MB GDDR6X
GeForce RTX 3070
ASUSTUF-RTX3070-O8G-GAMINGNVIDIA GeForce RTX 30708192 MB GDDR6
ASUSDUAL-RTX3070-O8GNVIDIA GeForce RTX 30708192 MB GDDR6
GigabyteGV-N3070GAMING OC-8GDNVIDIA GeForce RTX 30708192 MB GDDR6
MSIGeForce RTX 3070 Gaming X TrioNVIDIA GeForce RTX 307010240 MB GDDR6
GeForce RTX 3060 Ti
ASUSTUF-RTX3060TI-O8G-GAMINGNVIDIA GeForce RTX 3060 Ti8192 MB GDDR6
MSIGeForce RTX 3060 Ti Gaming X TrioNVIDIA GeForce RTX 3060 Ti8192 MB GDDR6
GeForce RTX 3060
ASUSROG-STRIX-RTX3060-O12G-GAMINGNVIDIA GeForce RTX 306012288 MB GDDR6
Inno3DGeForce RTX 3060 iChill X3 RedNVIDIA GeForce RTX 306012228 MB GDDR6
GeForce RTX 2080 Ti
MSIGeForce RTX 2080 Ti Gaming X TrioNVIDIA GeForce RTX 2080 Ti11264 MB GDDR6
NVIDIAGeForce RTX 2080 Ti Founders EditionNVIDIA GeForce RTX 2080 Ti11264 MB GDDR6
GeForce RTX 2080
ASUSDUAL-RTX2080-O8GNVIDIA GeForce RTX 20808192 MB GDDR6
ASUSROG-STRIX-RTX2080-8G-GAMINGNVIDIA GeForce RTX 20808192 MB GDDR6
GigabyteGV-N2080GAMING OC-8GCNVIDIA GeForce RTX 20808192 MB GDDR6
NVIDIAGeForce RTX 2080 Founders EditionNVIDIA GeForce RTX 20808192 MB GDDR6
GeForce RTX 2070 Super
ASUSDUAL-RTX2070S-O8G-EVONVIDIA GeForce RTX 2070 Super8192 MB GDDR6
GigabyteGV-N207SGAMING OC-8GCNVIDIA GeForce RTX 2070 Super8192 MB GDDR6
GeForce RTX 2070
ASUSDUAL-RTX2070-O8GNVIDIA GeForce RTX 20708192 MB GDDR6
ASUSROG-STRIX-RTX2070-O8G-GAMINGNVIDIA GeForce RTX 20708192 MB GDDR6
ASUSDUAL-RTX2070-O8G-MININVIDIA GeForce RTX 20708192 MB GDDR6
Inno3DGeForce RTX 2070 Gaming OC X2NVIDIA GeForce RTX 20708192 MB GDDR6
MSIGeForce RTX 2070 Armor 8GNVIDIA GeForce RTX 20708192 MB GDDR6
MSIGeForce RTX 2070 Gaming Z 8GNVIDIA GeForce RTX 20708192 MB GDDR6
GeForce RTX 2060 Super
ASUSROG-STRIX-RTX2060S-O8G-GAMINGNVIDIA GeForce RTX 2060 Super8192 MB GDDR6
GigabyteGV-N206SWF2OC-8GDNVIDIA GeForce RTX 2060 Super8192 MB GDDR6
MSIGeForce RTX 2060 Super Gaming XNVIDIA GeForce RTX 2060 Super8192 MB GDDR6
GeForce RTX 2060
ASUSROG-STRIX-RTX2060-O6G-GAMINGNVIDIA GeForce RTX 20606144 MB GDDR6
MSIGeForce RTX 2060 Gaming ZNVIDIA GeForce RTX 20606144 MB GDDR6
GeForce GTX 1660 Ti
ASUSROG-STRIX-GTX1660TI-O6G-GAMINGNVIDIA GeForce GTX 1660 Ti6144 MB GDDR6
MSIGeForce GTX 1660 Ti Gaming X 6GNVIDIA GeForce GTX 1660 Ti6144 MB GDDR6
GeForce GTX 1660 Super
ASUSTUF 3-GTX1660S-O6G-GAMINGNVIDIA GeForce GTX 1660 Super6144 MB GDDR6
ASUSROG-STRIX-GTX1660S-O6G-GAMINGNVIDIA GeForce GTX 1660 Super6144 MB GDDR6
MSIGTX 1660 Super Gaming XNVIDIA GeForce GTX 1660 Super6144 MB GDDR6
GeForce GTX 1660
MSIGeForce GTX 1660 Gaming X 6GNVIDIA GeForce GTX 16606144 MB GDDR5
GeForce GTX 1650 Super
ASUSTUF-GTX1650S-O4G-GAMINGNVIDIA GeForce GTX 1650 Super4096 MB GDDR6
MSIGTX 1650 Super Gaming XNVIDIA GeForce GTX 1650 Super4096 MB GDDR6
GeForce GTX 1650
ASUSROG-STRIX-GTX1650-O4G-GAMINGNVIDIA GeForce GTX 16504096 MB GDDR5
MSIGeForce GTX 1650 Ventus XS 4G OCNVIDIA GeForce GTX 16504096 MB GDDR5
MSIGeForce GTX 1650 Gaming X 4GNVIDIA GeForce GTX 16504096 MB GDDR5
GeForce GTX 1080 Ti
ASUSROG-STRIX-GTX1080TI-O11G-GAMINGNVIDIA GeForce GTX 1080 Ti11264 MB GDDR5X
ASUSROG-POSEIDON-GTX1080TI-P11G-GAMINGNVIDIA GeForce GTX 1080 Ti11264 MB GDDR5X
Inno3DiChill GTX 1080 Ti X3 UltraNVIDIA GeForce GTX 1080 Ti11264 MB GDDR5X
MSIGeForce GTX 1080 Ti Gaming X 11GNVIDIA GeForce GTX 1080 Ti11264 MB GDDR5X
NVIDIAGeForce GTX 1080 Ti Founders EditionNVIDIA GeForce GTX 1080 Ti11264 MB GDDR5X
GeForce GTX 1080
ASUSROG STRIX-GTX1080-O8G-GAMINGNVIDIA GeForce GTX 10808192 MB GDDR5X
GigabyteGV-N1080D5X-8GD-BNVIDIA GeForce GTX 10808192 MB GDDR5X
GigabyteGV-N1080G1 GAMING-8GDNVIDIA GeForce GTX 10808192 MB GDDR5X
MSIGeForce GTX 1080 Gaming X 8GNVIDIA GeForce GTX 10808192 MB GDDR5X
GeForce GTX 1070 Ti
ASUSROG-STRIX-GTX1070TI-A8G-GAMINGNVIDIA GeForce GTX 1070 Ti8192 MB GDDR5
ASUSCERBERUS-GTX1070TI-A8GNVIDIA GeForce GTX 1070 Ti8192 MB GDDR5
ASUSTURBO-GTX1070TI-8GNVIDIA GeForce GTX 1070 Ti8192 MB GDDR5
MSIGTX 1070 Ti Gaming 8GNVIDIA GeForce GTX 1070 Ti8192 MB GDDR5X
GeForce GTX 1070
ASUSROG STRIX-GTX1070-O8G-GAMINGNVIDIA GeForce GTX 10708192 MB GDDR5
ASUSEX-GTX1070-O8GNVIDIA GeForce GTX 10708192 MB GDDR5
MSIGeForce GTX 1070 Gaming X 8GNVIDIA GeForce GTX 10708192 MB GDDR
MSIGeForce GTX 1070 8G DukeNVIDIA GeForce GTX 10708192 MB GDDR5
GeForce GTX 1060
ASUSROG STRIX-GTX1060-O6G-GAMINGNVIDIA GeForce GTX 10606144 MB GDDR5
ASUSDUAL-GTX1060-6GNVIDIA GeForce GTX 10606144 MB GDDR5
GigabyteGV-N1060WF2OC-6GDNVIDIA GeForce GTX 10606144 MB GDDR5
Inno3DiChill GeForce GTX 1060 X3NVIDIA GeForce GTX 10606144 MB GDDR5
MSIGeForce GTX 1060 Gaming X 6GNVIDIA GeForce GTX 10606144 MB GDDR5
PalitGeForce GTX 1060 Jetstream 6GBNVIDIA GeForce GTX 10606144 MB GDDR5
GeForce GTX 1060 3GB
ASUSDUAL-GTX1060-O3GNVIDIA GeForce GTX 1060 3GB3072 MB GDDR5
GeForce GTX 1050 Ti
ASUSEX-GTX1050TI-4GNVIDIA GeForce GTX 1050 Ti4096 MB GDDR5
ASUSROG Strix GeForce GTX 1050 TiNVIDIA GeForce GTX 1050 Ti4096 MB GDDR5
ASUSCERBERUS-GTX1050TI-O4GNVIDIA GeForce GTX 1050 Ti4096 MB GDDR5
ASUSGTX1050TI-O4G-LP-BRKNVIDIA GeForce GTX 1050 Ti4096 MB GDDR5
ASUSGTX1050TI-O4G-LP-BRKNVIDIA GeForce GTX 1050 Ti4096 MB GDDR5
EVGAGeForce GTX 1050 Ti SC GamingNVIDIA GeForce GTX 1050 Ti4096 MB GDDR5
GigabyteGV-N105TG1 GAMING-4GDNVIDIA GeForce GTX 1050 Ti4096 MB GDDR5
MSIGeForce GTX 1050 Ti Gaming X 4GNVIDIA GeForce GTX 1050 Ti4096 MB GDDR5
GeForce GTX 1050 3GB
ASUSPH-GTX1050-3GNVIDIA GeForce GTX 1050 3GB3072 MB GDDR5
GeForce GTX 1050
ASUSEX-GTX1050-2GNVIDIA GeForce GTX 10502048 MB GDDR5
ASUSDUAL-GTX1050-O2G-V2NVIDIA GeForce GTX 10502048 MB GDDR5
MSIGeForce GTX 1050 Aero ITX 2G OCNVIDIA GeForce GTX 10502048 MB GDDR5
GeForce GT 1030
ASUSPH-GT1030-O2GNVIDIA GeForce GT 10302048 MB GDDR5
GeForce GTX 980 Ti
ASUSSTRIX-GTX980TI-DC3OC-6GD5-GAMINGNVIDIA GeForce GTX 980 Ti6144 MB GDDR5
ASUSMATRIX-GTX980TI-P-6GD5-GAMINGNVIDIA GeForce GTX 980 Ti6144
GigabyteGV-N98TG1 GAMING-6GDNVIDIA GeForce GTX 980 Ti6144 MB GDDR5
Inno3DiChill GeForce GTX 980Ti X3 UltraNVIDIA GeForce GTX 980 Ti6144 MB GDDR5
NVIDIAGeForce GTX 980 TiNVIDIA GeForce GTX 980 Ti6144 MB GDDR5
GeForce GTX 980
ASUSSTRIX-GTX980-DC2OC-4GD5NVIDIA GeForce GTX 9804096 MB GDDR5
ASUSMATRIX-GTX980-P-4GD5NVIDIA GeForce GTX 9804096 MB GDDR5
EVGAGeForce GTX 980 Superclocked ACX 2.0NVIDIA GeForce GTX 9804096 MB GDDR5
EVGAGeForce GTX 980 Classified Gaming ACX 2.0NVIDIA GeForce GTX 9804096 MB GDDR5
GigabyteGV-N980G1 Gaming-4GDNVIDIA GeForce GTX 9804096 MB GDDR5
MSIGTX 980 Gaming 4GNVIDIA GeForce GTX 9804096 MB GDDR5
NVIDIAGeForce GTX 980NVIDIA GeForce GTX 9804096 MB GDDR5
PalitGeForce GTX 980 Super JetStreamNVIDIA GeForce GTX 9804096 MB GDDR5
GeForce GTX 970
ASUSSTRIX-GTX970-DC2OC-4GD5NVIDIA GeForce GTX 9704096 MB GDDR5
ASUSGTX970-DCMOC-4GD5NVIDIA GeForce GTX 9704096 MB GDDR5
ASUSTURBO-GTX970-OC-4GD5NVIDIA GeForce GTX 9704096 MB GDDR5
EVGAGeForce GTX 970 FTW ACX 2.0NVIDIA GeForce GTX 9704096 MB GDDR5
GainwardGeForce GTX 970 PhoenixNVIDIA GeForce GTX 9704096 MB GDDR5
GigabyteGV-N970G1 Gaming-4GDNVIDIA GeForce GTX 9704096 MB GDDR5
Inno3DiChill GeForce GTX 970 4GB UltraNVIDIA GeForce GTX 9704096 MB GDDR5
MSIGTX 970 Gaming 4GNVIDIA GeForce GTX 9704096 MB GDDR5
GeForce GTX 960
ASUSSTRIX-GTX960-DC2OC-2GD5NVIDIA GeForce GTX 9602048 MB GDDR5
ASUSGTX960-MOC-2GD5NVIDIA GeForce GTX 9602048 MB GDDR5
ASUSSTRIX-GTX960-DC2OC-4GD5NVIDIA GeForce GTX 9604096 MB GDDR5
ASUSGTX960-DC2OC-2GD5-BLACKNVIDIA GeForce GTX 9602048 MB GDDR5
EVGAGeForce GTX 960 SuperSC ACX 2.0+NVIDIA GeForce GTX 9602048 MB GDDR5
GigabyteGV-N960WF2OC-2GDNVIDIA GeForce GTX 9602048 MB GDDR5
GigabyteGV-N960G1 GAMING-2GDNVIDIA GeForce GTX 9602048 MB GDDR5
Inno3DiChill GeForce GTX 960 2GB UltraNVIDIA GeForce GTX 9602048 MB GDDR5
MSIGTX 960 Gaming 2GNVIDIA GeForce GTX 9602048 MB GDDR5
MSIGTX 960 Gaming 4GNVIDIA GeForce GTX 9604096 MB GDDR5
PalitGeForce GTX 960 Super JetStreamNVIDIA GeForce GTX 9602048 GB GDDR5
GeForce GTX 950
ASUSSTRIX-GTX950-DC2OC-2GD5-GAMINGNVIDIA GeForce GTX 9502048 MB GDDR5
EVGAGeForce GTX 950 FTW ACX 2.0NVIDIA GeForce GTX 9502048 MB GDDR5
GigabyteGV-N950XTREME-2GDNVIDIA GeForce GTX 9502048 MB GDDR5
Inno3DiChill GeForce GTX 950 2GB UltraNVIDIA GeForce GTX 9502048 MB GGD5
MSIGTX 950 Gaming 2GNVIDIA GeForce GTX 9502048 MB GDDR5
GeForce GTX Titan
ZotacGeForce GTX TITAN (ZT-70101-10P)NVIDIA GeForce GTX Titan6144 MB GDDR5
GeForce GTX 780 Ti
ASUSGTX780TI-DC2OC-3GD5NVIDIA GeForce GTX 780 Ti3072 MB GDDR5
ASUSMATRIX-GTX780TI-P-3GD5NVIDIA GeForce GTX 780 Ti3072 MB GDDR5
Inno3DiChill GeForce GTX 780 Ti HerculeZ X3 UltraNVIDIA GeForce GTX 780 Ti3072 MB GDDR5
MSIGTX 780Ti Gaming 3GNVIDIA GeForce GTX 780 Ti3072 MB GDDR5
NVIDIAGeForce GTX 780 TiNVIDIA GeForce GTX 780 Ti3072 MB GDDR5
GeForce GTX 780
ASUSGTX780-DC2OC-3GD5NVIDIA GeForce GTX 7803072 MB
ASUSSTRIX-GTX780-OC-6GD5NVIDIA GeForce GTX 7806144 MB GDDR5
GigabyteGV-N780OC-3GDNVIDIA GeForce GTX 7803072 MB GDDR5
Inno3DiChill GeForce GTX 780 HerculeZ 3000NVIDIA GeForce GTX 7803072 MB GDDR5
MSIN780 TF 3GD5/OCNVIDIA GeForce GTX 7803072 MB GDDR5
MSIN780 LightningNVIDIA GeForce GTX 7803072 MB GDDR5
NVIDIAGeForce GTX 780NVIDIA GeForce GTX 7803072 MB
PalitGTX 780 JetStream (NE5X780h20FB-1100J)NVIDIA GeForce GTX 7803072 MB
GeForce GTX 770
ASUSGTX770-DC2OC-2GD5NVIDIA GeForce GTX 7702048 MB GDDR5
MSIN770 TF 2GD5/OCNVIDIA GeForce GTX 7702048 MB GDDR5
PalitGeForce GTX 770 JetStreamNVIDIA GeForce GTX 7702048 MB GDDR5
ZotacGeForce GTX 770 AMP! Edition (ZT-70303-10P)NVIDIA GeForce GTX 7702048 MB GDDR5
GeForce GTX 760
ASUSGTX760-DC2OC-2GD5NVIDIA GeForce GTX 7602048 MB GDDR5
ASUSASUS MARS760-4GD5NVIDIA GeForce GTX 7602х 2048 MB GDDR5
ASUSGTX760-DCMOC-2GD5NVIDIA GeForce GTX 7602048 MB GDDR5
ASUSSTRIKER-GTX760-P-4GD5NVIDIA GeForce GTX 7604096 MB GDDR5
Inno3DiChill GeForce GTX 760 HerculeZ 3000NVIDIA GeForce GTX 7602048 MB GDDR5
MSIN760 TF 2GD5/OCNVIDIA GeForce GTX 7602048 MB GDDR5
MSIN760 HawkNVIDIA GeForce GTX 7602048 MB GDDR5
PalitGTX 760 JetStreamNVIDIA GeForce GTX 7602048 MB GDDR5
GeForce GTX 750 Ti
ASUSGTX750TI-OC-2GD5NVIDIA GeForce GTX 750 Ti2048 MB GDDR5
ASUSSTRIX-GTX750TI-OC-2GD5NVIDIA GeForce GTX 750 Ti2048 MB GDDR5
EVGAGeForce GTX 750 Ti FTW ACX CoolingNVIDIA GeForce GTX 750 Ti2048 MB GDDR5
GigabyteGV-N75TWF2OC-2GINVIDIA GeForce GTX 750 Ti2048 MB GDDR5
MSIN750Ti TF 2GD5/OCNVIDIA GeForce GTX 750 Ti2048 MB GDDR5
PalitGeForce GTX 750 Ti StormX DualNVIDIA GeForce GTX 750 Ti2048 MB GDDR5
PalitGTX 750 Ti KalmXNVIDIA GeForce GTX 750 Ti2048 MB GDDR5
GeForce GTX 750
ASUSGTX750-PHOC-1GD5NVIDIA GeForce GTX 7501024 MB GDDR5
MSIN750 1GD5/OCV1NVIDIA GeForce GTX 7501024 MB GDDR5
GeForce GT 740
ASUSGT740-OC-2GD5NVIDIA GeForce GT 7402048 GB GDDR5
ASUSGT740-OC-1GD5NVIDIA GeForce GT 7401024 MB GDDR5
EVGAGeForce GT 740 FTWNVIDIA GeForce GT 7401024 MB GDDR5
PalitGeForce GT 740NVIDIA GeForce GT 7402048 MB DDR3
GeForce GT 730
ASUSGT730-SL-1GD3-BRKNVIDIA GeForce GT 7301024 MB DDR3
GigabyteGV-N730D5OC-1GINVIDIA GeForce GT 7301024 MB GDDR5
GeForce GTX 690
ZotacZotac GeForce GTX 690 (ZT-60701-10P)NVIDIA GeForce GTX 6902x 2048 MB GDDR5
GeForce GTX 680
ASUSGTX680-DC2T-2GD5NVIDIA GeForce GTX 6802048 MB GDDR5
ASUSGTX680-2GD5NVIDIA GeForce GTX 6802048 GB GDDR5
ASUSGTX680-DC2O-2GD5NVIDIA GeForce GTX 6802048 MB GDDR5
GigabyteGV-N680WF3-2GDNVIDIA GeForce GTX 6802048 MB GDDR5
MSIN680GTX LightningNVIDIA GeForce GTX 6802048 MB GDDR5
PalitGeForce GTX 680 JetStreamNVIDIA GeForce GTX 6802048 MB GDDR5
ZotacGeForce GTX 680 (ZT-60601-10P)NVIDIA GeForce GTX 6802048 MB GDDR5
ZotacGeForce GTX 680 AMP! Edition (ZT-60102-10P)NVIDIA GeForce GTX 6802048 MB GDDR5
GeForce GTX 670
ASUSGTX670-DC2-2GD5NVIDIA GeForce GTX 6702048 MB GDDR5
ASUSGTX670-DC2T-2GD5NVIDIA GeForce GTX 6702048 MB GDDR5
ASUSGTX670-DC2-4GD5NVIDIA GeForce GTX 6704096 MB GDDR5
ASUSGTX670-DCMOC-2GD5NVIDIA GeForce GTX 6702048 MB GDDR5
GainwardGeForce GTX 670 2GBNVIDIA GeForce GTX 6702048 MB GDDR5
GigabyteGV-N670OC-2GDNVIDIA GeForce GTX 6702048 MB GDDR5
Inno3DiChill GeForce GTX 670 HerculeZ 3000 (C670-1SDN-E5DSX)NVIDIA GeForce GTX 6702048 MB GDDR5
MSIN670GTX-PM2D2GD5/OCNVIDIA GeForce GTX 6702048 MB
MSIN670 PE 2GD5/OCNVIDIA GeForce GTX 6702048 MB GDDR5
PalitGeForce GTX 670 JetStreamNVIDIA GeForce GTX 6702048 MB GDDR5
ZotacGeForce GTX 670 AMP! Edition (ZT-60302-10P)NVIDIA GeForce GTX 6702048 MB GDDR5
GeForce GTX 660 Ti
ASUSGTX660 TI-DC2O-2GD5NVIDIA GeForce GTX 660 Ti2048 MB GDDR5
KFA2GeForce GTX 660 Ti EX OC 2GBNVIDIA GeForce GTX 660 Ti2048 MB GDDR5
MSIN660Ti PE 2GD5/OCNVIDIA GeForce GTX 660 Ti2048 MB GDDR5
PalitGTX 660 Ti JetstreamNVIDIA GeForce GTX 660 Ti2048 MB GDDR5
ZotacGTX 660 Ti AMP! EditionNVIDIA GeForce GTX 660 Ti2048 MB GDDR5
GeForce GTX 660
ASUSGTX660-DC2-2GD5NVIDIA GeForce GTX 6602048 MB GDDR5
ASUSGTX660-DC2T-2GD5NVIDIA GeForce GTX 6602048 MB GDDR5
ASUSGTX660-DC2O-2GD5NVIDIA GeForce GTX 6602048 MB GDDR5
KFA2GeForce GTX 660 EX OC 2GBNVIDIA GeForce GTX 6602048 MB GDDR5
MSIN660 TF 2GD5/OCNVIDIA GeForce GTX 6602048 MB GDDR5
ZotacGeForce GTX 660 (ZT-60901-10M)NVIDIA GeForce GTX 6602048 MB GDDR5
GeForce GTX 650 Ti Boost
ASUSGTX650TIB-DC2OC-2GD5NVIDIA GeForce GTX 650 Ti Boost2048 MB GDDR5
Inno3DiChill GTX 650 Ti Boost HerculeZ 2000NVIDIA GeForce GTX 650 Ti Boost2048 MB GDDR5
PalitGTX 650 Ti Boost OC 2048MBNVIDIA GeForce GTX 650 Ti Boost2048 MB GDDR5
GeForce GTX 650 Ti
ASUSGTX650TI-DC2T-1GD5NVIDIA GeForce GTX 650 Ti1024 MB GDDR5
ASUSGTX650TI-1GD5NVIDIA GeForce GTX 650 Ti1024 MB
GigabyteGV-N65TOC-1GINVIDIA GeForce GTX 650 Ti1024 MB GDDR5
Inno3DGeForce GTX 650 Ti (N650-1SDN-D5CW)NVIDIA GeForce GTX 650 Ti1024 MB GDDR5
KFA2GeForce GTX 650 Ti EX OC 1GBNVIDIA GeForce GTX 650 Ti1024 MB GDDR5
MSIN650Ti PE 1GD5/OCNVIDIA GeForce GTX 650 Ti1024 MB GDDR5
MSIN650Ti-1GD5/OCNVIDIA GeForce GTX 650 Ti1024 MB GDDR5
PalitGeForce GTX 650 Ti OCNVIDIA GeForce GTX 650 Ti1024 MB GDDR5
GeForce GTX 650
ASUSGTX650-DCT-1GD5NVIDIA GeForce GTX 6501024 MB GDDR5
Inno3DGTX 650 Herculez (N65M-1SDN-D5CW)NVIDIA GeForce GTX 6501024 MB GDDR5
MSIN650 PE 1GD5/OCNVIDIA GeForce GTX 6501024 MB GDDR5
MSIN650-1GD5/OCV1NVIDIA GeForce GTX 6501024 MB GDDR5
PalitGeForce GTX 650NVIDIA GeForce GTX 6501024 MB GDDR5
GeForce GT 640
KFA2GT 640 (KFA-GT640-1GD3-STD-ATFD-V1)NVIDIA GeForce GT 6401024 MB DDR3
GeForce GT 630 rev.2
ASUSGT630-SL-2GD3-LNVIDIA GeForce GT 630 rev.22048 MB DDR3
GeForce GT 630
ASUSGT630-2GD3NVIDIA GeForce GT 6302048 MB DDR3
Inno3DGT 630 (N630-2DDV-D3CX)NVIDIA GeForce GT 6301024 MB DDR3
GeForce GTX 590
ASUSENGTX590/3DIS/3GD5NVIDIA GeForce GTX 5903072 MB GDDR5
GeForce GTX 580
ASUSMatrix GTX580 P/2DIS/1536MD5NVIDIA GeForce GTX 5801536 MB GDDR5
GigabyteGV-N580SO-15INVIDIA GeForce GTX 5801536 MB GDDR5
Inno3DiChill GeForce GTX 580 Black (C58V-1SDN-K5HWX)NVIDIA GeForce GTX 5801536 MB GDDR5
MSIN580GTX LightningNVIDIA GeForce GTX 5801536 MB GDDR5
ZotacGeForce GTX 580 AMP! Edition (ZT-50102-10P)NVIDIA GeForce GTX 5801536 MB GDDR5
ZotacGeForce GTX 580 (ZT-50101-10P)NVIDIA GeForce GTX 5801536 MB GDDR5
GeForce GTX 570
ASUSENGTX570 DCII/2DIS/1280MD5NVIDIA GeForce GTX 5701280 MB GDDR5
GainwardGeForce GTX 570 PhantomNVIDIA GeForce GTX 5701280 MB GDDR5
Inno3DGeForce GTX 570NVIDIA GeForce GTX 5701280 MB GDDR5. Тестирование в режиме 3-Way SLI
Inno3DiChill GeForce GTX 570 Black (C570-1SDN-J5KWX)NVIDIA GeForce GTX 5701280 MB GDDR5
MSIN570GTX Twin Frozr III Power Edition/OCNVIDIA GeForce GTX 5701280 MB GDDR5
MSIN570GTX Twin Frozr II/OCNVIDIA GeForce GTX 5701280 MB GDDR5
PalitGeForce GTX 570 Sonic PlatinumNVIDIA GeForce GTX 5701280 MB GDDR5
PalitGeForce GTX 570NVIDIA GeForce GTX 5701280 MB GDDR5
ZotacGeForce GTX 570 AMP! Edition (ZT-50202-10P)NVIDIA GeForce GTX 5701280 MB GDDR5
GeForce GTX 560 Ti
ASUSENGTX560 Ti DC/2DI/1GD5NVIDIA GeForce GTX 560 Ti1024 MB GDDR5
GainwardGeForce GTX 560 TiNVIDIA GeForce GTX 560 Ti1024 MB GDDR5
GainwardGeForce GTX 560 Ti PhantomNVIDIA GeForce GTX 560 Ti1024 MB GDDR5
GainwardGeForce GTX 560 Ti Golden SampleNVIDIA GeForce GTX 560 Ti1024 MB GDDR5
GigabyteGV-N560SO-1GINVIDIA GeForce GTX 560 Ti1024 MB GDDR5
Inno3DGeForce GTX 560 TiNVIDIA GeForce GTX 560 Ti1024 MB GDDR5
KFA2GeForce GTX 560 Ti LTD OC (SOC White Edition)NVIDIA GeForce GTX 560 Ti1024 MB GDDR5
KFA2GeForce GTX 560 Ti (Slim)NVIDIA GeForce GTX 560 Ti1024 MB GDDR5
KFA2GeForce GTX 560 (Slim)NVIDIA GeForce GTX 560 Ti1024 MB GDDR5
MSIN560GTX-Ti HawkNVIDIA GeForce GTX 560 Ti1024 MB GDDR5
PalitGeForce GTX 560 Ti SonicNVIDIA GeForce GTX 560 Ti1024 MB GDDR5
SparkleCalibre X560NVIDIA GeForce GTX 560 Ti1024 MB GDDR5
GeForce GTX 560
ASUSENGTX560 DCII TOP/2DI/1GD5NVIDIA GeForce GTX 5601024 MB GDDR5
MSIN560GTX Twin Frozr II/OCNVIDIA GeForce GTX 5601024 MB GDDR5
GeForce GTX 550 Ti
Inno3DGeForce GTX 550 TiNVIDIA GeForce GTX 550 Ti1024 MB GDDR5
KFA2GeForce GTX 550 TiNVIDIA GeForce GTX 550 Ti1024 MB GDDR5
MSIN550GTX-Ti Cyclone II 1GD5/OCNVIDIA GeForce GTX 550 Ti1024 MB GDDR5
PalitGeForce GTX 550 Ti SonicNVIDIA GeForce GTX 550 Ti1024 MB GDDR5
SparkleCalibre X550 Ti DFLNVIDIA GeForce GTX 550 Ti1024 MB GDDR5
GeForce GT 520
ASUSENGT520 SILENT/DI/1GD3(LP)NVIDIA GeForce GT 5201024 MB DDR3
Inno3DGeForce GT 520NVIDIA GeForce GT 5201024 MB DDR3
GeForce GTX 480
MSIN480GTX LightningNVIDIA GeForce GTX 4801536 MB GDDR5
ZotacGeForce GTX 480 AMP! Edition (ZT-40102-10P)NVIDIA GeForce GTX 4801536 MB GDDR5
ZotacGeForce GTX 480 (ZT-40101-10P)NVIDIA GeForce GTX 4801536 MB GDDR5
GeForce GTX 470
Inno3DiChill GTX 470 Hawk (N47V-1SDN-J5KW)NVIDIA GeForce GTX 4701280 MB GDDR5
ZotacGeForce GTX 470 (ZT-40201-10P)NVIDIA GeForce GTX 4701280 MB GDDR5
GeForce GTX 465
Inno3DGTX 465 (N465-1DDN-D5DW)NVIDIA GeForce GTX 4651024 MB GDDR5
PalitGeForce GTX 465NVIDIA GeForce GTX 4651024 MB GDDR5
GeForce GTX 460 1024MB
Inno3DiChill GeForce GTX 460 Freezer (C460-1DDN-D5DWX)NVIDIA GeForce GTX 460 1024MB1024 MB GDDR5
MSIN460GTX HawkNVIDIA GeForce GTX 460 1024MB1024 MB GDDR5
PalitGeForce GTX 460 SonicNVIDIA GeForce GTX 460 1024MB1024 MB GDDR5
PalitGeForce GTX 460 Sonic 2GBNVIDIA GeForce GTX 460 1024MB2048 MB GDDR5
PalitGeForce GTX 460 Sonic PlatinumNVIDIA GeForce GTX 460 1024MB1024 MB GDDR5
SparkleCalibre X460GNVIDIA GeForce GTX 460 1024MB1024 MB GDDR5
ZotacGeForce GTX 460 1GB (ZT-40402-10P)NVIDIA GeForce GTX 460 1024MB1024 MB GDDR5
GeForce GTX 460 768MB
ASUSENGTX460 DirectCU TOP/2DI/768MD5NVIDIA GeForce GTX 460 768MB768 MB GDDR5
GigabyteGV-N460OC-768INVIDIA GeForce GTX 460 768MB768 MB GDDR5
MSIN460GTX Cyclone 768D5/OCNVIDIA GeForce GTX 460 768MB768MB GDDR5
GeForce GTS 450
ASUSENGTS 450 DirectCU TOP/DI/1GD5NVIDIA GeForce GTS 4501024 MB GDDR5
GigabyteGV-N450OC-1GINVIDIA GeForce GTS 4501024 MB GDDR5
Inno3DiChill GeForce GTS 450 Freezer (C450-1DDN-D5CWX)NVIDIA GeForce GTS 4501024 MB GDDR5
KFA2GeForce GTS 450NVIDIA GeForce GTS 4501024 MB GDDR5
KFA2GeForce GTS 450NVIDIA GeForce GTS 4501024 MB DDR3
MSIN450GTS Cyclone 1GD5/OCNVIDIA GeForce GTS 4501024 MB GDDR5
PalitGeForce GTS 450NVIDIA GeForce GTS 4501024 MB GDDR3
SparkleGeForce GTS450 OC One 1GNVIDIA GeForce GTS 4501024 MB GDDR5
ZotacZT-40506-10LNVIDIA GeForce GTS 4501024 MB GDDR3
GeForce GT 440 GDDR5
Inno3DGeForce GT 440 (N440-1DDV-D5CX)NVIDIA GeForce GT 440 GDDR51024 MB GDDR5
GeForce GT 430
Inno3DGeForce GT 430NVIDIA GeForce GT 4301024 MB DDR3
PalitGeForce GT 430NVIDIA GeForce GT 430512 MB GDDR5
GeForce GTX 295
Inno3DGeForce GTX 295 Platinum EditionNVIDIA GeForce GTX 2951792 MB GDDR3
XFXGF GTX295 576M 1792MB DDR3NVIDIA GeForce GTX 2951792 MB GDDR3
GeForce GTX 285
BFGGeForce GTX 285 OCNVIDIA GeForce GTX 2851024 MB GDDR3
ZotacGeForce GTX 285 AMP!NVIDIA GeForce GTX 2851024 MB GDDR3
GeForce GTX 280
XpertVisionGeForce GTX 280NVIDIA GeForce GTX 2801024 MB GDDR3
ZotacGeForce GTX 280 AMP!NVIDIA GeForce GTX 2801024 MB GDDR3
GeForce GTX 275
GigabyteGV-N275SO-18INVIDIA GeForce GTX 2751792 MB GDDR3
Inno3DiChill GTX275 Accelero XXXNVIDIA GeForce GTX 275896 MB GDDR3
GeForce GTX 260 rev. 2
ZotacGeForce GTX 260 AMP2!NVIDIA GeForce GTX 260 rev. 2896 MB GDDR3
GeForce GTX 260
ASUSENGTX260/HTDP/896MNVIDIA GeForce GTX 260896 MB GDDR3
BFGGeForce GTX 260 OC2NVIDIA GeForce GTX 260896 MB GDDR3
GigabyteGV-N26SO-896INVIDIA GeForce GTX 260896 MB GDDR3
XFXGF GTX260 666M 896MB DDR3 Black (GX-260N-ADB)NVIDIA GeForce GTX 260896 MB GDDR3
ZotacGeForce GTX 260 AMP!NVIDIA GeForce GTX 260896 MB GDDR3
GeForce GTS 250
ASUSENGTS250 DK/DI/1GD3/WWNVIDIA GeForce GTS 2501024 MB GDDR3
AxleAX-GTS250/1GD3P6CDINVIDIA GeForce GTS 2501024 MB GDDR3
LeadtekWinFast GTS 250NVIDIA GeForce GTS 250512 MB GDDR3
PalitGeForce GTS 250 GreenNVIDIA GeForce GTS 250512 MB GDDR3
PalitGeForce GTS 250 E-GreenNVIDIA GeForce GTS 2501024 MB GDDR3
PalitGTS250 512MB GDDR3NVIDIA GeForce GTS 250512 MB GDDR3
ZotacGeForce GTS 250 AMP! 1GBNVIDIA GeForce GTS 2501024 MB GDDR3
GeForce GT 240
ASUSENGT240/DI/1GD3/ANVIDIA GeForce GT 2401024 MB DDR3
ZotacGeForce GT240 AMP!NVIDIA GeForce GT 240512 MB GDDR5
GeForce GT 220
GigabyteGV-N220OC-1GINVIDIA GeForce GT 2201024 MB DDR3
PalitGeForce GT 220 512MB DDR2NVIDIA GeForce GT 220512 MB DDR2
PalitGeForce GT 220 Sonic 512MB GDDR3NVIDIA GeForce GT 220512 MB GDDR3
GeForce 210
PalitGeForce 210NVIDIA GeForce 210512 MB DDR3
GeForce 9800 GTX+
GainwardBLISS 9800GTX+ 512MB DDR3NVIDIA GeForce 9800 GTX+512 MB GDDR3
MSIN9800GTX-T2D512-OCNVIDIA GeForce 9800 GTX+512 MB GDDR3
PalitGF9800GTX+ 512M DDR3NVIDIA GeForce 9800 GTX+512 MB GDDR3
XFX9800 GTX+ 512МБ DDR3 (PV-T98W-YDQ4)NVIDIA GeForce 9800 GTX+512 MB GDDR3
GeForce 9800 GTX
Point of ViewGF9800GTX EXONVIDIA GeForce 9800 GTX512 MB GDDR3
GeForce 9800 GT
ASUSEN9800GT/HTDP/512MD3/ANVIDIA GeForce 9800 GT512 MB GDDR3
Inno3D9800 GT Green (N98GT-3DDV-C3DX)NVIDIA GeForce 9800 GT512 GDDR3
PalitGeForce 9800GT Green 512MBNVIDIA GeForce 9800 GT512 MB GDDR3
GeForce 9800 GX2
ZotacGeForce 9800GX2NVIDIA GeForce 9800 GX21024 MB GDDR3
GeForce 9600 GT
ASUSEN9600GT/HTDI/512M/ANVIDIA GeForce 9600 GT512 MB GDDR3
EVGAe-GeForce 9600GT Dual-Slot EditionNVIDIA GeForce 9600 GT512 MB GDDR3
GigabyteGV-NX96T512HNVIDIA GeForce 9600 GT512 MB GDDR3
GigabyteGV-NX96T512HPNVIDIA GeForce 9600 GT512 MB GDDR3
LeadtekWinFast PX9600 GT 1024MBNVIDIA GeForce 9600 GT1024 MB GDDR3
PalitGeForce 9600GT Green 512MBNVIDIA GeForce 9600 GT512 MB GDDR3
PalitGeForce 9600GT Sonic 512MBNVIDIA GeForce 9600 GT512 MB GDDR3
Sparkle9600 GT Green (SX96GT512D3G-VP)NVIDIA GeForce 9600 GT512 MB GDDR3
XpertVision9600GT 512MB DDR3NVIDIA GeForce 9600 GT512 MB GDDR3
XpertVisionGeForce 9600GT 512MB SonicNVIDIA GeForce 9600 GT512 MB GDDR3
XpertVisionGeForce 9600GT 512MBNVIDIA GeForce 9600 GT512 MB GDDR3
Zotac9600GT 512MB (ZT-96TES3P-FSB)NVIDIA GeForce 9600 GT512 MB GDDR3
ZotacGeForce 9600 GT AMP!NVIDIA GeForce 9600 GT512 MB DDR3
GeForce 9600 GSO
ASUSEN9600GSO/HTDP/384MNVIDIA GeForce 9600 GSO384 MB GDDR3
ASUSEN9600GSO MG/HTDP/512M/ANVIDIA GeForce 9600 GSO512 MB GDDR2
GigabyteGV-NX96G384HNVIDIA GeForce 9600 GSO384 MB GDDR3
XFX9600GSO 580M 384MB DDR3NVIDIA GeForce 9600 GSO384 MB GDDR3
GeForce 9500 GT
LeadtekWinFast PX9500 GTNVIDIA GeForce 9500 GT512 MB GDDR3
PalitGeForce 9500GT Super 512MB DDR2NVIDIA GeForce 9500 GT512 MB DDR2
Point of ViewGF9500GT 512MB DDR2NVIDIA GeForce 9500 GT512 MB DDR2
XFXGeForce 9500GT 550MNVIDIA GeForce 9500 GT256 MB DDR3
XpertVisionGeForce 9500GT 512MB DDR2 SuperNVIDIA GeForce 9500 GT512 MB DDR2
GeForce 8800 ULTRA
ASUSEN8800ULTRA/G/HTDP/768M/ANVIDIA GeForce 8800 ULTRA768 MB GDDR3
GeForce 8800 GTS Rev2
ASUSEN8800GTSNVIDIA GeForce 8800 GTS Rev2512 MB GDDR3
GeForce 8800 GT
ASUSEN8800GTNVIDIA GeForce 8800 GT512 MB GDDR3
MSINX8800GT-T2D256E-OCNVIDIA GeForce 8800 GT256 MB GDDR3
PNYGeForce 8800GT 512MB DDR3NVIDIA GeForce 8800 GT512 MB GDDR3
XpertVisionGeForce 8800GT 1GB SuperNVIDIA GeForce 8800 GT1024 MB GDDR3
GeForce 8800 GS 768MB
XpertVisionGeForce 8800GS 768MBNVIDIA GeForce 8800 GS 768MB768 MB GDDR3
GeForce 8800 GS 384MB
XpertVisionGeForce 8800GS 384MBNVIDIA GeForce 8800 GS 384MB384 MB GDDR3
GeForce 8600 GTS
ZotacGeForce 8600GTS 512MBNVIDIA GeForce 8600 GTS512 MB GDDR3
GeForce 8600 GT
ASUSEN8600GTNVIDIA GeForce 8600 GT256 MB GDDR3
PalitGeForce 8600GT Super+ 1GBNVIDIA GeForce 8600 GT1024 MB DDR2
XpertVisionGeForce 8600GT 256MB DDR3NVIDIA GeForce 8600 GT256 MB DDR3
XpertVisionGeForce 8600GT Sonic+ 256MBNVIDIA GeForce 8600 GT256 MB DDR3
GeForce 8500 GT DDR3
ForsaGeForce 8500GT DDR3NVIDIA GeForce 8500 GT DDR3256 MB GDDR3
GeForce 8500 GT DDR2
ForsaGeForce 8500GT DDR2NVIDIA GeForce 8500 GT DDR2256 MB GDDR2
PalitGeForce 8500GT Super+ 1GBNVIDIA GeForce 8500 GT DDR21024 MB DDR2
GeForce 7900 GS
ForsaGeForce 7900GSNVIDIA GeForce 7900 GS256 MB GDDR3
GeForce 7600 GT
Point of ViewGeForce 7600GTNVIDIA GeForce 7600 GT256 MB
GeForce 7600 GS 256MB
EVGAe-GeForce 7600GSNVIDIA GeForce 7600 GS 256MB256 MB GDDR2
GeForce 7300 GT
ASUSEN7300GT/SILENT/HTD/256M/ANVIDIA GeForce 7300 GT256 MB GDDR2

Обзор видеокарты ASUS TUF Gaming GeForce RTX 3070 Ti. Насколько лучше, чем обычная RTX 3070?

22.10.21

 

Видеокарты RTX 3080 Ti и RTX 3070 Ti вышли в начале лета и являются более продвинутыми версиями RTX 3080 и RTX 3070.

 

Героем нашего обзора стала видеокарта ASUS TUF Gaming GeForce RTX 3070 Ti, основанная, как можно догадаться, на базе RTX 3070 Ti.

 

Характеристики видеокарт серии RTX 3000

 

Из приведенной таблицы хорошо видно, что RTX 3070 Ti отличается от своей сестры RTX 3070 незначительно.

 

Самым заметным изменением стал переход на видеопамять GDDR6X вместо GDDR6. При этом объем видеопамяти и шина остались без изменений.

 

Также отметим небольшое увеличение числа вычислительных конвейеров, блоков растеризации и RT-ядер.

 

Обратите внимание, что довольно существенно, с 220 до 290 Вт, выросло энергопотребление TDP.

 

Знакомимся с ASUS TUF Gaming GeForce RTX 3070 Ti (TUF-RTX3070TI-8G-GAMING)

 

Видеокарты серии ASUS TUF поколения RTX 3000 довольно частые гости нашей редакции.

 

За последний год мы рассматривали такие модели на базе RTX 3080, RTX 3060 Ti, RTX 3080 Ti.

 

Теперь к нам попала ASUS TUF Gaming GeForce RTX 3070 Ti (TUF-RTX3070TI-8G-GAMING).

 

Каких-то приятных бонусов, вроде фирменных наклеек, брендированных стяжек в комплекте не поставляется

 

Она обладает аналогичными особенностями, что и другие современные продукты серии ASUS TUF.

 

Сразу отметим очень высокий уровень внешнего исполнения. Да и по дизайну модель очень хороша. На наш взгляд она выглядит даже лучше, чем видеокарты ASUS ROG, которые в иерархии стоят выше.

 

«Кожух» корпуса на лицевой панели и задняя пластина — металлические. Местами на поверхности заметна текстура отпечатка покрышки. Этим производитель подчеркивает выносливость и надежность продуктов ASUS TUF.

 

 

ASUS TUF Gaming GeForce RTX 3070 Ti довольно длинная (30 см), но со современным меркам это далеко не рекорд.

 

Корпус шириной в 2,7 слота производитель преподносит как преимущество, мол это обусловлено использованием крупного радиатора системы охлаждения.

 

 

Традиционно для видеокарт ASUS последнего поколения вентиляторы имеют ободок по внешнему радиусу.

 

Центральный вентилятор крутится в другу сторону по сравнению со своими соседями. Это сделано специально и, как заявляется, обеспечивает улучшенный отвод тепла.

 

 

Приятно, что ASUS добавила дополнительный HDMI-выход на панели разъемов. Референсная RTX 3070 Ti имеет всего один HDMI.

 

 

Рядом с парой 8-контактных разъемов питания размещен переключатель режимов Performance и Quiet (реализовано переключением между отдельными микросхемами BIOS). Это традиционная функция современных видеокарт ASUS TUF.

 

 

Имеются два элемента с управляемой RGB-подсветкой. С некоторого момента ASUS предлагает довольно развитое ПО, где вы можете не просто синхронизировать компоненты в системе и выбирать различные эффекты, но также создавать свою программу свечения самостоятельно.

 

 

Система охлаждения

 

ASUS TUF Gaming GeForce RTX 3070 Ti имеет заметно более высокое энергопотребление по сравнению с RTX 3070.

 

Поэтому неудивительно, что производитель не стал использовать систему охлаждения, скажем, от ASUS TUF Gaming GeForce RTX 3070, а позаимствовал ее у более старших моделей ASUS TUF на базе RTX 3080 и RTX 3080 Ti. Это дает основания полагать, что видеокарта будет иметь хороший запас по части охлаждения.

 

 

Сама СО очень развитая. Крупный радиатор пронизан большим количеством тепловых трубок. Кристалла графического процессора касается специальная теплораспределительная плита. Такое решение чаще встречается именно на видеокартах самого высокого класса. В более бюджетных вариантах обычно задействуется решение с прямым контактом тепловых трубок.

 

Система охлаждения ASUS TUF Gaming GeForce RTX 3070 Ti (изображение с сайта ASUS)

 

Еще одна любопытная деталь. Для отвода тепла от микросхем памяти и некоторых других компонентов предусмотрена отдельная металлическая рамка.

 

Дополнительная металлическая рамка (изображение с сайта ASUS)

 

С выходом серии RTX 3000 компания NVIDIA в своих референсных видеокартах задала тренд на дизайн СО, где часть радиатора продувается «насквозь» через окно на плате видеокарты. Такой же вариант реализован и тут.

 

 

При небольших нагрузках, когда температура опускается ниже определенного уровня, вентиляторы полностью останавливаются. Сегодня это обычная функция для большинства графических плат.

 

Задняя пластина также отводит часть тепла. В некоторых точках она соприкасается с платой через термопрокладки.

 

Проверяем в работе: частоты, энергопотребление, температуры, шум

 

Частоты ASUS TUF Gaming GeForce RTX 3070 Ti (TUF-RTX3070TI-8G-GAMING) полностью соответствуют референсным. Существует точно такая же модель с приставкой CO (TUF-RTX3070TI-O8G-GAMING), с небольшим заводским разгоном.

 

Режимы Performance и Quiet по частотам не отличаются.

 

Параметры видеокарты по данным GPU-Z (слева режим Performance, а справа — Quiet

 

Предельная частота GPU во многом зависит от приложений и игр, но она практически всегда выше, чем заявленная Boost-частота. Это обычное явление в видеокартах NVIDIA.

 

Максимальное значение частоты GPU, которое замечали, находится примерно на уровне 1950 МГц.

 

В настройках есть возможность увеличения лимита энергопотребления на 20%.

 

В тестовом бенчмарке 3DMark Time Spy, который хорошо нагружает видеокарту, энергопотребление видеокарты находилось на уровне 280–290 Вт, что вполне соответствует заявленному для RTX 3070 Ti.

 

Это очень немалая нагрузка в плане тепловыделения, но система охлаждения с ней справилась довольно легко.

 

Видеокарта тестировалась в весьма благоприятных условиях при комнатной температуре около 19 °C.

 

Под максимальной нагрузкой в играх температура GPU стабилизировалась примерно на отметке 60 °C при оборотах вентиляторов около 1700 об./мин.

 

С такой скоростью вращения видеокарту слышно, но в целом она работает тихо. При желании, вы вручную можете изменить профиль работы вентиляторов пожертвовав несколькими градусами роста в пользу более низких рабочих оборотов. Запас есть.

 

Замеры параметров видеокарты в приложении MSI Afterburner (режим Performance)

Замеры параметров видеокарты в приложении MSI Afterburner (режим Quiet)

 

К слову, разницу между режимами Performance и Quiet уловить не удалось. Уровень максимальной температуры и обороты вращения оказались примерно одинаковыми. Разве что в режиме Performance вначале вентиляторы раскручиваются более агрессивно.

 

Но в более сложных условиях, например в корпусе с плохой продуваемостью, более высокой комнатной температурой, чем в нашем тесте, разница может проявится. Обычно Performance обеспечивает более низкие температуры за счет работы на более высоких оборотах по сравнению с режимом Quiet.

 

В видеокартах с памятью GDDR6X надо также обращать внимание на температуру видеопамяти. Дело в том, что GDDR6X греется сильнее GDDR6 и без должного внимания к ней бывает случаи, что микросхемы GDDR6X разогреваются даже до 100 °C и выше в некоторых моделях.

 

Температуру чипов видеопамяти умеет показывать приложение GPUZ (не для всех видеокарт).

 

Но в случае с ASUS TUF Gaming GeForce RTX 3070 Ti никаких поводов для волнений нет.

 

 

Обратите внимание, что и температура Hot Spot графического процессора и температура памяти находится на более чем приемлемом уровне под нагрузкой.

 

Система охлаждения справляется со своими задачами очень хорошо.

 

NVIDIA GeForce RTX 3070 Ti в майнинге Ethereum (ETH)

 

Все выпускаемые видеокарты RTX 3070 Ti имеют ограничитель производительности при майнинге и относятся к так называемым LHR (Low Hashrate)-видеокартам.

 

Версий RTX 3070 Ti без ограничителя майнинга не бывает.

 

В нашем тесте мы также хотели посмотреть, чего можно добиться с ASUS TUF Gaming GeForce RTX 3070 Ti.

 

Хотя ограничитель затрагивает несколько алгоритмов, главной его целью является Ethash. Именно алгоритм Ethash используется при майнинге Ethereum (ETH).

 

Ethereum (ETH) уже на протяжении нескольких лет является самой стабильной в плане доходности и самой популярной криптовалютой, которую майнят на видеокартах.

 

Так как тема майнинга не является профильной для нас, проводили эксперименты только с Ethereum (ETH).

 

После выставления оптимальных параметров (снижение частоты GPU на несколько сотен, выставление ограничителя энергопотребления, увеличения частоты видеопамяти) запускаем Phoenix Miner.

 

В самом начале приложение показывает производительность на уровне 80 мегахеш (Mh/s), но сразу начинает снижаться и фиксируется примерно на значении 43,8 Mh/s.

 

 

Так работает ограничитель майнинга. В теории 3070 Ti вполне способна выдавать более 80 мегахеш, но получаем всего около 50% от этого значения.

 

Но в конце августа энтузиасты нашли метод частичной разблокировки ограничителя на LHR-видеокартах.

 

Производительность в майнинге Ethereum удалось поднять с 50 до примерно 68–69%.

 

Такую частичную разблокировку уже имеют несколько приложений для майнинга. Мы использовали NBminer 39.5.

 

В MSI Afterburner зафиксировали частоту GPU на уровне 1530 МГц, повысили частоту памяти на 1300 МГц и с такими настройками в NBminer 39.5 удалось получить стабильную работу с хешрейтом около 54–55 Mh/s.

 

 

Что касается энергопотребления, то обнаружилась интересная картина.

 

Энергопотребление при майнинге с частичной разблокировкой ограничителя не фиксировалось на каком-то одном уровне, а постоянно менялось в пределах 112–168 Вт. График имеет пилообразный вид.

 

Пилообразный вид гистограммы энергопотребления при майнинге с частичной разблокировкой ограничения

 

Такое необычное поведение связано с особенностями обхода ограничителя майнинга.

 

Еще некоторые наблюдения…

 

Добыча Ethereum (ETH) очень сильно нагружает видеопамять.

 

Да, мы заметили, что по показаниям встроенного датчика микросхемы видеопамяти нагревались сильнее, чем в играх, но системы охлаждения ASUS TUF Gaming GeForce RTX 3070 Ti даже в таком режиме оказалось достаточно.

 

Можно довольно легко удерживать температуру видеопамяти ниже отметки 90 °C, используя довольно комфортные, в плане уровня шума, обороты вентилятора.

 

Хешрейт 54–55 Mh/s для Ethereum на момент подготовки материала обеспечивал доходность на уровне $3,8 в сутки. Это довольно высокое значение, делающее видеокарты на базе RTX 3070 Ti очень привлекательными для майнинга, даже с учетом их ограничителя.

 

Производительность в играх

 

Конфигурация тестовой системы:

  • Процессор: Intel Core i5-9600KF с разгоном до 4,8 ГГц по всем ядрам
  • Процессорный кулер: Thermalright MUX-120 + вентилятор Arctic P12 PWM
  • Материнская плата: ASUS TUF Z390-PRO GAMING
  • Оперативная память: 2×8 ГБ DDR4 3200 МГц (Kingston HyperX FURY DDR4 RGB HX432C16FB3AK2/16)
  • Накопители: ADATA S511 120 ГБ (система) + Goodram SSD IRDM M.2 1 ТБ
  • Блок питания: Enermax Revolution D.F. 650W
  • Используемый драйвер с видеокартой ASUS TUF Gaming GeForce RTX 3080:  456.55
  • Используемый драйвер с видеокартой ASUS ROG Strix GeForce RTX 3070: NVIDIA GeForce 457.30
  • Используемый драйвер с видеокартой ASUS TUF Gaming GeForce RTX 3080 Ti OC:  471.11
  • Используемый драйвер с видеокартой ASUS TUF Gaming GeForce RTX 3070 Ti:  471.11

 

 

 

Как показали тесты, по производительности ASUS TUF Gaming GeForce RTX 3070 Ti заняла место между RTX 3070 и RTX 3080, что логично.

 

Причем, результаты RTX 3070 Ti находятся ближе к RTX 3070.

 

Новый тип памяти и чуть больше вычислительных конвейеров обеспечили рост скорости по сравнению с RTX 3070, но преимущество мы бы назвали умеренным.

 

Зачастую RTX 3070 Ti превосходит RTX 3070 примерно на 10%. Иногда разница составляла 5–7%, а иногда доходила до 15%.

 

Чем выше используемое разрешение, тем больше будет отрыв RTX 3070 Ti от RTX 3070.

 

Выводы

 

Разница между RTX 3070 Ti и RTX 3070 заметна, но не такая уж и большая. Зачем NVIDIA потребовалось дополнительно сегментировать свой модельный ряд и добавлять новые модели, которые не сильно то и отличаются от своих собратьев, — можно только догадываться.

 

Как вариант, это сделано для более выгодной картины при конкуренции с AMD или же с целью сделать более высокими рекомендованные цены.

 

Возможно, «обычные» модели RTX 3070 и RTX 3080 (без Ti) постепенно будут выводить из ассортимента.

 

Главным разочарованием в RTX 3070 Ti стало то, что тут по-прежнему (как и в RTX 3070) используется всего 8 ГБ видеопамяти.

 

Да, на данный момент этого вполне хватает, но хотелось бы иметь некоторый задел на будущее. Кроме того, сегодня большый объем видеопамяти может пригодится в каких-то задачах не связанных с играми.

 

Напомним, что 8 ГБ видеопамяти имела еще GTX 1070, вышедшая в далеком 2016 году.

 

А в 2021 году видеть 8 ГБ у модели довольно высокой категории как минимум удивительно.

 

Даже с учетом встроенного ограничителя, видеокарты RTX 3070 Ti на данный момент имеют очень неплохую доходность при майнинге. А это значит, что цены сильно завышены и определяются, по большей мере, именно эффективностью при добыче криптовалют, а не производительностью в играх, при видеомонтаже и т. д.

 

 

Возвращаясь к тестируемой ASUS TUF Gaming GeForce RTX 3070 Ti, можем лишь похвалить данную модель от ASUS.

 

При довольно высоком энергопотреблении и тепловыделении, свойственным для RTX 3070 Ti, система охлаждения имеет запас легко справляется с отводом тепла, обеспечивая приемлемые температуры в сочетании с умеренным шумом.

 

Видеокарта имеет качественное внешнее исполнение, да и выглядит, на наш взгляд, очень классно. Без излишней аляпости. Но это уже дело вкуса.

 

Среди дополнительных бонусов отметим двойной BIOS и элементы с подсветкой. Подсветка далеко не такая крутая, как в моделях ASUS ROG, но позволит поэкспериментировать с синхронизацией и светоэффектами.

 

ASUS TUF Gaming GeForce RTX 3070 Ti (TUF-RTX3070TI-8G-GAMING) — это очень достойный вариант видеокарты на базе RTX 3070 Ti.

 

Характеристики ASUS TUF Gaming GeForce RTX 3070 Ti (TUF-RTX3070TI-8G-GAMING)
МодельNVIDIA GeForce RTX 3070 Ti
ИнтерфейсPCI Express 4.0 ×16
Графический процессорGA104 (Ampere)
Техпроцесс8 нм
Видеопамять8 ГБ, GDDR6X
Шина памяти256 бит
Частота графического процессора1575 (1770 boost) МГц
Частота памяти результирующая19 000 МГц
Выходы2×HDMI (2.1), 3× DisplayPort (1.4a)
Разъем дополнительного питания2×8 Pin
Энергопотребление290 Вт
ПоставщикПредстав-во ASUS
Рекомендованная цена в США$599
Условная цена в Украине (на момент публикации)$1600

Оценка:

+ хорошая производительность

+ качественные материалы «корпуса»

+ эффективная система охлаждения

+ отключение вентиляторов при низкой нагрузке

+ двойной BIOS

-большие габариты

-высокое энергопотребление

-8 ГБ видеопамяти — это довольно скромно, как для видеокарты такого класса

-цена

 

Смотрите также:

Обзор видеокарты ASUS ROG Strix Radeon RX 6700 XT OC. Огромная видеокарта среднего класса

Обзор видеокарты ASUS ROG Strix GeForce RTX 3060. Сильно ли отстает от RTX 3060 Ti?

Обзор видеокарты ASUS TUF Gaming GeForce RTX 3060 Ti OC. Сложно придраться

Обзор видеокарты ASUS TUF GAMING Radeon RX 6800. У AMD получилось

Обзор видеокарты MSI GeForce RTX 3080 Suprim X 10G. Бентли в мире видеокарт

Обзор видеокарты MSI GeForce RTX 3080 GAMING X TRIO 10G. Сравниваем с RTX 2080 Super

Обзор видеокарты ASUS ROG Strix GeForce RTX 3070. С большим запасом

Обзор видеокарты ASUS TUF Gaming GeForce RTX 3080 и RGB-сборка ПК в стиле ASUS

evo
Инженер тестовой лаборатории

  


Читайте также

Авторы Guardians of the Galaxy уточнили системные требования и в два раза снизили требования к HDD | Games

Для установки игры Marvel’s Guardians of the Galaxy потребуется не менее 80 ГБ свободного места на ПК и 50 ГБ — на PlayStation 4 и 5. Об этом представители студии Eidos Montreal сообщили в твиттере.

Ранее в системных требованиях были указаны 150 ГБ свободного места на накопителе. Помимо этого уточнения, разработчики также сообщили, какие комплектующие понадобятся для использования в игре технологии трассировки лучей.

Минимальные системные требования Marvel’s Guardians of the Galaxy с трассировкой лучей:

1080p, низкая детализация, высокое качество трассировки лучей

  • ОС: Windows 10 64 bit Build 1803;
  • ЦП: AMD Ryzen 5 2600 / Intel Core i5-9400;
  • ОЗУ: 16 ГБ;
  • видеокарта: NVIDIA GeForce RTX 2060;
  • DirectX: версии 12;
  • место на диске: 80 ГБ.

Рекомендованные системные требования Marvel’s Guardians of the Galaxy:

1440p, высокая детализация, очень высокое качество трассировки лучей

  • ОС: Windows 10 64 bit Build 1803;
  • ЦП: AMD Ryzen 5 1600 / Intel Core i5-10600;
  • ОЗУ: 16 ГБ;
  • видеокарта: NVIDIA GeForce RTX 3070;
  • DirectX: версии 12;
  • место на диске: 80 ГБ.

Максимальные системные требования Marvel’s Guardians of the Galaxy:

2160p, максимальная детализация, максимальное качество трассировки лучей

  • ОС: Windows 10 64 bit Build 1803;
  • ЦП: AMD Ryzen 7 3700X / Intel Core i7-10700;
  • ОЗУ: 16 ГБ;
  • видеокарта: NVIDIA GeForce RTX 3080;
  • DirectX: версии 12;
  • место на диске: 80 ГБ.

Релиз Marvel’s Guardians of the Galaxy запланирован на 26 октября 2021 года на ПК, PS4, PS5, Xbox One и Xbox Series. Ранее в сети был опубликован список лицензированных песен, которые появятся в игре.

Не забудь поделиться с друзьями:

Последние статьи и обзоры на AnandTech

Сегодня Intel раскрывает финансовую информацию за третий квартал 2021 года, и в отчете о прибылях и убытках есть один небольшой лакомый кусочек, касающийся грядущих новых предложений дискретных графических процессоров. Заработок, как правило, является шансом поднять флаг инноваций в отношении того, что нас ждет впереди, и на этот раз Intel подтверждает, что ее дискретная графика первого поколения с архитектурой Xe-HPG появится на полках в первом квартале 2022 года.Intel постепенно раскрывает возможности своих предложений с дискретной игровой графикой. Ранее в этом году компания анонсировала брендинг своей графики следующего поколения под названием Arc, а вместе с ней и первых четырех поколений продуктов: Alchemist, Battlemage, Celestial и Druid. Легко видеть, что здесь мы идем ABCD. Технически при этом раскрытии в августе 2021 года Intel указала …

Хотя формальная спецификация еще не ратифицирована JEDEC, индустрия памяти в целом уже готовится к предстоящему запуску следующего поколения…

13 от Ryan Smith 3 дн назад

Сегодня утром AMD снова расширяет семейство видеокарт Radeon RX 6000, на этот раз добавляя второе, более дешевое предложение для массового рынка: Radeon RX …

43 автор: Райан Смит, 13.10.2021

Компания Noctua славится не только своей высококлассной командой дизайнеров и инженеров, поставляющей высококачественные продукты для воздушного охлаждения, но и коричнево-бежевой цветовой схемой.Некоторым пользователям может не понравиться …

50 Автор: Гэвин Бонсор, 10/4/2021

Добро пожаловать в Hot Chips! Это ежегодная конференция, посвященная новейшим, лучшим и грядущим крупным кремниевым продуктам, которая волнует всех нас. Следите за обновлениями в понедельник и вторник …

15 Автор: доктор Ян Катресс, 24.08.2021

Добро пожаловать в Hot Chips! Это ежегодная конференция, посвященная новейшим, лучшим и грядущим крупным кремниевым продуктам, которая волнует всех нас.Следите за обновлениями в понедельник и вторник …

2 Автор: доктор Ян Катресс, 23.08.2021

Наряду с беглым взглядом на их будущую архитектуру Xe-HPG, еще одно важное открытие, сделанное сегодня группой Intel по производству потребительской графики, относится к программной части бизнеса. Наряду с …

45 Написано Райаном Смитом, 19.08.2021

Для презентаций Intel, посвященных Дню архитектуры 2021 года, инь традиционного янь производителя процессоров — это графические процессоры.Intel провела последние несколько лет, готовясь выйти на рынок для …

72 Написано Райаном Смитом, 19.08.2021

После нескольких месяцев различных тизеров Intel, наконец, начинает собирать группу для своих первых высокопроизводительных дискретных графических процессоров и видеокарт. Сегодня утром компания …

56 автор: Райан Смит, 16.08.2021

В рамках серии объявлений, связанных с SIGGRAPH, NVIDIA сегодня утром объявляет о новом дополнении к своей линейке профессиональных видеокарт RTX — RTX A2000.После NVIDIA …

32 Автор: Райан Смит, 10.08.2021

Начиная со следующего месяца, линейка продуктов AMD Radeon RX 6000 для настольных ПК станет немного глубже — и немного дешевле — с добавлением следующего …

66 написано Райаном Смитом, 29.07.2021

Продолжая рассказывать о доходах за второй квартал в этом месяце, AMD готовится отчитаться о своих доходах.И так было на протяжении большей части прошлого года …

105 Автор: Райан Смит, 27.07.2021

Конструкция большинства передовых процессоров и ASIC основана на этапах оптимизации, при этом тремя ключевыми точками оптимизации являются производительность, мощность и площадь (а иногда и стоимость). Однажды …

20 автор Dr.Ян Катресс от 22.07.2021

Пару недель назад UL (ранее Futuremark) выпустила последний тест в своем текущем наборе игровых тестов 3DMark — CPU Profile. Предпосылка этого нового специфичного для ЦП теста — …

29 Автор: доктор Ян Катресс, 15.07.2021

Ранее в этом году новый генеральный директор Intel Пэт Гелсинджер представил свой новый IDM 2.0 для Intel. Это видение представляло собой трехкомпонентную стратегию, основанную на улучшении собственного процесса …

32 Автор: доктор Ян Катресс, 7/12/2021

В рамках сегодняшней серии объявлений на торговой выставке ISC 2021 NVIDIA сегодня утром объявляет о том, что они переносят 80-гигабайтную версию своего ускорителя A100 на PCIe…

16 от Райан Смит, 28.06.2021

Наряду с сегодняшним выпуском своего нового драйвера Radeon Software Adrenalin 21.6.1 — первого с поддержкой технологии FidelityFX Super Resolution — AMD также использует эту возможность …

59 от Райан Смит, 22.06.2021

На прошлой неделе TSMC провела свой технологический симпозиум 2021 года, на котором были рассмотрены свои последние разработки в технологии технологических узлов, призванные повысить производительность, затраты и возможности для своих клиентов…

28 Автор: доктор Ян Катресс, 8.06.2021

На основном мероприятии AMD Computex 2021 в этом году генеральный директор Лиза Су среди серии различных анонсов новых продуктов и технологических раскрытий дразнила некоторые новые подробности о …

49 Автор Андрей Фрумусану, 01.06.2021

Второй основной лейтмотив дня Computex исходит от NVIDIA, которая вышла на виртуальную выставочную площадку, чтобы обсудить новые продукты как для геймеров, так и для предприятий…

50 Автор: Райан Смит, 1/6/2021 Обзор

Nvidia GeForce RTX 2080: игры в разрешении 4K уже доступны по цене

Следующее поколение видеокарт Nvidia

наконец-то здесь, и оно обещает большие перспективы. Предполагается, что RTX 2080 будет на 75 процентов быстрее, чем GTX 1080 в некоторых играх, и он разработан, чтобы наконец достичь конечной цели — игр 4K со скоростью 60 кадров в секунду.Помимо обычных архитектурных улучшений, на этот раз Nvidia также использует некоторые новые уловки, чтобы претворить в жизнь свои смелые заявления.

Новые RTX 2070 (от 499 долларов), RTX 2080 (от 699 долларов) и RTX 2080 Ti (от 999 долларов) все основаны на архитектуре Тьюринга компании и предназначены для обеспечения большей мощности и более красивых кинематографических эффектов в играх. За эту дополнительную мощность приходится платить. Надбавка Nvidia к своим картам Founders Edition, на которые распространяется трехлетняя гарантия и которые по умолчанию разогнаны, поднимает RTX 2080 Ti до невероятных 1199 долларов.В прошлом году смартфоны сделали скачок на 1000 долларов благодаря новым технологиям, и теперь настала очередь вашей видеокарты, чтобы поразить ваш кошелек.

Итак, что вы получаете за свои деньги? Новые карты Nvidia включают поддержку как трассировки лучей в реальном времени, так и сглаживания на основе искусственного интеллекта. Трассировка лучей — большая новая возможность этого поколения, она используется для создания отражений света в реальном времени и кинематографических эффектов в играх. Но еще до того, как вы установили игру на свой компьютер, технология Nvidia Deep Learning Super-Sampling (DLSS) использует фермы суперкомпьютеров компании для сканирования игр до их выпуска и разработки наиболее эффективного способа рендеринга графики.По словам Nvidia, это все, по крайней мере, потому, что мы не смогли полностью протестировать трассировку лучей или DLSS с устройствами RTX 2080 и RTX 2080 Ti, которые мы рассматривали на прошлой неделе. Пока Microsoft не выпустит обновление Windows 10 October 2018 Update, ни одна из причудливых новых технологий Nvidia не будет доступна для обычных игр.

Nvidia заверяет нас, что скоро 25 игр будут поддерживать DLSS, а по крайней мере 11 будут иметь трассировку лучей в ближайшие месяцы. Но наряду с новыми дискретными функциями эти новые видеокарты обладают еще большей мощностью, поэтому мы протестировали RTX 2080 с мониторами G-Sync 1440p и 4K, чтобы увидеть, могут ли эти новые карты соответствовать обещаниям Nvidia в отношении производительности.

Хорошие вещи

  • Тихо и прохладно
  • Отлично подходит для игр 1440P / 1080P
  • Увеличение мощности по сравнению с GTX 1080

Плохие вещи

  • Не может обрабатывать 4K при 60 кадрах в секунду в требовательных играх
  • Улучшения трассировки лучей / DLSS пока неизвестны
  • Требование к источнику питания 650 Вт и дополнительное энергопотребление

Оценка Verge 7.5 из 10

Хорошие вещи

  • Возможность игр в формате 4K при 60 кадрах в секунду
  • Впечатляющий скачок мощности по сравнению с GTX 1080 и RTX 2080
  • Тихо и прохладно

Плохие вещи

  • Единственный реальный вариант для компьютерных игр 4K, и высокая цена отражает это
  • Улучшения трассировки лучей / DLSS пока неизвестны
  • Требование к источнику питания 650 Вт и дополнительное энергопотребление

Оборудование

Прежде чем мы посмотрим на производительность, вам нужно знать несколько вещей о реальном оборудовании.Nvidia изменила дизайн этих RTX-карт во многих отношениях, но, пожалуй, самым важным является то, как они охлаждаются. Nvidia отказалась от комбинации металлического экрана и вентилятора, которая хорошо служила ей в прошлом, в пользу новой конфигурации с двумя вентиляторами для своих карт Founders Edition, которая ближе к тому, что уже используют большинство сторонних производителей карт. Также появилась полноразмерная испарительная камера, благодаря которой карты работают тише и холоднее.

Я одержим тем, чтобы ПК был настолько тихим, насколько это возможно, и я использую корпус с звукопоглощающими панелями, поэтому я не слышу, как вентиляторы уносятся прочь.В течение прошлого года я использовал EVGA GeForce GTX 1080 с двумя вентиляторами, поэтому я не ожидал большой разницы с новым дизайном Nvidia. Но я был искренне впечатлен: нежный гул RTX 2080 настолько тонкий, что, когда я в конце концов переключился на свою обычную GTX 1080, я подумал, что кто-то спрятал фен в футляре.

Вся эта новая мощность и более эффективное охлаждение не бесплатны. Nvidia рекомендует, чтобы ваша система имела блок питания мощностью не менее 650 Вт, если вы хотите правильно использовать RTX 2080 или RTX 2080 Ti.Если вы покупаете карты Founders Edition, они потребляют до 225 и 260 Вт соответственно. Это значительный шаг вперед по сравнению с рекомендованным блоком питания 500 Вт (и потребляемой мощностью 180 Вт) для GTX 1080, и это означает, что вам понадобится 6-контактный и 8-контактный разъем для RTX 2080 или два 8-контактных разъема для RTX 2080. Ti. Я также был встревожен, увидев, что RTX 2080 Ti потребляет 45 Вт энергии в режиме ожидания во время моего тестирования, но Nvidia сообщает мне, что обновление драйвера решит эту проблему в ближайшее время и снизит потребление в режиме ожидания до 10-15 Вт.

Помимо конструкции вентилятора, Nvidia также имеет три выхода DisplayPort 1.4a, которые могут работать с разрешением до 8K по одному кабелю с DSC 1.2. Также есть разъем HDMI 2.0b и разъем VirtualLink USB-C для следующего поколения гарнитур VR.

1440p тестирование

Чтобы увидеть, как эти новые карты работают с типичной игровой настройкой 2018 года, мы протестировали как Nvidia RTX 2080, так и RTX 2080 Ti с 27-дюймовым монитором Asus ROG Swift PG279Q и множеством требовательных игр AAA.Этот монитор имеет разрешение 1440p и частоту обновления до 165 Гц с G-Sync, поэтому он отлично подходит для этих новых карт.

Наше тестирование производительности проводилось с использованием PUBG , Shadow of the Tomb Raider , Destiny 2: Forsaken , Far Cry 5 , демонстрации Nvidia Star Wars DLSS и демонстрации Epic Games Infiltrator DLSS. Shadow of the Tomb Raider — одна из последних игр DirectX 12, которая показала наибольший прирост производительности во время наших тестов.В то время как Tomb Raider мог выдавать в среднем около 39 кадров в секунду при максимальных настройках моего GTX 1080, RTX 2080 смог достичь в среднем 54 кадров в секунду (увеличение на 38 процентов). Этого все еще недостаточно для идеальной игры с разрешением 1440p при максимальных настройках, но более мощная RTX 2080 Ti смогла выдать в среднем 71 кадр в секунду при тех же настройках.

Far Cry 5 менее требователен, чем Tomb Raider , и намного лучше работает на максимальных настройках, в среднем около 81 кадра в секунду на моем GTX 1080 и 96 кадров в секунду на RTX 2080.RTX 2080 Ti доводит это до 113 кадров в секунду, что является приятным моментом для высокой скорости обновления этого монитора. PUBG также работает намного лучше на RTX 2080 Ti, в среднем около 125 кадров в секунду по сравнению с 80 кадрами в секунду, к которым я привык у GTX 1080.

Тесты Nvidia RTX 2080 (1440p)

Контрольный показатель EVGA GTX 1080 RTX 2080 Основное издание RTX 2080 Ti Основное издание
Контрольный показатель EVGA GTX 1080 RTX 2080 Основное издание RTX 2080 Ti Основное издание
3DMark Time Spy 6 933 9,363 11,384
3DMark Fire Strike 9,381 11 652 14 347
Судьба 2 В среднем 95 кадров в секунду 120 кадров в секунду в среднем 140 кадров в секунду в среднем
PUBG 80 кадров в секунду в среднем В среднем 95 кадров в секунду 125 кадров в секунду в среднем
Shadow of the Tomb Raider Среднее значение 39 кадров в секунду В среднем 54 кадра в секунду 71 кадр / с в среднем
Far Cry 5 81 кадр / с в среднем 96 кадров в секунду в среднем 113 кадров в секунду в среднем
Демонстрация Infiltrator DLSS 65 кадров в секунду без DLSS 103 кадр / с с DLSS / 91 кадр / с без DLSS 108 кадров в секунду с DLSS / 101 кадров в секунду без DLSS

Если вы планируете играть в разрешении 1440p и не собираетесь в ближайшее время переходить на 4K, RTX 2080 предлагает оптимальное соотношение цены и производительности.Хотя 2080 Ti, безусловно, предлагает гораздо больше возможностей для будущих игр, таких как Battlefield V , RTX 2080 более чем способен запускать современные игры в этом разрешении.

Хотя мы еще не можем протестировать трассировку лучей (ожидается, что Shadow of the Tomb Raider станет одной из первых обновленных игр), Epic Games создала демоверсию Infiltrator , которая тестирует рендеринг Unreal Engine 4. движок с новыми возможностями DLSS от Nvidia. Хотя это всего лишь демонстрация, результаты выглядели многообещающими.RTX 2080 в среднем показывал 103 кадра в секунду с включенным DLSS по сравнению с рендерингом без DLSS со средней скоростью 65 кадров в секунду на GTX 1080. Это более чем 50-процентное улучшение производительности и близко к заявленным Nvidia производительности для RTX 2080. Если аналогичные улучшения могут быть применены к существующих и будущих игр, то RTX 2080 будет еще более комфортным вариантом для 1440p.

4K, будущее

Gaming с разрешением 1440p может быть стандартом на сегодняшний день, но скоро все будут смотреть на игры с разрешением 4K.Чтобы увидеть, на что способны эти новые карты в играх следующего поколения, мы также протестировали эти же игры, используя монитор Acer Predator X27, дисплей стоимостью 2000 долларов, который имеет 4K, HDR, G-Sync и частоту обновления 144 Гц. Ваши глаза не обманывают вас; Фактически, монитор стоит дороже, чем графический процессор, и столько же, сколько полная игровая установка для ПК.

Сразу отвечу на очевидный вопрос: ни одна видеокарта RTX не может воспроизводить графически интенсивные игры 4K со скоростью 144 кадра в секунду. Ни одна из протестированных нами игр не смогла достичь среднего или пикового значения fps, близкого к собственной частоте обновления монитора Acer X27; технологии просто еще нет.

RTX 2080 с трудом достиг 60 кадров в секунду при разрешении 4K при игре в Destiny 2 (в среднем 50 кадров в секунду), Far Cry 5 (в среднем 56 кадров в секунду), Shadow of the Tomb Raider (в среднем 28 fps), и даже старый добрый PUBG (в среднем 54 кадра в секунду). Если вы хотите играть в игры в формате 4K, что также требует значительных инвестиций в такой мощный монитор, как этот, вам также придется учитывать покупку RTX 2080 Ti, , а не , RTX 2080, потому что он только что выиграл ‘ t сократить это.

Тесты Nvidia RTX 2080 (4K)

Контрольный показатель RTX 2080 Основное издание RTX 2080 Ti Основное издание
Контрольный показатель RTX 2080 Основное издание RTX 2080 Ti Основное издание
3DMark Time Spy 4 687 5 536
3DMark Fire Strike 6,365 8 009
Судьба 2 50 кадров в секунду в среднем В среднем 84 кадра в секунду
PUBG 55 кадров в секунду в среднем В среднем 90 кадров в секунду
Shadow of the Tomb Raider 28 кадров в секунду в среднем Среднее значение 36 кадров в секунду
Far Cry 5 56 кадров в секунду в среднем 71 кадр / с в среднем
Демонстрация Infiltrator DLSS 55 кадров в секунду с DLSS / 47 кадров в секунду без DLSS 81 кадр / с с DLSS / 56 кадр / с без DLSS

RTX 2080 Ti намного лучше подходит для компьютерных игр с разрешением 4K.Играя в те же игры, 2080 Ti достиг в среднем 84 кадров в секунду в Destiny 2 в тигельном режиме, 71 кадров в секунду в Far Cry 5 и 90 кадров в секунду в PUBG (или стабильных 60 кадров в секунду, если заблокирован). Между тем, Shadow of the Tomb Raider по-прежнему оказался проблемой, а 2080 Ti показал себя не намного лучше, чем 2080, в среднем всего 35 кадров в секунду при максимальных настройках. Предстоящее обновление трассировки лучей для Tomb Raider может иметь здесь значение, но пока оно не выйдет, мы не можем сказать наверняка.

В демонстрации Infiltrator , в которой был включен DLSS, 2080 Ti достиг максимальной скорости 81 кадр / с, а затем колебался около 75 для большей части демонстрации, тогда как 2080 достиг максимальной скорости 55 кадр / с, снижаясь до 43 кадр / с во время загруженных сцен.

Большие обещания, но нам придется подождать и увидеть

Судя по результатам нашего тестирования, обещание Nvidia поиграть в 4K со скоростью 60 кадров в секунду с RTX 2080 просто не оправдывается. Если вы готовы пойти на компромисс с настройками детализации, то это может сработать, и некоторым более старым играм удастся достичь этого рубежа.Но если вы покупаете 2080, вам следует придерживаться разрешения 1440p или ниже. Это то, что вы уже можете сделать с существующими картами, но 2080 дает вам гораздо больше возможностей для лучших настроек сегодня и более сложных игр в будущем. Наши краткие тесты демонстрации DLSS показали потенциал некоторого прироста производительности, который она могла бы принести, но не стоит тратить деньги на карту и надеяться, что со временем она станет лучше.

Трассировка лучей привлекает внимание заголовков и звучит великолепно, но практические преимущества остаются неизвестными за пределами шикарных демонстраций.Множество игр, вероятно, будут поддерживать его в будущем, но настоящей проверкой будет то, будет ли поддержка консолей следующего поколения. Разработчики игр все чаще создают игры, рассчитанные на масштабирование на различном оборудовании. Внедрение консолей, безусловно, также ускорит распространение ПК. Если и есть компания, которая может продвигать трассировку лучей, так это Nvidia, но это все равно будет проблемой. В архитектуре Тьюринга есть действительно впечатляющие изменения, и Nvidia по-прежнему имеет очень небольшую конкуренцию со стороны AMD в этом диапазоне высокопроизводительных видеокарт.Если вы сейчас рассматриваете высокопроизводительную видеокарту, вы, вероятно, будете смотреть исключительно на что-то от Nvidia, поэтому компания просто конкурирует сама с собой, пока AMD не догонит ее.

Общая производительность RTX 2080 впечатляет, а скачок по сравнению с GTX 1080 заметен и стоит вложенных средств, особенно для требовательных игр. Но единственный жизнеспособный вариант для игр 4K — это RTX 2080 Ti, а версия Founders Edition от Nvidia обойдется вам в 1199 долларов. Это серьезное вложение для игр с разрешением 4K, и это еще до того, как вы дойдете до 2000 долларов, которые в настоящее время необходимо потратить, чтобы получить монитор 4K с частотой обновления 144 Гц.

Итак, да, 4K / 60 fps gaming — это здесь с линейкой видеокарт RTX, но вам придется заплатить высокую премию, чтобы получить ее.

Обзор видеокарты

GIGABYTE GeForce RTX 3080 Ti EAGLE 12G

Введение

2 июня 2021 года NVIDIA представила видеокарту GeForce RTX 3080 Ti Founders Edition. Через день партнерские видеокарты-надстройки выпустили свои видеокарты. Пришло время для AIB (партнеров по надстройке платы), и в этом ключе сегодня у нас есть видеокарта GIGABYTE GeForce RTX 3080 Ti EAGLE 12G GV-N308TEAGLE-12GD.

Это наша первая рассматриваемая здесь кастомная видеокарта на базе графического процессора GeForce RTX 3080 Ti. Когда мы говорим, что это розничная карта, мы имеем в виду, что мы заплатили за доставку и взяли взаймы у щедрого пользователя форума. Этот человек купил эту видеокарту, выиграв Newegg shuffle за, получите это, 1195 долларов! Правильно, ПО МАРШРУТНОЙ ЦЕНЕ в размере 1199 долларов США. Мы хотим поблагодарить этого человека за то, что он одолжил нам свою карту, и мы ценим это. В рознице больше не бывает.Мы очень рады видеть, что предлагает этот вариант GIGABYTE.

NVIDIA GeForce RTX 3080 Ti

Сначала немного о самой GeForce RTX 3080 Ti. NVIDIA выпустила его 3 июня rd 2021 года по рекомендованной розничной цене 1199 долларов. Важно помнить, что NVIDIA не является производителем для партнеров по надстройке, а является производителем только Founders Edition, поэтому такие производители, как GIGABYTE, по-прежнему определяют свои собственные MSRP.

GeForce RTX 3080 Ti построен на 8-нм кристалле Samsung GA102-225 на базе архитектуры NVIDIA Ampere.Он состоит из 80 SM, 10240 ядер CUDA, 112 ROP, 320 TMU, 80 ядер RT (2 -го поколения ) и 320 тензорных ядер (3 -го поколения ). Базовая частота составляет 1365 МГц, а частота разгона — 1665 МГц. Он имеет 12 ГБ памяти GDDR6X с частотой 19 ГГц на 384-битной шине памяти, обеспечивающей пропускную способность памяти 912 ГБ / с. TDP составляет 350 Вт.

GIGABYTE GeForce RTX 3080 Ti EAGLE 12G

Сегодняшний обзор видеокарт — самый интересный, вместо того, чтобы рассматривать топовые артикулы или модели, мы фактически рассматриваем самые дешевые артикулы / модели.Когда дело доходит до этого, любой артикул или модель, которую вы можете достать, — это хорошие новости. SKU более низкого уровня обычно более распространены, так как SKU более высокого уровня имеют более высокий спрос. Эти базовые SKU, назовем их, могут того стоить, потому что часто, как в случае с нашей видеокартой, она имеет индивидуальную сборку с индивидуальным охлаждением и функциями GIGABYTE.

GIGABYTE GeForce RTX 3080 Ti EAGLE 12G находится в основании, а прямо над ним — модель «OC» с заводским разгоном, но с таким же кулером.У нашего нет заводского разгона, он работает на эталонной частоте разгона NVIDIA в 1665 МГц. Версия OC EAGLE работает с заводским разгоном 1680 МГц, что не очень большая разница. Над EAGLE находится VISION, затем GAMING, затем MASTER, затем XTREME и, наконец, версии с водяным охлаждением.

Поскольку тактовая частота и характеристики такие же, как у Founders Edition, давайте разберемся, что отличает эту карту от нее. Это сводится к конструкции и дизайну.GIGABYTE доработала аппаратные компоненты печатной платы и предоставила видеокарте собственный радиатор и вентилятор, а также RGB Fusion 2.0.

Эта видеокарта оснащена системой охлаждения GIGABYTE WINDFORCE 3X с альтернативными вращающимися вентиляторами. Всего имеется три вентилятора, два из них 90 мм и один 80 мм. Вентиляторы имеют уникальную конструкцию лопастей. Воздушный поток разделяется треугольным краем вентилятора и плавно направляется через трехмерные полосы на поверхности вентилятора.

Вентиляторы также вращаются в направлении, противоположном вентилятору, рядом друг с другом, чтобы уменьшить турбулентность соседних вентиляторов и увеличить давление воздуха.Смазка Graphene nano используется для продления срока службы вентиляторов в 2,1 раза, что близко к сроку службы двойных шарикоподшипников, но с более тихим звуковым профилем. Вентиляторы также поддерживают технологию GIGABYTE 3D Active Fan, которая отключает вентиляторы, когда графический процессор находится в режиме низкой нагрузки или в игре с низким энергопотреблением.

Радиатор состоит из семи композитных медных тепловых трубок, а большая медная пластина непосредственно касается графического процессора. Эта медная пластина касается не только графического процессора, но и видеопамяти для их охлаждения. GIGABYTE Screen Cooling используется для обеспечения прохождения воздушного потока через охлаждение тепловых трубок и лучшего отвода тепла.У видеокарты цельнометаллическая задняя панель. Он также действует как дополнительная структура, делающая видеокарту менее гибкой и более прочной. Задняя панель приподнята и вентилируется, поэтому тепло не задерживается.

GIGABYTE использует более совершенные конструкции фаз питания, чтобы полевые МОП-транзисторы могли работать при более низких температурах. Имеется встроенная защита от перегрева и балансировка нагрузки для каждого полевого МОП-транзистора. Дроссели и конденсаторы, сертифицированные GIGABYTE Ultra Durable, также используются для увеличения срока службы. В конструкции печатной платы используется полностью автоматизированный производственный процесс для обеспечения высокого качества и устранения острых выступов паяных разъемов.

GIGABYTE также встроила в видеокарту свой RGB Fusion 2.0. Он имеет 16,7 млн ​​настраиваемых параметров цвета и множество световых эффектов. Вы также можете синхронизировать освещение с другими устройствами AORUS. Программное обеспечение AORUS Engine поддерживается для управления возможностями разгона, включая напряжение и конфигурацию RGB.

Это подводит нас к размеру видеокарты, она намного больше, чем у Founders Edition. Его длина составляет 12,5 дюйма, ширина — 5 дюймов, а его размер составляет 2 дюйма.7 слотов в высоту или 2,2 дюйма. Для питания требуется два 8-контактных разъема питания, и GIGABYTE рекомендует блок питания на 750 Вт. Для подключения он имеет три порта DisplayPort 1.4a и 2 порта HDMI 2.1. Это довольно много возможностей для подключения.

Лучшая видеокарта 12 ГБ в 2021 году: окончательный обзор

Графика — самая важная часть вашего компьютера, видеокарты фактически контролируют все нули и единицы и превращают их в удивительные пиксели на экране компьютера. Хотя раньше было почти невозможно получить такие чудовищные пиксели из-за таких кремниевых продуктов.Обзор поможет вам выбрать лучшую видеокарту 12 ГБ, доступную на рынке, поскольку одна и та же видеокарта подойдет не всем.

Они также известны как видеокарты и фактически важная покупка искры для геймеров. Поэтому поиск лучшей видеокарты 12 ГБ при настройке компьютера является обязательным. Этим картам в 2021 году не хватит по многим причинам, таким как covid-19, крипто-майнинг и т. Д., Но мы отобрали для вас лучшие видеокарты 12 ГБ в 2021 году, сбалансировав при этом удивительные функции, цену, качество и эффективность карт.

Список лучших видеокарт 12 ГБ

Ознакомьтесь с подробными обзорами лучшей видеокарты на 12 ГБ ниже.

Это графическая карта с самой высокой производительностью. Эта карта-чудовище была впервые выпущена 26 мая -го , 2015. В ней используется совершенно новый GM 200 maxwell. Для этого требуется только 8-контактный и 6-контактный разъемы питания. Он доступен для продажи в виде готового устройства, просто подключите его и платите за все свои любимые игры с потрясающими пикселями 4K и выше.Он также поставляется с комплектом обновления. Эта графическая карта весит около 3 фунтов. Эта карта имеет 12 гигабайт памяти и 250 Вт TDP, что намного больше, чем у GTX 980. Базовая тактовая частота немного ниже — 1 гигагерц. Он весит около 3 фунтов.

Характеристики
  • Он имеет лучшую функцию водяного охлаждения, которая в основном регулируется с помощью 120-мм радиатора.
  • Поставляется с вентилятором, позволяющим снизить рабочую температуру графического процессора.Более того, вентилятор охлаждает не только графический процессор, но и оборудование для регулирования мощности.
  • EVGA обладает всеми качествами, такими как непревзойденная графика, акустические, тепловые и энергоэффективные характеристики.
  • EVGA в основном сочетает в себе все характеристики новой архитектуры NVIDIA maxwell более совершенным образом.
  • Это гарантирует, что вы не отвлечетесь от игры в потрясающем разрешении 4K.
  • Эта видеокарта известна как самая мощная графическая карта, выпущенная NVIDIA в 2015 году.

Плюсы и минусы Плюсы
  • Невероятная система охлаждения.
  • Быстрая скорость.
  • Виртуальная реальность.
Минусы
  • На карте нет задней панели.

Эта высококачественная видеокарта была выпущена 18 октября 2013 года. С помощью этого удивительного графического процессора Tesla k40 можно выполнять множество сложных задач, таких как ускорение, перекодирование видео, криптография, анализ сложных данных и рендеринг 3D-моделей.Обладая огромной памятью, его ускоритель графического процессора идеально подходит для самых требовательных высокопроизводительных вычислений и огромных наборов проблем с данными.

Самое лучшее в этой карте NVIDIA Tesla — это то, что она в 10 раз быстрее CPU. Он также имеет функцию Tesla GPUBoost, которая преобразует запас мощности в управляемое пользователем повышение производительности. Кроме того, он имеет скорость памяти 3000 МГц и размер оперативной памяти видеокарты 12 ГБ. Карта NVIDIA Tesla оснащена вычислительным процессором GPU с 8-контактным кабелем питания, а также 6-контактным кабелем питания, что делает его быстрым, эффективным и самым надежным.

K40 — это жесткий запуск от NVIDIA и их партнеров, с отдельными картами и OEM-системами, оснащенными ими.

Характеристики
  • Разнообразные приложения можно разблокировать с помощью ускорителя графического процессора или графической карты Tesla. Кроме того, графический процессор NVIDIA K40 может повысить управляемую пользователем производительность за счет запаса мощности.
  • Сверхбыстрая память GDDR5 объемом 12 ГБ может обрабатывать в 2 раза большие наборы данных, что позволяет быстро обрабатывать огромные объемы данных.
  • Новые потоки могут быть динамически созданы с помощью динамического параллелизма, что упрощает пользователям переход между динамическими и гибкими структурами данных.

Плюсы и минусы Pros
  • Tesla заполучила некоторые из лучших вещей, которые только достигли массового производства, такие как модуль 4Gbit GDDR5.
  • При максимальной вычислительной нагрузке tesla k40 может достигать 150 Вт.
  • tesla k40 работает без HDMI или порта дисплея для вывода видео.
Минусы
  • Этот NVIDIA K40 требует активного охлаждения.

Это одна из лучших видеокарт емкостью 12 Гбайт с тремя вентиляторами на передней панели, обеспечивающими максимальный воздушный поток и предотвращение нагрева. У него есть два 8-контактных разъема питания и потрясающая скорость 16 гигагерц. Эта лучшая видеокарта на 12 ГБ весит всего около 4,11 фунта, что упрощает транспортировку.

Три порта дисплея 1.4 прикреплены к задней части карты и мультимедийный интерфейс высокой четкости (HDMI) 2.Также прилагается 1, на котором есть одобрение XFX. В дополнение к этому, HDMI может управлять пропускной способностью до 48 гигабайт. Он имеет 16 гигабайт памяти, но конфигурационная память заканчивается на 12 гигабайтах. У XFX не только улучшенное цифровое разрешение 7680 x 4320, но и внешний дисплей лучше, чем у многих графических карт.

Подводя итог, XFX может быть очень приятным и может дать вам надлежащие результаты. Карта может быть быстрой, крутой и тихой одновременно.

Характеристики
  • Самое лучшее в этой видеокарте XFX Speedster — это то, что она не работает в режиме производительности.
  • Он имеет тактовую частоту разгона 2581 мегагерц, а во время игры она составляет 2424 мегагерца.
  • Для работы требуется блок питания мощностью не менее 650 Вт.
  • Он имеет 2560 потоковых процессоров.
  • XFX имеет слот 2,75, высоту 132,00 мм и длину около 323,00 мм.

Плюсы и минусы Pros
  • Игровая видеокарта XFX Speedster дешевле фантомной игровой видеокарты.
  • Обладает сверхстабильностью и повышенной частотой.
  • В этой видеокарте используется технология нескольких дисплеев AMD Eyefinity.
  • Общая потребляемая мощность в режиме ожидания составляет около 12 Вт.
Минусы
  • Merc RX 6700 не имеет материнской платы asrock.

Эта графическая карта на 12 Гбайт вытесняет все остальные карты своей чудовищной производительностью. Он имеет более крупный охлаждающий блок, так как оснащен графическим процессором с 3 вентиляторами. Лучше всего то, что вентиляторы перестают вращаться, когда температура опускается ниже 55 градусов по Цельсию.Подключены два мультимедийных интерфейса высокой четкости (HDMI) 2.1. Он также включает в себя три порта дисплея 1.4, которые обеспечивают защиту широкополосного цифрового контента (HDCP) 2.3.

В основном, эта графическая карта на 12 ГБ работает на частоте 1780 мегагерц, а ее обычная базовая частота составляет 1,41 гигагерца. RTX 3060 поддерживает разрешение до 8k, поэтому эта видеокарта необходима, если вы играете в игры с портом дисплея 1440 или портом дисплея 1080.

Характеристики
  • Имеет металлическую заднюю пластину.
  • Карта имеет 3584 кубических ядра.
  • Поставляется с выходом на 5 дисплеев (2 HDMI и 3 HDCP)
  • Мощность 850 ампер.
  • Конденсаторы военного назначения.

Плюсы и минусы Плюсы
  • Лучшая видеокарта 12 ГБ, которую вы найдете в этом ценовом диапазоне.
  • Потребляет меньше электроэнергии, 16 Вт в час.
  • Он не издает много шума, поэтому вы можете спокойно наслаждаться играми.
Минусы
  • Немного дороже
  • Вентиляторы необходимо заменять через определенное время.

Nivida quadro произведен компанией HP, впервые выпущен на рынок 20 октября -го 2013 года. Имеет графическую карту на 12 гигабайт. Эта Quadro K6000 похожа на GeForce 780Ti, единственное существенное отличие заключается в оперативной памяти. K6000 имеет 64-битные блоки с плавающей запятой, которые используются в других графических операциях.

Самое лучшее в этой карте то, что Quadro K6000 имеет базовую частоту памяти 902 мегагерца.Он улучшил производительность вычислений по сравнению с предыдущими моделями. Кроме того, он использует низкое энергопотребление, поэтому он может развертывать несколько компьютеров одновременно, не выстраивая сотни таких карт и не увеличивая ваш счет на сотни.

Видеокарта имеет двухслотовые порты DVI с двумя портами дисплея 1.2. Он имеет высококачественные возможности отображения, такие как входной и выходной SDI (последовательный цифровой интерфейс).

Характеристики
  • K6000 может вычислять 5x гигафлопс.
  • У него лучшая графика и больше всего памяти.
  • Использует только 225 Вт блока питания.
  • Меньше тепла и шума.
  • Имеет 3D синхронизированное стерео.

Плюсы и минусы Pros
  • Эти видеокарты идеальны для профессиональной визуализации, редактирования видео, Autocad и т. Д.
  • Лучше всего для людей, которые хотят сделать работу с графической обработкой быстрой и эффективной.
Минусы
  • Карта NVIDIA Quadro K6000 не идеальна для игр.

Руководство по покупке лучшей видеокарты

Когда вы настраиваете или обновляете свой компьютер, очень важно выбрать правильную видеокарту. Поскольку производительность видеокарты напрямую влияет на игровой процесс, хорошая видеокарта может улучшить игровой процесс. Но чем выше производительность видеокарты, тем дороже цена, поэтому очень важно выбрать правильную видеокарту, которая вам подходит.

Мы должны понимать, что выбор видеокарты не является самостоятельным решением, и ее нужно выбирать в сочетании с личным использованием и другими компьютерными аксессуарами. Пожалуйста, сначала ознакомьтесь с этим руководством по покупке видеокарты, выбирая лучшую видеокарту 12 ГБ.

1. Введение названия видеокарты NVIDIA и AMD

При покупке видеокарт нам все равно необходимо знать название и параметры видеокарт, иначе легко обмануть.Давайте посмотрим на текущие продукты NVIDIA. В настоящее время видеокарты NVIDIA в основном включают 20 серий и 10 серий, а также последние 30 серий, из которых 20 серий включают RTX 2080, RTX 2060, 10 серий включают GTX 1660 и GTX 1650.

Мы видим, что в названиях видеокарт NVIDIA есть несколько чисел, например 2080,2070,2060,1660. Чем больше здесь цифр, тем выше производительность. Кроме того, мы также можем видеть, что цифры перед некоторыми продуктами одинаковы, но есть суффиксы super или Ti.Вообще говоря, производительность карт Ti выше, чем у Super, производительность карт Super Series выше, чем у моделей без букв на хвосте, таких как GTX 1660 ti> GTX 1660 super> GTX 1660.

Этот метод сравнения применим только к продуктам одного производителя и той же архитектуры. Если продукты поставляются с другой архитектурой, это не применимо. Например, GTX 1660 и GTX 1080 не принадлежат к одной и той же архитектуре, поэтому нельзя сказать, что 1660 больше 1080, поэтому GTX 1660 мощнее GTX 1080.Для сравнения продуктов с разной архитектурой мы можем сравнивать только данные путем оценки.

Для графических процессоров от разных производителей мы не можем определить рейтинг производительности путем сравнения чисел в названии, например AMD RX 5500XT и NVIDIA RTX 2080, вы не можете определить, какая производительность графического процессора лучше, только по количеству их имя, хотя правила продуктов AMD такие же, как правила NVIDIA.

На официальном веб-сайте AMD AMD в настоящее время имеет три типа ядер графического процессора: один — это серия RX 5000, второй — серия RX VEGA, а третий — серия RX 500, чем больше количество названий продуктов, лучше производительность продукта, такого как RX590 и RX580.В RX580 название продукта такое же, но если в суффиксе названия продукта есть XT, производительность продукта лучше, например, RX 5600XT лучше, чем RX 5600.

2. Общие сведения о параметрах видеокарты

Когда мы знакомы с названием видеокарты, мы можем обнаружить, что в таблице параметров спецификации есть данные, которые мы не знаем, что они означают, когда мы выбираем лучшую видеокарту на 12 ГБ. Итак, давайте посмотрим на параметры подробнее.

1. Объем памяти видеокарты

емкость памяти для разработки относительно проста, чем выше разрешение и настройки качества изображения, тем больше потребность в хранилище видео. 4 ГБ памяти видеокарты можно в основном обрабатывать при разрешении 1080p. Если это разрешение 2К, необходима видеокарта на 6ГБ. Если это разрешение 4K, необходима видеокарта на 8 ГБ, а для ПК идеально подойдет видеокарта на 12 ГБ. Большинство видеокарт имеют строгие ограничения на объем видеопамяти, а разные видеокарты часто предусматривают разную емкость видеопамяти.Как правило, чем больше объем памяти, тем выше производительность видеокарты.

2. Тип и разрядность памяти видеокарты

GDDR5 и GDDR6 являются общими для текущей памяти видеокарты, и есть относительно редкая память HBM (используется видеокартой AMD RX Vega). Короче говоря, HBM лучше, чем GDDR6, и GDDR6 лучше, чем GDDR5. Также нужно обращать внимание на скорость памяти, чем выше скорость, тем лучше производительность. Разрядность видеопамяти соответствует типу ядра.Разные ядра также определяют разрядность видеопамяти. Так что производитель видеокарты не имеет права его настраивать. Обычная ширина видеокарт на рынке составляет 256 бит, 192 бит, 128 бит и 64 бит. Как правило, чем выше видеокарта, тем выше разрядность памяти.

3. Тактовая частота графического процессора

При том же ядре графического процессора, чем выше частота графического процессора, тем выше производительность видеокарты. И чем выше частота видеокарты той же марки, чем выше цена, тем лучше отвод тепла.Тем не менее, потенциал ядра графического процессора практически исчерпан, или AMD и NVIDIA строго ограничены, поэтому улучшение частоты не будет большим, а улучшение производительности не будет очевидным. Его нельзя увидеть в игре, можно только отразить при беге.

4. Количество CUDA или потоковых процессоров

Это очень важный параметр. Графические карты той же архитектуры обычно классифицируются по количеству CUDA или потоковых процессоров. Однако это сравнение может быть выполнено только между видеокартами с одинаковой архитектурой.Вообще говоря, чем больше CUDA или потоковый процессор, тем выше уровень видеокарты.

5. Размер видеокарты

Графическая карта может быть разделена на карту половинной высоты и карту полной высоты по высоте, по толщине можно разделить на карту с одним слотом, карту с двумя слотами, карту с 2,5 слотами, карту с тремя слотами и так далее. Текущая игровая видеокарта — это в основном все карты высокого уровня, и они часто занимают 2 слота. Как правило, чем выше уровень видеокарты, тем больше слотов она занимает и тем больше длина.Поэтому, выбирая лучшую видеокарту 12 ГБ для ваших нужд, вы должны соответствовать своему шасси и избегать проблем во время установки. В то же время проверьте, нет ли конфликта между компонентами и видеокартой на вашей материнской плате.

6. Порт видеовыхода

Основные порты вывода видео включают HDMI, DP и DVI. Тип-C более продвинутых точек также присоединяется. В настоящее время на большинстве видеокарт удален интерфейс VGA, поэтому нам нужно обратить внимание на то, какой тип интерфейса дисплея, соответствует ли он интерфейсу, предоставляемому видеокартой, и, если он не совпадает, его необходимо перенести.

7. TDP Энергопотребление Энергопотребление

TDP — важный параметр. Вообще говоря, чем выше производительность, тем выше потребление энергии и чем выше потребление энергии, это означает, что потребность в мощности выше, а требования к рассеиванию тепла выше. Поэтому, когда вы выбираете лучшую видеокарту 12 ГБ, обратите внимание на то, соответствует ли мощность источника питания, достаточно ли хороша теплоотдача корпуса машины, и если источник питания недостаточен, оборудование может быть повреждено.Плохой отвод тепла приведет к снижению производительности видеокарты и ухудшению игрового процесса.

8. Интерфейс питания видеокарты

Поскольку PCI-E может обеспечить мощность не более 75 Вт, видеокарта с TDP, превышающим 75 Вт, требует внешнего источника питания. Обычный интерфейс видеокарты — 6-контактный и 8-контактный, некоторые — один 6-контактный или один 8-контактный, а высокопроизводительная видеокарта часто предоставляет 2 8-контактных или даже 3 8-контактных интерфейса. Поэтому вам необходимо проверить, имеет ли ваш блок питания соответствующий интерфейс питания для видеокарты.

9. Устройство трассировки лучей

Это уникальная технология видеокарт серии NVIDIA RTX. Он доступен только для видеокарт серии 20. Ядро трассировки лучей в основном используется в игре для трассировки лучей в реальном времени. Эта функция может повысить точность воспроизведения игры, что является направлением развития в будущем. AMD в настоящее время не поддерживается, но будет поддерживать эту технологию в будущем.

10. Тензорное ядро ​​

Это также технология NVIDIA, которая в основном используется для поддержки глубокого обучения и высокопроизводительных вычислений.Поэтому, если есть потребность в работе AI (например, тензорном потоке), рекомендуется выбрать видеокарту NVIDIA с этим ядром. В этом случае у NVIDIA есть дополнительная информация и серьезная официальная поддержка для вас.

3. Как выбрать лучшую видеокарту 12 ГБ

Когда мы знакомы с правилами именования AMD и NVIDIA и имеем определенное представление о параметрах видеокарты, теперь мы можем выбрать лучшую видеокарту 12 ГБ для наших подходящих потребностей. При выборе стоит обратить внимание на следующие 5 принципов.

1. Определите GPU

Благодаря пониманию ядра видеокарты, общеизвестному рейтингу производительности AMD и NVIDIA с продуктами с одинаковой архитектурой, мы выберем правильный вариант между AMD 、 NVIDIA и видеокартами предыдущего поколения. Поэтому нам недостаточно выбрать правильный графический процессор только в соответствии с названием видеокарты. Нам также необходимо иметь определенное представление о рейтинге производительности графического процессора, как правило, производительность видеокарт оценивается с помощью различных тестов и сравнений.Классифицируем видеокарты ниже. Согласно классификации, нам нужно сначала выбрать ядро ​​видеокарты, такое как суперъядро GTX 1660 или ядро ​​RX590.

2. Комбинация GPU и CPU

Для игровых пользователей более разумным выбором будет потратить больший бюджет на видеокарту, но вы также должны обратить внимание на совместимость с процессором, процессор не может быть слишком экономным. Если вы играете в игру, также требуются некоторые фоновые задачи, необходим ЦП с 6 физическими ядрами.Рекомендуется ЦП уровня I5-9600K. Если у вас высокопроизводительная видеокарта, вам следует выбрать 8 ядер и процессор уровня I7-9700K. Кроме того, лучше начать с объема памяти 16 ГБ, а SSD должен соответствовать продуктам поддержки NVMe.

3. Адаптация дисплея

Производительность видеокарты в играх тесно связана с разрешением. При одинаковых настройках качества изображения чем выше разрешение, тем меньше количество кадров в игре, поэтому требования к производительности дисплея с высоким разрешением для видеокарты выше.Кроме того, если дисплей поддерживает высокую частоту обновления, более высокая производительность графической карты может использовать преимущества дисплея с высокой частотой обновления. Если дисплей поддерживает технологию защиты от разрывов, обратите внимание, что видеокарта NVDIA соответствует технологии G-sync, а видеокарта AMD — технологии FreeSync.

4. Разгон видеокарты

Раньше разгон видеокарты был актуальной темой, но сейчас для разгона видеокарты остается очень мало места.Из-за ограничений AMD и NVIDIA, а частота видеокарты уже приближается к пределу, места для разгона больше нет. Более того, разгон требует определенных навыков, а также необходимо учитывать рассеивание тепла, шум и стабильность системы. Поэтому новичкам заниматься разгоном не рекомендуется.

5. Блок питания и шасси

Энергопотребление видеокарт высокого класса часто относительно велико, поэтому мощность их блока питания должна не отставать.Если источник питания недостаточен или источник питания некачественный, может произойти трагедия поломки оборудования. Кроме того, следует учитывать пространство шасси. Если пространство слишком мало, некоторые видеокарты могут не быть установлены или рассеивание тепла будет затронуто после установки. Особенно пользователям небольших корпусов следует обратить внимание на проблемы с пространством коробки.

4. Выбирая лучшую видеокарту на 12 ГБ, следует ли выбирать AMD или NVIDIA?

В настоящее время на рынке представлены только два производителя графических процессоров, поэтому, покупая лучшую видеокарту 12 Гб, мы можем выбирать продукты только между AMD и NVIDIA.На текущем рынке графических процессоров NVIDIA занимает безусловное преимущество. Для пользователей, которые стремятся к максимальной производительности, они могут выбрать только видеокарту NVIDIA, продукты AMD могут сражаться с NVIDIA только на рынке среднего и низкого уровня.

Производительность графического процессора AMD в том же ценовом сегменте часто лучше, чем у графического процессора NVIDIA на рынке среднего и низкого ценового диапазона, но основная проблема AMD — большая проблема. Если вы хотите играть в онлайн-игры с большими требованиями к видеопамяти, рекомендуется выбрать видеокарту NVIDIA.Если вы выбираете видеокарту AMD RX Vega Series, вы должны проверить, достаточно ли мощности вашего блока питания. Что касается видеокарты серии AMD RX500, которая, несомненно, является рентабельной, ее производительность лучше, чем у видеокарты NVIDIA того же ценового уровня, но и ее энергопотребление выше.

5. Классификация видеокарт на всех уровнях

При классификации видеокарт мы в основном разделяем их по разрешению игры, для которого подходят соответствующие видеокарты.Мы можем разделить видеокарту на шесть уровней с помощью рейтинга производительности видеокарты.

Уровень 1: GeForce RTX 2080 Ti подготовлена ​​для разрешения 4K. GeForce RTX 2080 Super, GeForce RTX 2080, GeForce GTX 1080 Ti, GeForce RTX 2070 super и AMD Radeon VII также доступны для игры в некоторые игры в 4K.

Уровень 2: Radeon RX 5700 XT, GeForce RTX 2070, GeForce RTX 2060 super, Radeon RX 5700, GeForce GTX 1080, AMD Radeon RX Vega 64 подготовлены для игр 2K.

Уровень 3: GeForce RTX 2060, AMD RX 5600 XT, GeForce GTX 1070 Ti, Radeon RX 56 и GeForce GTX 1070 и GTX 1660Ti, при разрешении 1080P на них нет давления. И они также могут работать с разрешением 1440P, но некоторые изображения могут быть уменьшены при воспроизведении с разрешением 2K.

Уровень 4: GTX 1660 super, GTX 1660, AMD Radeon RX 5500 XT, AMD Radeon RX 590, AMD Radeon RX 580 в первой половине 2020 года являются основными графическими процессорами для игр с разрешением 1080p.

Уровень 5: GeForce GTX 1060 (6 ГБ), AMD Radeon RX 570, GeForce GTX 1650 super, GeForce GTX 1060 (3 ГБ) и GeForce GTX 1650 также могут играть в игры с разрешением 1080P, но качество игрового экрана будет снижено .

Уровень 6: AMD Radeon RX 550 и GeForce GT 1030 и графические процессоры ниже, они могут поддерживать только некоторые онлайн-игры, очевидно, что они не могут поддерживать игры с большими требованиями к видеопамяти. Однако преимущество этого типа видеокарты заключается в низком энергопотреблении, поэтому они подходят для тех пользователей, у которых есть особые требования к размеру видеокарты.

Последние мысли

Выбор лучшей видеокарты 12 Гб 2021 года — разумный выбор при настройке игрового компьютера. Мы можем судить о производительности по модели ядра графического процессора видеокарты и посмотреть, может ли она удовлетворить наши потребности. Таким образом, первое, что нужно учитывать при выборе лучших видеокарт, — это базовая модель видеокарты. После того, как определено ядро ​​видеокарты, другой наиболее важной задачей является также выбор подходящего процессора.Если вы не выберете подходящий процессор, ваша графическая карта не сможет идеально выполнять свою задачу.

Люди покупают графический процессор исходя из его производительности, но цена, характеристики и эффективность по-прежнему являются важными факторами при выборе лучшего графического процессора 12 ГБ. Нам следует позаботиться о частоте графического процессора, информации о видеопамяти, энергопотреблении TDP, интерфейсе вывода, тепловыделении и другой информации. И может случиться так, что немного более медленная карта может получить более высокий рейтинг.

Понравилось? Тогда обязательно ознакомьтесь с нашим другим руководством по лучшей видеокарте GDDR6 .

Power без компромиссов — обзор видеокарты GeForce RTX 3080 — GAMING TREND

Это вопрос, который возникает при каждом цикле обновления, и ответ всегда: «Это зависит от обстоятельств». Этот вопрос, конечно, звучит так: «Сейчас самое время обновить мою видеокарту?» Что ж, NVIDIA анонсировала свои карты GeForce RTX 3080 и 3090, и на этот раз ответ на этот вопрос немного проще.

К тому времени, когда вы прочтете это, у вас будет шанс предварительно заказать RTX 3080, но зачем вам это нужно? Что ж, если вы используете любую карту из 10-й серии, даже 1080Ti, давно пора. Было бы легко просто бросить вам тест за тестом, указать на числа и сказать: «Видите? Более высокие цифры! » но это окажет вам как потребителю медвежью услугу, а также возможности этого фантастического оборудования. Он способен на гораздо большее, чем просто кадры и разрешение, и именно в этих деталях вы поймете, почему этот 3080 стоил его вдвое дороже.Однако для этого нам нужно сделать неожиданный крюк.

Xbox Series X и PlayStation 5 уже не за горами, Microsoft вынуждена объявить об этом из-за утечки, а Sony сразу за ними. Эти новые платформы начинают вторгаться на территорию, где полностью доминировали высокопроизводительные ПК. 4K / 60, 1440p при 120 кадрах в секунду, трассировка лучей — эти вещи были просто (и редко) достижимыми на таком мощном оборудовании, как Xbox One X. Новые консоли начинают дышать разреженным воздухом с памятью GDDR6 с пропускной способностью памяти 560 ГБ / с. пропускная способность с разрешением 4K при тактовой частоте 14 Гбит / с.Впечатляет, но почему я говорю вам, игроку на ПК, эти вещи? Это связано с тем, что игры, создаваемые для этого будущего поколения, будут иметь порты PS5 и XSX, поэтому они также представляют уровень оборудования, используемого в качестве эталона в течение следующих четырех-пяти лет разработки. Конечно, будут эксклюзивы для ПК, но вряд ли они отклонятся слишком далеко от этого базового уровня. Таким образом, я собираюсь использовать опубликованные номера графических процессоров Xbox Series X (они выше, чем у PlayStation 5) как часть моего сравнения для GeForce RTX 3080, а также для GeForce RTX 3080 предыдущего поколения (и все еще звездного исполнителя). сам по себе), 2080 Ti, и я даже добавлю 1080 Ti, чтобы охватить все базы.

Чтобы полностью усвоить все, что находится под капотом GeForce RTX 3080, вам нужно разобраться в нескольких фоновых объектах. Я постараюсь объяснить их кратко и простым языком, чтобы вам не требовалось иметь степень инженера-электронщика, чтобы понять их. Достаточно сказать, что при подведении итогов может быть упущен какой-то нюанс, но общая идея верна. Если вы не согласны, напишите мне в Discord — я люблю болтать.

Cuda Cores:
Еще в 2007 году NVIDIA представила модуль ядра параллельной обработки, названный CUDA, или Compute Unified Device Architecture.Проще говоря, эти ядра CUDA могут вычислять и передавать графику. Данные проталкиваются через SM или потоковые мультипроцессоры, которые параллельно передают ядра CUDA через кэш-память. Когда ядра CUDA получают эту гору данных, они индивидуально захватывают и обрабатывают каждую инструкцию и делят ее между собой. RTX 2080 Ti, какой бы мощный он ни был, имеет 4352 ядра, что делает его еще более ошеломляющим, когда вы видите, что у GeForce RTX 3080 их колоссальные 8704 ядра. Теперь поймите, что большее количество ядер CUDA не всегда означает быстрее, но мы рассмотрим другие элементы, которые объясняют, почему в данном случае это очень важно.

Консоли текущего поколения и Gen-9 от Microsoft и Sony используют архитектуру AMD Zen 2, а это означает, что здесь нет ядер CUDA — они эксклюзивны для NVIDIA. Вместо этого они используют что-то похожее, но не так легко измерить или объяснить. Будет более ясно, когда мы перейдем к сопоставлению памяти и пропускной способности.

Boost Clock:
Boost Clock — вряд ли новая концепция, представленная в серии GeForce GTX 600, но это очень необходимая часть выжать каждый кадр из вашей карты.По сути, базовые часы — это «стандартная» скорость работы вашей карты, которую вы можете ожидать в любой момент времени, независимо от обстоятельств. С другой стороны, повышающая частота позволяет графическому процессору динамически регулировать скорость, выходя за рамки этой базовой частоты, если для использования доступна дополнительная мощность. Эта динамическая регулировка выполняется постоянно, позволяя карте переходить на более высокие частоты, пока температура остается в пределах допустимых значений. Благодаря лучшим решениям по охлаждению (подробнее об этом позже) GeForce RTX 3080 может обеспечивать гораздо более высокие тактовые частоты разгона, достигающие 1710 МГц — улучшение по сравнению со скоростью 2080 Ti в 1545 МГц.

GDDR6 против GDDR6X:
Возможно, вы заметили или не заметили, но есть очень тонкая разница между картами 2080 Ti, 3070 и 3080 и 3090. Первые два используют память GDDR6 — стандарт видеопамяти, которая также используется в обеих будущих консольных платформах. С другой стороны, RTX 3080 и 3090 используют GDDR6X. Какая разница? Что ж, 2080 Ti способен выдавать 616,0 ГБ / с через свой конвейер памяти — довольно ошеломляющий объем, но когда текстуры могут быть массивными при разрешении 4K или даже 8K, очень необходимая скорость.С другой стороны, GeForce RTX 3080 может выдавать 760 ГБ / с — значительное улучшение по сравнению с предшественником. В то время как 2080 Ti мог иметь дополнительный гигабайт места на 11 ГБ, 10 ГБ GDDR6X RTX 3080 более плотно упакованы, быстрее и эффективнее. Команда Micron (производитель и изобретатель памяти) сделала довольно большой шаг вперед с этой новой архитектурой памяти, нарушив некоторые фундаментальные правила, которые были неизменны до сих пор.

Двоичный код — это то, что говорят компьютеры — единицы и нули.Отправляя электрические сигналы через транзистор для индикации включенного или выключенного состояния, мы можем создавать всевозможные вещи, от программ до графики и цифрового звука. Что ж, Micron спросил, что произойдет, если мы сможем более точно измерить состояние этого электрического заряда и включить не только включение и выключение, но и четыре состояния по конвейеру? GDDR6X — это ответ на этот вопрос, поскольку он делает именно это. Раньше этого никогда не делали с памятью, и поскольку память формирует пути для всего, что делает графический процессор, это влияет на всю платформу.Независимо от того, занимаетесь ли вы редактированием видео, играете или позволяете своей видеокарте выполнять работу искусственного интеллекта как DLSS, возможность удерживать вдвое больше инструкций на каждый кусочек яблока — это феноменально. Для тех из вас, кто интересуется математикой за кулисами, четыре состояния GDDR6X (PAM4 или четырехимпульсная амплитудная модуляция) — это 00, 01, 11 и 10, что позволяет увеличить ширину памяти без значительного увеличения мощности или нагрева или уменьшения надежного обнаружения состояния. Это один из главных секретов, которые обеспечивают мощь этой новой видеокарты NVIDIA.

Что такое RT Core?
Возможно, одним из наиболее неправильно понимаемых аспектов серии RTX является ядро ​​RT. Это ядро ​​является выделенным конвейером для потокового мультипроцессора (SM), где рассчитываются световые лучи и пересечения треугольников. Проще говоря, это математическая единица, благодаря которой освещение в реальном времени работает и выглядит наилучшим образом. Несколько ядер SM и RT работают вместе, чтобы чередовать инструкции, обрабатывая их одновременно, что позволяет обрабатывать множество источников света, пересекающихся с объектами в окружающей среде разными способами, и все это одновременно.На практике это означает, что команде графических художников и дизайнеров не нужно «вручную размещать» освещение и тени, а затем настраивать сцену в зависимости от пересечения и интенсивности света — с помощью RTX они могут просто разместить источник света в сцену и пусть карта сделает всю работу. Я, конечно, слишком упрощаю это, но это общая идея.

Карты архитектуры Тьюринга (серия 20X0) были первыми реализациями этой специализированной технологии ядра RT. У 2080 Ti было 72 ядра RT, всего 29.Пропускная способность 9 терафлопс, тогда как RTX 3080 имеет 68 ядер RT 2-го поколения с удвоенной пропускной способностью версий на основе Тьюринга, способных обеспечивать мощность обработки света и теней 58 терафлопс при одновременной трассировке лучей, затенении и вычислениях. ! Это не лишняя маркетинговая ерунда — 3080 способен выполнять вдвое больше вычислений пересечений лучей и треугольников, что значительно упрощает реализацию возможностей освещения и теней в реальном времени для разработчиков для создания реалистичных миров, в которых мы можем жить.

Что такое тензорное ядро?
Вот еще один пример «а зачем мне это нужно?» в архитектуре GPU — Тензорное ядро. Эта относительно новая технология от NVIDIA широко использовалась в высокопроизводительных суперкомпьютерах или центрах обработки данных, прежде чем наконец появилась на потребительских картах в последних и более мощных картах серии 20X0. Теперь, с RTX 3080, у нас есть третье поколение этих процессоров и их перемещение (т.е. 2080 Ti имеет 240 ядер второго поколения, 3080 имеет 272 тензорных ядра третьего поколения, но они, как сообщается, в два раза быстрее). , что они делают?

тензорных ядер используются для обучения на основе искусственного интеллекта, и мы видим, что это более непосредственно применяется к играм через DLSS или суперсэмплинг глубокого обучения.DLSS — это больше, чем маркетинговые модные слова, DLSS может взять несколько кадров, проанализировать их, а затем сгенерировать «идеальный кадр», интерпретируя результаты с помощью искусственного интеллекта с помощью суперкомпьютеров в штаб-квартире NVIDIA. Второй проход процесса использует то, что он узнал о наложении имен на первом проходе, а затем «заполняет» то, что он считает более точными пикселями, в результате чего получается более чистое изображение, которое можно визуализировать еще быстрее. Удивительно, но результаты могут быть чище, чем исходное изображение, особенно при более низком разрешении, а меньший объем обработки означает, что можно визуализировать больше кадров с использованием сэкономленной энергии.Это буквально бесплатные кадры. DLSS 3.0 все еще витает в воздухе, но очень скоро мы увидим, что это применяется более широко, чем сегодня. Нам придется внимательно следить за этим, но когда он выйдет, эти тензорные ядра станут компонентами для выполнения работы. Это все фантастично, но не лучше ли вам увидеть это в действии? Вот небольшой фрагмент из Control, который делает именно это.

DLSS 2.0 был представлен в марте 2020 года, и он взял на себя принципы DLSS и намеревался разрешить жалобы пользователей и разработчиков, одновременно повышая скорость.С этой целью они переработали основной конвейер Tensor, эффективно удвоив скорость, сохранив при этом качество изображения оригинала, или даже повысили его резкость до такой степени, что оно выглядит лучше исходного! Сообществу пользователей NVIDIA предоставила элементы управления DLSS, предоставив на выбор три режима — «Производительность» для максимальной частоты кадров, «Сбалансированный» и «Качество», которые позволяют получить конечное изображение наилучшего качества. Разработчики увидели самое большое благо в DLSS 2.0, поскольку им была предоставлена ​​универсальная сеть обучения ИИ.Вместо того, чтобы обучать каждую игру и каждый кадр, DLSS 2.0 использует библиотеку параметров, не связанных с игрой, для улучшения графики и производительности, а это означает, что технология может быть применена к любой игре, если разработчик решит это сделать. Циклы разработки игр таковы, каковы они есть, а поскольку технологии появятся на улицах только в начале этого года, вполне вероятно, что мы увидим больше использования DLSS 2.0 во время праздничного молниеносного блица, и даже больше после начала года.

Время кадра vs.Частота кадров:
Важно понимать, что эти два термина никоим образом не взаимозаменяемы. Framerate сообщает вам, сколько кадров отображается каждую секунду, а Frametime сообщает, сколько времени потребовалось для визуализации каждого кадра. Несмотря на то, что большое внимание уделяется частоте кадров и разрешению, с которым он рендерится, времени кадра, вероятно, должно уделяться равное, если не большее внимание. Когда рендеринг кадров занимает слишком много времени, они могут быть отброшены или рассинхронизированы, что приведет к разного рода хаосу, включая заикание.Если кадр 1 занимает 17 мс, а кадр 2 — 240 мс, это приведет к нестабильному результату. Поймите, что оба важны, и не сосредотачивайтесь близоруко только на частоте кадров, поскольку это говорит только половину истории, поскольку, даже если устройство способно выдавать 144 кадра в секунду, если оно делает это неравномерно, вы увидите прерывистый вывод. .

Что такое RTX IO?
Прямо сейчас, будь то на ПК или на консолях, существует поток данных, который в значительной степени неэффективен, и наши игры страдают от этого.Платформы хранения доставляют товары по шине PCI, в ЦП и в системную память, где они распаковываются. Эти распакованные текстуры затем передаются обратно по шине PCI на графический процессор, который затем передает их памяти графического процессора. Как только это будет сделано, оно будет передано вашим глазам через монитор. У Microsoft есть новый API хранилища под названием DirectStorage, который позволяет твердотельным накопителям NVMe обходить этот процесс. В сочетании с NVIDIA RTX IO сжатые текстуры вместо этого отправляются из высокоскоростного хранилища через шину PCIe прямо в графический процессор.Затем ресурсы распаковываются гораздо более быстрым графическим процессором и немедленно доставляются на ваш ожидающий монитор. Исключение этого постоянного бизнеса высвобождает энергию, которую можно было бы использовать где-то еще — NVIDIA оценивает улучшение до 100 раз. Когда разработчики говорят о возможности уменьшить размер установки, это напрямую связано с этой технологией. Итак, в чем подвох?

NVIDIA RTX IO — совершенно феноменальная технология, но она настолько нова, что никто не готов к использованию в прайм-тайм. В результате я могу только сказать вам, что он идет, и рассказать о том, насколько хороши эта концепция и технология, я не могу проверить это для вас.Тем не менее, по мере того, как платформы хранения данных переходят на невероятно высокоскоростные диски, которые, к сожалению, имеют очень малую емкость, можно поспорить, что мы увидим, как это воплотится в жизнь и быстро. Следите за новостями — это может стать огромной победой для геймеров во всем мире.

Немного бок о бок:

Прежде чем мы перейдем к сути бенчмаркинга, я думаю, что сейчас самое время провести параллельное сравнение грядущих консолей, GeForce RTX 2080 Ti и GeForce RTX 3080.Хотя это не обязательно сравнение яблок с яблоками, это даст вам представление о возможностях и производительности по сравнению с новейшим оборудованием NVIDIA.

NVIDIA GeForce RTX 3080 NVIDIA GeForce RTX 2080 Ti Xbox серии X PlayStation 5
Ядра NVIDIA CUDA 8,704 4,352 NA NA
Тактовая частота с ускорением (МГц) 1,710 1,545 1,825.00 2,233,00
Стандартная конфигурация памяти 10 ГБ GDDR6X 11 ГБ GDDR6 16 ГБ GDDR6 16 ГБ GDDR6
Ширина интерфейса памяти 320 бит 352-бит 320 бит 256 бит
Скорость памяти 19 Гбит / с 14 Гбит / с 14 Гбит / с 14 Гбит / с
Пропускная способность памяти 760.0 ГБ / с616 ГБ / с 560 ГБ / с448 ГБ / с
Максимальное разрешение 7680×4320 7680×4320 3840 x 2160 3840 x 2160
RT TFLOPS 58 26,9 12,15 10,28

Неудивительно, что карта, которая стоит больше, чем вся консоль, превосходит ее по производительности, но трудно поверить, что она обеспечивает гораздо большую мощность.При почти удвоенной мощности он способен обеспечивать частоту кадров и разрешение, о которых новые консоли Sony и Microsoft могли только мечтать. Без лишних слов, давайте выделим несколько игр, которые доведут любую систему до предела своих возможностей, и посмотрим, как каждая из них работает в разрешении 1080p, 1440p и 4K.

Тестирование:

Анализ:

Из этих тестов можно почерпнуть много интересной информации. Конечно, выдающимися являются прыжки с большим количеством прыжков, но это также указывает на что-то тонкое.Игры, в которых используется новое освещение, такое как RTX, вместо выполнения сложных вычислений освещения и теней, значительно выигрывают у своих современников без этой технологии. В качестве примера, Assassin’s Creed Odyssey, как известно, ограничен процессором, поэтому добавление дополнительных аппаратных средств в игру будет только пока. Если бы в игре использовались такие технологии, как RTX, мы могли бы убрать это ограничение, что, вероятно, принесло бы огромные выгоды.

Также интересно в этом списке производительность Red Dead Redemption 2.Как вы убедились в нашем подробном обзоре версии для ПК, приключения Rockstar на Диком Западе поставят практически любую видеокарту на колени. Что ж, с момента запуска появилось множество патчей, и более чем несколько обновлений драйверов обеспечили лучшую оптимизацию, и теперь мы видим, что он может достигать 4K / 60 на ПК с помощью всего нескольких переключателей на 2080 Ti. Что ж, с RTX 3080 вам даже не придется беспокоиться об этом — сдвиньте все вправо, включите режим DX12 и наслаждайтесь играми 4K со скоростью 60 кадров в секунду без компромиссов. Совершенно захватывающе.

Shadow of the Tomb Raider была одной из первых игр, в которых использовалось освещение RTX, и поэтому у нее было больше времени для доработки. Мало того, что 4K / 60 в максимальном качестве возможно, вы можете поразить эти цифры с помощью кадров, которые можно сэкономить на картах с RTX. Вы можете убедиться в этом, если посмотрите на цифры 4K на 1080Ti. Хотя это невероятно мощная карта по сей день, без технологии RTX и целого банка ядер Tensor и RT для разгрузки работы дает 40 кадров в секунду при 4K и без всех наворотов.

Давайте на секунду поговорим о наворотах. Keoken Interactive представила вызывающее стресс лунное приключение со своей игрой Deliver Us the Moon. Безусловно, это красивая игра, но она, несомненно, является лучшим примером того, почему RTX, ни в коей мере не преувеличивая, меняет правила игры. Посмотрите это видео:

С точки зрения погружения нет ничего лучше такого прыжка. Погружение — это избавление от недоверия, и отражение вашего лунного космонавта, появившегося в стекле жилого блока, помогает усилить холодную реальность полного одиночества в своей миссии.Наблюдение за мерцанием панели состояния в стекле — это напоминание за пределами камеры о том, что вы — один маленький провал от верной смерти. Свет и тень изгибаются сквозь преломление стекла, чтобы напомнить вам, что ваша станция вращается, когда она летит вокруг нашего ближайшего небесного тела через космический вакуум. Музыка может создать или снять напряжение в сцене, но просмотр таких игр, как Deliver Us the Moon с освещением и эффектами в реальном времени, делает невозможным вернуться назад.

На самом деле, многие игры в этом списке страдают от загрузки процессора.Обмен между процессором, памятью, графическим процессором и носителем данных создает несколько узких мест, которые могут повлиять на вашу частоту кадров. Если ваша видеокарта может получать гигабайты информации каждую секунду, а ваш убогий механический жесткий диск изо всех сил пытается достичь скорости 133 МБ / с, у вас проблема. Если вы используете высокоскоростное хранилище SSD Gen3 или 4 m.2, этот диск может работать со скоростью 3 или даже 4 ГБ / с, но если ваш старый процессор не способен его обрабатывать, он не сможет заполнить ваш графический процессор или. Предположим, у вас есть блестящий новый процессор Intel 10-го поколения, вы можете быть удивлены, что он также может быть недостаточно быстрым для того, что находится под капотом этого RTX 3080.Мы обсудим, как NVIDIA пытается решить эту дилемму, немного дальше в этом обзоре, но, проще говоря, NVIDIA снова опережает кривую мощности, и процессоры, память и даже шина PCI должны наверстать упущенное, прежде чем все это. мощность используется полностью, а налоги гораздо меньше.

NVIDIA Broadcast:
Есть дополнительный бонус, связанный с дополнительной мощностью ядер Tensor. Хотя ядра AI действительно обрабатывают DLSS, они также обеспечивают дополнительное сглаживание в приложении, которое NVIDIA называет «NVIDIA Broadcast».Это приложение может улучшить качество звука вашего микрофона, динамиков и камеры, применяя обучение искусственному интеллекту во многом так же, как мы видим это в приведенных выше примерах. Статический или фоновый шум в вашем аудио, артефакты при потоковой передаче с зеленым экраном (или без него, поскольку Broadcast может просто применить виртуальный фон), отвлечение шума от звука другого человека и даже выполнение небольшого отслеживания головы, чтобы удержать вас в кадре, если вы из тех, кто много перемещается. Это не только приложение, ориентированное на игры, оно работает для любой видеоконференцсвязи, поэтому смело уменьшайте масштаб, пока мы все застряли внутри.

Внутри приложения три вкладки — микрофон, динамики и камера. Микрофон должен позволять удалять фоновый шум из звука. Я использую механическую клавиатуру, и мне не раз говорили, что она громкая. Что ж, даже с этим включенным, он все равно громкий — моя Seiren Elite не пропускает ни одного звука.

Вторая вкладка — это динамики, которые должны уменьшить количество шума, исходящего от других источников. Я обнаружил, что это довольно эффективно, убирая неприятные шумы при печати от других — надеюсь, однажды я смогу сделать то же самое для них.

На последней вкладке происходит волшебство. На вкладке «Камера» вы можете размыть фон, заменить его видео или изображением, просто удалить фон или «автоматически кадрировать». Программное обеспечение для звонков, такое как Zoom и Skype, тоже может это делать, но даже на этой ранней стадии я могу сказать, что оно не так хорошо. Более того, вставить его в OBS было так же просто, как выбрать устройство, выбрать «Camera NVIDIA Broadcast», и все было сделано. Нет ничего проще.

Программное обеспечение все еще находится в стадии тестирования и разработки, поэтому я не уверен, когда вы его получите, но результаты меня очень впечатлили.Я заметил незначительное (~ 2%) снижение частоты кадров при записи с помощью OBS — жалкие гроши, когда в таких играх, как Overwatch и Death Stranding, частота кадров превышает 150 кадров в секунду, и это работает с довольно ужасным освещением, как у меня в офисе. Правильно освещенная комната будет выглядеть намного лучше.

Охлаждение и шум:

Одно дело — обеспечить невероятно высокую частоту кадров и сногсшибательное разрешение, но если вы сделаете это, одновременно взорвав мне барабанные перепонки с пронзительным воем, когда ваши вентиляторы в стиле Harrier Jet раскрутятся, чтобы остыть, у нас возникнет проблема. .К счастью, NVIDIA осознала это, а также необходимость охлаждения ошеломляющих 28 миллиардов транзисторов (у 2080 Ti было 18,9 миллиарда), и они переработали 3080, чтобы соответствовать. Карта имеет прочную конструкцию с новой системой воздушного потока, которая более эффективно отводит тепло и каким-то образом делает это, будучи на 10 дБ тише, чем ее предшественник. Обычно я называю это маркетинговым заявлением, но я измерил это сам.

Нормальный поток воздуха через корпус при стандартной настройке начинается с забора воздуха спереди, проталкивания его через жесткие диски и, надеюсь, наружу сзади.Я могу сказать вам, что корпус, который я взял у Coolermaster, был неправильно собран по прибытии с 200-миллиметровым вентилятором наверху, нагнетающим воздух обратно в корпус, поэтому всегда лучше проверять стрелки сбоку, чтобы убедиться, что ваш корпус следует по этому пути. Конструкция 2080 Ti представляла собой сплошную плату, которая проходила по всей длине карты, а вентиляторы внизу отводили тепло. К сожалению, для этого требуется, чтобы он снова циркулировал по пути воздушного потока, поднимаясь вверх, а затем выходя из верхних и задних вентиляторов корпуса.

Система обдува RTX 3080 просто прекрасна. Поскольку благодаря 8-нанометровому производственному процессу карта была уменьшена вдвое, осталось много места для более крупного охлаждающего блока и ребер, а также соответствующей системы вентиляторов. Вентилятор в верхней части карты (после того, как он установлен в корпусе), вместо этого втягивает воздух снизу вверх, проходя через тепловую трубку гибридной паровой камеры (поскольку больше нет длинной печатной платы, препятствующей воздушному потоку), и толкает он находится прямо на пути нормального воздушного тракта корпуса.Второй вентилятор, расположенный в нижней части карты и ближайший к монтажному кронштейну в задней части корпуса, также втягивает воздух, но вместо того, чтобы пропускать его через карту, он выталкивает излишки тепла из задней части корпуса. карту через специальную вентиляционную трубку. Наблюдать:

Вы можете увидеть результаты во время выполнения тестов. Карта никогда не поднимала температуру выше 79 ° C, независимо от того, как сильно я ее нажимал или с каким разрешением я ее запускал, почти все время оставаясь в диапазоне от низкого до среднего 70-х, и при потрясающих 35 ° C в режиме ожидания.Я не раз заглядывал в свой корпус и видел, что вентиляторы для карты даже не крутятся — это удивительное произведение инженерной мысли.

Игры без компромиссов

С запуском PlayStation 5 и Xbox Series X вы услышите непрекращающийся поток рекламы, посвященной играм в разрешении 4K и тому, как обе платформы могут обеспечивать скорость 120 кадров в секунду. То, что мы увидели из нескольких практических моментов, которые у нас были с новыми консолями, — это то, что возможности не всегда соответствуют реальности. Dirt 5, ExoMecha, Gears 5, Halo Infinite (многопользовательская игра) Ori and the Will of the Wisps, Orphan of the Machine, Second Extinction и Metal: Hellsinger предназначены для работы со скоростью 120 кадров в секунду и с разрешением 4K, но это очень короткий список.При обновлении уже выпущенных игр это может немного усугубиться, но есть основная проблема — HDMI 2.1, ваш телевизор и ваш ресивер. Как и в случае с процессорами, оперативной памятью и материнскими платами, все ваши компоненты должны соответствовать, чтобы максимально увеличить производительность вашего графического процессора. На консоли все это само по себе и высечено в камне, но проблема остается. Хотя обе консоли обеспечивают поддержку HDMI 2.1, новейшего стандарта, который способен выдавать выходной сигнал до 8K, ваш телевизор и ресивер также должны их поддерживать — а это делают очень немногие.На самом деле, у вас, скорее всего, есть телевизор 4K, который поддерживает 60 Гц, если даже это. Это подводит меня к GeForce RTX 3080.

Новейшая серия видеокарт NVIDIA требует соответствующего оборудования. Они поддерживают выходы HDMI 2.1, 8K, мониторы с высокой частотой обновления и высоким разрешением, и делают это при включенных RTX и DLSS. Увидеть DOOM Eternal в 8K — это то, на что стоит обратить внимание, но большинство из нас далеки от того, чтобы осознать это дома. Однако мы можем без компромиссов наслаждаться играми в 4K при 60+ (часто ПУТЬ за 60).Конечно, новейшие консоли будут рекламировать 4K / 60 или даже 4K / 120, но могут ли они сделать это со всеми ползунками вправо? Я в этом искренне сомневаюсь.

Как бы то ни было, увидеть, как Doom Eternal работает со скоростью 150+ кадров в секунду при 4K, максимальное обновление на моих мониторах с частотой 144 Гц — это то, чем должны быть игры. Это не просто тщательно разработанная техническая демонстрация — это реально, и прямо сейчас здесь. Из фреймов создаются игры, и это никогда не было более правдоподобным, чем в адском шутере id’s.

В отношении GeForce RTX 3080 есть что отметить — требования к питанию.Все эти безумные возможности не бесплатны — вам понадобится блок питания на 750 Вт, чтобы воплотить этого зверя в жизнь. Если вы годами подключались к этому блоку питания мощностью 550 Вт, сейчас самое время добавить мощности вашим компонентам.

У меня есть одна очень крошечная жалоба на GeForce RTX 3080, и я подозреваю, что другие карты в семействе в настоящее время также имеют эту проблему — они удалили выделенный порт VR. Возможность подключить ключ, чтобы расширить мои соединения Oculus Rift от задней части моей машины, была настоящим благом, и, к сожалению, этого больше нет.Нам будет очень не хватать этого, но игра в VR-игры с частотой кадров, которая не вызывает у меня тошноты, кажется, просто притупляет боль.

Цена к производительности:

В этом нет ничего лишнего, такие карты, как Titan, 2080 Ti и 3090, дорогие. Они представляют собой подход, при котором не нужно беспокоиться о том, должны ли они, а просто могут ли они. Мне нравится такое безумие, потому что оно действительно расширяет границы технологий и инноваций. В прошлом году NVIDIA занимала 81% рынка графических процессоров, и они легко могли бы расслабиться и повторить мощность 2080 года и выпустить более дешевую версию с несколькими новыми прибамбасами.Это не то, что они сделали. Они владели полем и все же пришли с совершенно новой картой, которая взорвала их собственные предыдущие модели из воды. GeForce RTX 3070 обладает большей мощностью, чем 2080 Ti, и стоит 500 долларов по сравнению с более чем 1200 долларов, которые вы потратите, чтобы заполучить короля предыдущего поколения. Точно так же RTX 3080 затмевает все на рынке, даже их Titan RTX, и при цене 699 долларов он делает это способом, который превосходит его и забирает деньги на обед. Мы никогда не видели такого скачка между поколениями, может быть, никогда.Тот факт, что NVIDIA оценила это так, как они это делали, заставляет меня думать, что у них была причина, и я не думаю, что это причина в AMD.

Конечно, я уверен, что зеленая команда обеспокоена тем, как новое поколение консолей может повлиять на их рынок, но как человек, который очень долго работал в сфере технологий, может быть другая причина. Когда вы идете в тематический парк, есть таблички с надписью «Вы должны быть такого высокого роста, чтобы ездить на этой аттракционе», и они находятся там для вашей безопасности. Но безопасность редко бывает забавной или захватывающей.Мы очень давно поддерживаем старые технологии, такие как механические жесткие диски и устаревшие API. Windows 10 вышла пять лет назад, но все еще есть много людей, которые хотят использовать Windows 7. Если не выходить за рамки, инновации подавляются, и это мешает нам осознать то, чего мы могли бы достичь. Время от времени поднимая эту «высокую» планку, чтобы представить новый день и новый путь, мы посылаем потребителям сигнал о том, что пора обновляться, и даем разработчикам мощный сигнал о том, что они могут продвигать свои собственные границы.Именно так мы получаем такие игры, как Cyberpunk 2077, и так мы видим освещение, как в Watch Dogs: Legion. Это то, что ведет нас от этого к этому. Если пришло время поднять планку, Geforce RTX 3080, возможно, поднял ее так высоко, что нам потребуются годы, чтобы наверстать упущенное.

Обладая потрясающей производительностью на всех платформах и невероятным приростом для всего, что поддерживает RTX, GeForce RTX 3080 является техническим чудом. Обладая списком желаемых разработчиками функций и охлаждается более тихой и эффективной системой охлаждения, 3080 обеспечивает разрешение 4K / 60 и многое другое, и делает это без компромиссов.Тот факт, что он также делает это по цене, которую может позволить себе средний человек, делает его лучшим способом насладиться любой игрой, которую вы, возможно, захотите, сейчас и в обозримом будущем.

—Рон Берк

ПРОФИ
  • Огромный скачок мощности по сравнению с предшественниками
  • Редизайн системы охлаждения стал эффективным и бесшумным
  • 4K / 60 + с RTX и DLSS уже здесь
  • Мы только прикоснулись к AI
  • Невероятно низкая цена
ПРОТИВ
  • 10 ГБ видеопамяти кажется немного светлым
  • Скучаю по выделенному порту VR уже

Рон Берк — главный редактор Gaming Trend.В настоящее время живущий в Форт-Уэрте, штат Техас, Рон — геймер старой школы, который любит CRPG, боевики / приключения, платформеры, музыкальные игры и недавно увлекся настольными играми. Рон также имеет черный пояс четвертой степени со званием Мастера в Мацумура Сэйто Сёрин-рю, Му Дук Кван Тан Су До, Универсальном Альянсе Тан Су До и Международной Федерации Тан Су До. Он также занимает высокие позиции в нескольких других стилях в своем стремлении стать всесторонним бойцом. Рон женат на редакторе игровых трендов Лоре Берк уже 21 год.У них есть три собаки — Пазузу (ирландский терьер), Ате и Каллиопа (смесь австралийских келпи и питбуля).

Обзор NVIDIA Quadro RTX 4000: графика Turing Powered Pro

Хотя серия GeForce RTX 2000 на основе Тьюринга первой попала на прилавки магазинов, примерно за неделю до их первоначального представления генеральный директор NVIDIA Дженсен Хуанг вышел на сцену и анонсировал семейство графических процессоров класса Quadro RTX для рабочих станций, предназначенных для профессиональных графических приложений. На сегодняшний день серия Quadro RTX состоит из четырех видеокарт, от чудовищной Quadro RTX 8000 с 48 ГБ GDDR6 до Quadro RTX 4000, предназначенной для профессионалов в области создания массового контента.Это позже мы покажем вам здесь сегодня.

Если посмотреть на Quadro RTX 4000 в свете некоторых других профессиональных видеокарт NVIDIA, это может показаться довольно ручным решением. Это тонкая и скромная видеокарта, которая занимает всего один слот, с относительно простым квадратным кожухом вентилятора, в котором нет каких-либо диковинных элементов дизайна, за исключением гоночной полосы и некоторого брендинга. Но пусть это вас не вводит в заблуждение — у этой карты есть зубы, как вы увидите чуть позже.

NVIDIA Quadro RTX 4000
Технические характеристики и особенности

NVIDIA Quadro RTX 4000 основана на графическом процессоре Turing TU106, аналогичном GeForce RTX 2060 и RTX 2070.Его графический процессор будет разгоняться до 1545 МГц, и он соединен с 8 ГБ GDDR6 через 256-битный интерфейс с эффективной скоростью передачи данных 13 Гбит / с. При такой скорости карта обеспечивает пиковую пропускную способность памяти до 415 ГБ / с.
По сравнению с основанной на Pascal Quadro P4000, которую он заменяет в основной линейке профессиональных графических процессоров NVIDIA, Quadro RTX 4000 предлагает значительно более высокую производительность по всем направлениям и гораздо большую пропускную способность памяти, а также некоторые дополнительные возможности благодаря кэш-памяти графических процессоров на основе Тьюринга. структура и присущие особенности.Quadro RTX 4000 предлагает больше ядер CUDA (2304 против 1792) и более быструю память в дополнение к ядрам Tensor и RT. Quadro RTX 4000 имеет 288 ядер Tensor и 36 ядер RT, которых просто нет в Pascal (или любой другой архитектуре GPU в настоящее время).
С точки зрения конструкции общая длина Quadro RTX 4000 составляет около 9,5 дюймов, хотя фактическая длина печатной платы составляет лишь около 70% от ее длины. Однослотовый кулер выходит за край графического процессора, а один вентилятор цилиндрического типа находится на дальнем краю.Вентилятор втягивает воздух, обдувает его через тонкие радиаторы, закрывающие графический процессор, оперативную память и VRM, и выпускает его через вентиляцию на другом конце.

За исключением стилизованного рисунка на передней части кожуха вентилятора кулера и формы вентиляционных отверстий, Quadro RTX 4000 имеет общий дизайн, похожий на P4000 предыдущего поколения. Оба они однослотовые, с углами 90 градусов по всему периметру, и короткие печатные платы.

Верхний край карты также имеет некоторые фирменные элементы, например, логотип NVIDIA и значок RTX 4000, а также пару разъемов для стерео и портов синхронизации, которые работают с дополнительным стереодисплеем и модулями Quadro Sync.Чего не хватает Quadro RTX 4000 по сравнению с его предшественником, так это каких-либо разъемов SLI. Quadro RTX 4000 также имеет намного более высокий TDP, чем Quadro P4000 (160 Вт против 105 Вт), но для карты по-прежнему требуется только один дополнительный источник питания. На дальнем краю кулера находится единственный 8-контактный разъем питания PCI Express, который выходит сзади, а не сбоку от корпуса, как большинство потребительских графических процессоров.
Выходы Quadro RTX 4000 состоят из трех полноразмерных портов DisplayPort (DP1.4) и один разъем VitualLink типа USB-C, который предлагает 4-полосный порт HBR3 DisplayPort и USB 3.1 Gen 2 через один разъем.

Обзор видеокарты GIGABYTE AORUS GeForce RTX 2070 Super

Страница 1 из 18

ВВЕДЕНИЕ

С тех пор, как в середине 90-х я получил первые «3D» карты, такие как Riva 128 от NVIDIA, Voodoo от 3DFX и 3D Rage от ATI, я был очарован трехмерной графикой (кто помнит, как тогда играл в самые первые игры Need For Speed ​​и Command & Conquer?).Перенесемся вперед почти 25 лет спустя, и благодаря нескончаемой конкуренции между AMD (купила ATI еще в 2006 году) и NVIDIA не только видеокарты становятся намного мощнее, но и оснащены впечатляющими технологиями, призванными сделать ваш игровой процесс более увлекательным. такие как FreeSync, G-Sync, трассировка лучей в реальном времени и суперсэмплинг глубокого обучения. Теперь, когда некоторые из вас хорошо осведомлены, я решил прекратить обзоры видеокарт некоторое время назад, но, поскольку многие из вас просили, я решил попробовать еще раз, и сегодня мы начинаем эти усилия, очень внимательно изучив AORUS GeForce RTX. 2070 Super card от GIGABYTE.


GIGABYTE — инженер, дальновидный исследователь и лидер в мире технологий, который использует свой опыт в области аппаратного обеспечения, запатентованные инновации и лидерство в отрасли для создания, вдохновения и развития. Компания GIGABYTE, известная более чем 30-летним опытом работы, отмеченной наградами, является краеугольным камнем в сообществе высокопроизводительных вычислений, предоставляя компаниям опыт в области серверов и центров обработки данных для ускорения их успеха. Находясь в авангарде развивающихся технологий, GIGABYTE стремится изобрести интеллектуальные решения, которые обеспечивают цифровизацию от периферии к облаку и позволяют клиентам собирать, анализировать и преобразовывать цифровую информацию в экономические данные, которые могут принести пользу человечеству и «улучшить вашу жизнь».


Последняя карта GeForce RTX 2070 Super — это ответ NVIDIA на серию RX 5700 от AMD, которая соответствует, а в некоторых случаях даже превосходит производительность предыдущей модели RTX 2070. Чтобы добиться дополнительной производительности, NVIDIA на этот раз использовала урезанную версию графического процессора Turing TU104 (вместо TU106), которая также присутствует в более мощных моделях RTX 2080/2080 Super. Для справки, GeForce RTX 2070 Super имеет в общей сложности 2560 шейдерных блоков, 40 ядер RT, 184 текстурных блока, 320 тензорных ядер и 13.6 миллиардов транзисторов, тогда как предыдущая GeForce RTX 2070 имела в общей сложности 2304 шейдерных блока, 36 RT-ядер, 144 текстурных блока, 288 тензорных ядер и в общей сложности 10,8 миллиарда транзисторов. Частота разгона ядра также различается, поскольку новая GeForce RTX 2070 Super установлена ​​на частоте до 1770 МГц, тогда как GeForce RTX 2070 поставлялась с тактовой частотой ядра до 1620 МГц (всегда для эталонных карт). С другой стороны, вероятно, чтобы сократить расходы, NVIDIA не коснулась конца памяти новых карт, поэтому и RTX 2070 Super, и RTX 2070 имеют 8 ГБ 256-битной памяти GDDR6 со скоростью 14 Гбит / с с пропускной способностью 448 ГБ / с.

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *