Производитель | Модель | GPU | Память |
---|---|---|---|
Radeon RX 6900 XT | |||
Powercolor | Red Devil RX 6900 XT Ultimate 16GB GDDR6 (AXRX 6900XTU 16GBD6-3DHE/OC) | AMD Radeon RX 6900 XT | 16384 MB GDDR6 |
Radeon RX 6800 XT | |||
AMD | Radeon RX 6800 XT | AMD Radeon RX 6800 XT | 16384 MB GDDR6 |
ASUS | TUF-RX6800XT-O16G-GAMING | AMD Radeon RX 6800 XT | 16384 GDDR6 |
Radeon RX 6800 | |||
AMD | Radeon RX 6800 | AMD Radeon RX 6800 | 16384 MB GDDR6 |
Radeon RX 6700 XT | |||
AMD | Radeon RX 6700 XT | AMD Radeon RX 6700 XT | 12228 MB GDDR6 |
Radeon RX 6600 XT | |||
ASUS | ROG-STRIX-RX6600XT-O8G-GAMING | AMD Radeon RX 6600 XT | 8192 MB GDDR6 |
Gigabyte | GV-R66XTGAMINGOC PRO-8GD | AMD Radeon RX 6600 XT | 8192 MB GDDR6 |
MSI | Radeon RX 6600XT Gaming X 8G | AMD Radeon RX 6600 XT | 8192 MB GDDR6 |
Radeon RX 5700 XT | |||
MSI | Radeon RX 5700 XT | AMD Radeon RX 5700 XT | 8192 MB GDDR6 |
MSI | Radeon RX 5700 XT Gaming X | AMD Radeon RX 5700 XT | 8192 MB GDDR6 |
Radeon RX 5700 | |||
MSI | Radeon RX 5700 | AMD Radeon RX 5700 | 8192 MB GDDR6 |
Radeon RX 5600 XT | |||
ASUS | ROG-STRIX-RX5600XT-O6G-GAMING | AMD Radeon RX 5600 XT | 6144 MB GDDR6 |
MSI | Radeon RX 5600 XT Gaming X | AMD Radeon RX 5600 XT | 6144 MB GDDR6 |
Radeon RX 5500 XT | |||
ASUS | DUAL-RX5500XT-O8G-EVO | AMD Radeon RX 5500 XT | 8192 MB GDDR6 |
MSI | RX 5500 XT Gaming X 8G | AMD Radeon RX 5500 XT | 8192 MB GDDR6 |
Sapphire | Pulse RX 5500 XT 4G GDDR6 | 4096 GB GDDR6 | |
Radeon VII | |||
AMD | Radeon VII | AMD Radeon VII | 16384 MB HBM2 |
Radeon RX Vega 64 | |||
AMD | Radeon RX Vega 64 | AMD Radeon RX Vega 64 | 8192 MB HBM2 |
AMD | Radeon RX Vega 64 | AMD Radeon RX Vega 64 | 8192 MB HBM2 |
Sapphire | Radeon RX Vega64 8GB HBM2 LC | AMD Radeon RX Vega 64 | 8192 MB HBM2 |
Radeon RX Vega 56 | |||
ASUS | ROG-STRIX-RXVEGA56-O8G-GAMING | AMD Radeon RX Vega 56 | 8192 MB HBM2 |
Sapphire | Nitro+ Radeon RX Vega 56 8G | AMD Radeon RX Vega 56 | 8192 MB HBM2 |
Radeon RX 580 | |||
ASUS | ROG-STRIX-RX580-O8G-GAMING | AMD Radeon RX 580 | 8192 MB GDDR5 |
MSI | Radeon RX 580 Mech 2 8G OC | AMD Radeon RX 580 | 8192 MB GDDR5 |
Powercolor | Red Devil Golden Sample Radeon RX 580 8GB GDDR5 | AMD Radeon RX 580 | 8192 MB GDDR5 |
Sapphire | Pulse Radeon RX 580 8GD5 | AMD Radeon RX 580 | 8192 MB GDDR5 |
Sapphire | Nitro+ Radeon RX 580 4GB | AMD Radeon RX 580 | 4096 MB GDDR5 |
Radeon RX 570 | |||
ASUS | ROG-STRIX-RX570-O4G-GAMING | AMD Radeon RX 570 | 4096 MB GDDR5 |
Sapphire | Pulse ITX Radeon RX 570 4GD5 | AMD Radeon RX 570 | 4096 MB GDDR5 |
Radeon RX 560 | |||
ASUS | ROG-STRIX-RX560-O4G-GAMING | AMD Radeon RX 560 | 4096 MB GDDR5 |
ASUS | AREZ-RX560-O2G-EVO | AMD Radeon RX 560 | 2048 MB GDDR5 |
MSI | Radeon RX 560 Aero ITX 4G OC | AMD Radeon RX 560 | 4096 MB GDDR5 |
Powercolor | Red Dragon Radeon RX 560 2GB GDDR5 OC | AMD Radeon RX 560 | 2048 MB GDDR5 |
Radeon RX 550 | |||
ASUS | RX550-4G | AMD Radeon RX 550 | 4096 MB GDDR5 |
Radeon RX 480 | |||
AMD | Radeon RX 480 | AMD Radeon RX 480 | 8192 MB GDDR5 |
ASUS | ROG STRIX-RX480-O8G-GAMING | AMD Radeon RX 480 | 8192 MB GDDR5 |
Radeon RX 470 | |||
ASUS | ROG STRIX-RX470-O4G-GAMING | AMD Radeon RX 470 | 4096 MB GDDR5 |
MSI | Radeon RX 470 Gaming X 8G | AMD Radeon RX 470 | 8192 MB GDDR5 |
Radeon RX 460 | |||
ASUS | ROG STRIX-RX460-O4G-GAMING | AMD Radeon RX 460 | 4096 MB GDDR5 |
Sapphire | Nitro RX 460 4G D5 | AMD Radeon RX 460 | 40960 MB GDDR5 |
Radeon R9 Fury X | |||
AMD | Radeon R9 Fury X | AMD Radeon R9 Fury X | 4096 MB HBM |
Radeon R9 Fury | |||
Sapphire | Tri-X R9 Fury 4G HBH | AMD Radeon R9 Fury | 4096 MB HBH |
Radeon R9 Nano | |||
AMD | Radeon R9 Nano | AMD Radeon R9 Nano | 4096 MB HBM |
Radeon R9 390X | |||
ASUS | STRIX-R9390X-DC3OC-8GD5-GAMING | AMD Radeon R9 390X | 8192 MB GDDR5 |
Sapphire | Tri-X R9 390X 8G D5 | AMD Radeon R9 390X | 8192 MB GDDR5 |
Radeon R9 390 | |||
ASUS | STRIX-R9390-DC3OC-8GD5-GAMING | AMD Radeon R9 390 | 8192 MB GDDR5 |
Radeon R9 380X | |||
ASUS | STRIX-R9380X-4G-GAMING | AMD Radeon R9 380X | 4096 MB GDDR5 |
Sapphire | Nitro R9 380X 4G D5 | AMD Radeon R9 380X | 4096 MB GDDR5 |
XFX | Radeon R9 380X DD Black Edition OC | AMD Radeon R9 380X | 4096 MB GDDR5 |
Radeon R9 380 | |||
ASUS | STRIX-R9380-DC2OC-2GD5-GAMING | AMD Radeon R9 380 | 2048 MB GDDR5 |
Sapphire | Radeon R9 380 2G D5 (ITX Compact) | AMD Radeon R9 380 | 2048 MB GDDR5 |
Radeon R7 370 | |||
ASUS | STRIX-R7370-DC2OC-4GD5-GAMING | AMD Radeon R7 370 | 4096 MB GDDR5 |
MSI | Radeon R7 370 Gaming 2G | AMD Radeon R7 370 | 2048 MB GDDR5 |
Radeon R7 360 | |||
Sapphire | Nitro R7 360 2G D5 | AMD Radeon R7 360 | 2048 MB GDDR5 |
Radeon R9 295X2 | |||
AMD | Radeon R9 295X2 | AMD Radeon R9 295X2 | 2 x 4096 MB GDDR5 |
Radeon R9 290X | |||
AMD | Radeon R9 290X | AMD Radeon R9 290X | 4096 MB GDDR5 |
ASUS | R9290X-DC2OC-4GD5 | AMD Radeon R9 290X | 4096 MB GDDR5 |
MSI | R9 290X Lightning | AMD Radeon R9 290X | 4096 MB GDDR5 |
Radeon R9 290 | |||
ASUS | R9290-DC2OC-4GD5 | AMD Radeon R9 290 | 4096 MB GDDR5 |
Radeon R9 280X | |||
ASUS | R9280X-DC2T-3GD5 | AMD Radeon R9 280X | 3072 MB GDDR5 |
ASUS | Matrix-R9280X-P-3GD5 | AMD Radeon R9 280X | 3072 MB GDDR5 |
MSI | R9 280X Gaming 3G | AMD Radeon R9 280X | 3072 MB GDDR5 |
Radeon R9 285 | |||
Gigabyte | GV-R9285WF2OC-2GD | AMD Radeon R9 285 | 2048 MB GDDR5 |
HIS | R9 285 IceQ X2 OC | AMD Radeon R9 285 | 2048 MB GDDR5 |
MSI | R9 285 Gaming 2G | AMD Radeon R9 285 | 2048 MB GDDR5 |
Radeon R9 280 | |||
HIS | R9 280 IceQ X2 OC | AMD Radeon R9 280 | 3072 MB GDDR5 |
Sapphire | Dual-X R9 280 OC With Boost | AMD Radeon R9 280 | 3072 MB GDDR5 |
Radeon R9 270X | |||
ASUS | R9270X-DC2T-2GD5 | AMD Radeon R9 270X | 2048 MB GDDR5 |
Gigabyte | GV-R927XOC-2GD | AMD Radeon R9 270X | 2048 MB GDDR5 |
MSI | R9 270X Gaming 2G | AMD Radeon R9 270X | 2048 MB GDDR5 |
MSI | R9 270X Hawk | AMD Radeon R9 270X | 2048 MB GDDR5 |
Radeon R9 270 | |||
ASUS | R9270-DC2OC-2GD5 | AMD Radeon R9 270 | 2048 MB GDDR5 |
MSI | R9 270 Gaming 2G | AMD Radeon R9 270 | 2048 MB GDDR5 |
Sapphire | Dual-X R9 270 with Boost & OC | AMD Radeon R9 270 | 2048 MB GDDR5 |
Radeon R7 265 | |||
ASUS | R7265-DC2-2GD5 | AMD Radeon R7 265 | 2048 MB GDDR5 |
HIS | R7 265 iPower IceQ X2 Boost Clock | AMD Radeon R7 265 | 2048 MB GDDR5 |
Radeon R7 260X | |||
Gigabyte | GV-R726XOC-1GD | AMD Radeon R7 260X | 1024 MB GDDR5 |
MSI | R7 260X 2GD5 OC | AMD Radeon R7 260X | 2048 MB GDDR5 |
Radeon R7 260 | |||
ASUS | R7260-1GD5 | AMD Radeon R7 260 | 1024 MB GDDR5 |
Radeon R7 250 | |||
ASUS | R7250-1GD5 | AMD Radeon R7 250 | 1024 MB GDDR5 |
Gigabyte | GV-R725OC-2GI | AMD Radeon R7 250 | 2048 MB DDR3 |
Radeon R7 240 | |||
Gigabyte | GV-R724OC-2GI | AMD Radeon R7 240 | 2048 MB DDR3 |
Radeon HD 7970 | |||
AMD | Radeon HD 7970 | AMD Radeon HD 7970 | 3072 MB GDDR5 |
ASUS | HD7970-DC2T-3GD5 | AMD Radeon HD 7970 | 3072 MB GDDR5 |
ASUS | HD7970-DC2-3GD5 | AMD Radeon HD 7970 | 3072 MB GDDR5 |
ASUS | Matrix-HD7970-P-3GD5 | AMD Radeon HD 7970 | 3072 MB GDDR5 |
HIS | 7970 IceQ X2 | AMD Radeon HD 7970 | 3072 MB GDDR5 |
MSI | R7970 Lightning | AMD Radeon HD 7970 | 3072 GDDR5 |
Radeon HD 7950 | |||
ASUS | HD7950-DC2T-3GD5 | AMD Radeon HD 7950 | 3072 MB GDDR5 |
ASUS | HD7950-DC2-3GD5 | AMD Radeon HD 7950 | 3072 MB GDDR5 |
MSI | R7950 Twin Frozr 3GD5/OC | AMD Radeon HD 7950 | 3072 MB GDDR5 |
Powercolor | HD7950 3GB GDDR5 (AX7950 3GBD5-2DH) | AMD Radeon HD 7950 | 3072 MB GDDR5 |
Radeon HD 7870 | |||
ASUS | HD7870-DC2T-2GD5 | AMD Radeon HD 7870 | 2048 MB GDDR5 |
ASUS | HD7870-DC2-2GD5 | AMD Radeon HD 7870 | 2048 MB GDDR5 |
ASUS | HD7870-DC2TG-2GD5-V2 | AMD Radeon HD 7870 | 2048 MB GDDR5 |
ASUS | HD7850-DC2-2GD5-V2 | AMD Radeon HD 7870 | 2048 MB GDDR5 |
Gigabyte | GV-R787OC-2GD | AMD Radeon HD 7870 | 2048 MB GDDR5 |
HIS | 7870 Fan 2GB GDDR5 | AMD Radeon HD 7870 | 2048 MB GDDR5 |
HIS | 7850 Fan 2GB GDDR5 | AMD Radeon HD 7870 | 2048 MB GDDR5 |
MSI | R7870 Twin Frozr 2GD5/OC | AMD Radeon HD 7870 | 2048 MB GDDR5 |
MSI | R7870 Hawk | AMD Radeon HD 7870 | 2048 MB GDDR5 |
MSI | R7870-2GD5T/OC | AMD Radeon HD 7870 | 2048 MB GDDR5 |
Radeon HD 7850 | |||
MSI | R7850 Power Edition 2GD5/OC | AMD Radeon HD 7850 | 2048 MB GDDR5 |
MSI | R7850 Twin Frozr 2GD5/OC | AMD Radeon HD 7850 | 2048 MB GDDR5 |
Radeon HD 7790 | |||
ASUS | HD7790-DC2OC-1GD5 | AMD Radeon HD 7790 | 1024 MB |
Radeon HD 7770 | |||
ASUS | HD7770-DC-1GD5 TOP | AMD Radeon HD 7770 | 1024 MB GDDR5 |
Gigabyte | GV-R777OC-1GD | AMD Radeon HD 7770 | 1024 MB GDDR5 |
HIS | 7770 IceQ X 1GB GDDR5 (H777QN1G2M) | AMD Radeon HD 7770 | 1024 MB GDDR5 |
MSI | R7770-2PMD1GD5/OC | AMD Radeon HD 7770 | 1024 MB GDDR5 |
MSI | R7770 Power Edition 1GD5/OC | AMD Radeon HD 7770 | 1024 MB GDDR5 |
Powercolor | HD7770 GHz Edition 1GB GDDR5 (AX7770 1GBD5-2DH) | AMD Radeon HD 7770 | 1024 MB GDDR5 |
Radeon HD 7750 | |||
ASUS | HD7750-1GD5 | AMD Radeon HD 7750 | 1024 MB GDDR5 |
HIS | 7750 iCooler 1GB GDDR5 (H775F1GD) | AMD Radeon HD 7750 | 1024 MB GDDR5 |
HIS | 7750 iSilence 5 1GB GDDR5 (H775P1GD) | AMD Radeon HD 7750 | 1024 MB GDDR5 |
Powercolor | HD7750 1GB GDDR5 (AX7750 1GBD5-DH) | AMD Radeon HD 7750 | 1024 MB GDDR5 |
Powercolor | HD7750 1GB DDR3 (AX7750 1GBK3-H) | AMD Radeon HD 7750 | 1024 MB DDR3 |
Radeon HD 6990 | |||
AMD | Radeon HD 6990 | AMD Radeon HD 6990 | 2048 MB GDDR5 |
Radeon HD 6970 | |||
AMD | Radeon HD 6970 | AMD Radeon HD 6970 | 2048 MB GDDR5 |
ASUS | EAH6970 DCII/2DI4S/2GD5 | AMD Radeon HD 6970 | 2048 MB GDDR5 |
HIS | HD 6970 IceQ Turbo (H697QT2G2M) | AMD Radeon HD 6970 | 2048 MB GDDR5 |
MSI | R6970 Lightning | AMD Radeon HD 6970 | 2048 MB GDDR5 |
Radeon HD 6950 | |||
AMD | Radeon HD 6950 | AMD Radeon HD 6950 | 2048 MB GDDR5 |
HIS | HD 6950 IceQ X Turbo X (H695QNX1G2M) | AMD Radeon HD 6950 | 1024 MB GDDR5 |
MSI | R6950 Twin Frozr III Power Edition/OC | AMD Radeon HD 6950 | 2048 MB GDDR5 |
MSI | R6950 Twin Frozr II/OC | AMD Radeon HD 6950 | 2048 MB GDDR5 |
Radeon HD 6930 | |||
Powercolor | AX6930 2GBD5-2DH | AMD Radeon HD 6930 | 2048 MB GDDR5 |
Radeon HD 6870 | |||
Gigabyte | GV-R687OC-1GD | AMD Radeon HD 6870 | 1024 MB GDDR5 |
HIS | HD 6870 Fan 1GB (H687F1G2M) | AMD Radeon HD 6870 | 1024 MB GDDR5 |
MSI | R6870 Hawk | AMD Radeon HD 6870 | 1024 MB GDDR5 |
MSI | R6870-2PM2D1GD5 | AMD Radeon HD 6870 | 1024 MB GDDR5 |
Radeon HD 6850 | |||
HIS | HD 6850 IceQ X Turbo (H685QNT1GD) | AMD Radeon HD 6850 | 1024 MB GDDR5 |
HIS | HD 6850 Fan (H685F1GD) | AMD Radeon HD 6850 | 1024 MB GDDR5 |
MSI | R6850 Cyclone 1GD5 Power Edition/OC | AMD Radeon HD 6850 | 1024 MB GDDR5 |
Powercolor | HD6850 1GB GDDR5 (AXP6850 1GBD5-DH) | AMD Radeon HD 6850 | 1024 MB GDDR5 |
Radeon HD 6790 | |||
HIS | 6790 IceQ X Turbo 1GB GDDR5 (H679QNT1G2M) | AMD Radeon HD 6790 | 1024 MB GDDR5 |
MSI | R6790-PM2D1GD5/OC | AMD Radeon HD 6790 | 1024 MB GDDR5 |
Powercolor | HD6790 1GB GDDD5 (AX6790 1GBD5-DH) | AMD Radeon HD 6790 | 1024 MB GDDR5 |
Radeon HD 6770 | |||
ASUS | EAH6770 DC SL/2DI/1GD5 | AMD Radeon HD 6770 | 1024 MB GDDR5 |
Radeon HD 6670 GDDR5 | |||
ASUS | EAH6670/DIS/1GD5 | AMD Radeon HD 6670 GDDR5 | 1024 MB GDDR5 |
HIS | HD 6670 Fan (H667F1GD) | AMD Radeon HD 6670 GDDR5 | 1024 MB GDDR5 |
Radeon HD 6670 GDDR3 | |||
ASUS | HD6670-2GD3 | AMD Radeon HD 6670 GDDR3 | 2048 MB GDDR3 |
Powercolor | AX6670 1GBK3-H | AMD Radeon HD 6670 GDDR3 | 1024 MB GDDR3 |
Radeon HD 6570 GDDR5 | |||
HIS | HD 6570 Silence (H657HC1GD) | AMD Radeon HD 6570 GDDR5 | 1024 MB GDDR5 |
Radeon HD 6570 GDDR3 | |||
MSI | R6570-MD1GD3/LP | AMD Radeon HD 6570 GDDR3 | 1024 MB GDDR3 |
Radeon HD 6450 GDDR5 | |||
HIS | HD 6450 Silence (H645HT1GD) | AMD Radeon HD 6450 GDDR5 | 1024 MB GDDR5 |
Radeon HD 5570 GDDR5 | |||
HIS | HD 5570 iCooler IV (H557FC512D) | AMD Radeon HD 5570 GDDR5 | 512 MB GDDR5 |
Radeon HD 3750 | |||
Sapphire | Radeon HD3750 512M DDR3 | AMD Radeon HD 3750 | 512 MB GDDR3 |
Radeon HD 3730 | |||
Sapphire | Radeon HD3730 512M DDR2 | AMD Radeon HD 3730 | 512 MB GDDR2 |
Radeon HD 5970 | |||
AMD | Radeon HD 5970 | ATI Radeon HD 5970 | 1024 MB GDDR5 |
Radeon HD 5870 | |||
AMD | Radeon HD 5870 | ATI Radeon HD 5870 | 1024 MB GDDR5 |
MSI | R5870 Lightning | ATI Radeon HD 5870 | 1024 MB GDDR5 |
Radeon HD 5850 | |||
ASUS | EAH5850/2DIS/1GD5 | ATI Radeon HD 5850 | 1024 MB GDDR5 |
ASUS | EAH5850 DirectCU/2DIS/1GD5 | ATI Radeon HD 5850 | 1024 MB GDDR5 |
Club3D | HD 5850 1G CGAX-58524IDP | ATI Radeon HD 5850 | 1024 MB GDDR5 |
Gigabyte | GV-R585OC-1GD | ATI Radeon HD 5850 | 1024 MB GDDR5 |
HIS | HD 5850 1GB (H585F1GD) | ATI Radeon HD 5850 | 1024 MB GDDR5 |
HIS | HD 5850 iCooler V (H585FN1GD) | ATI Radeon HD 5850 | 1024 MB GDDR5 |
HIS | HD 5850 iCooler V Turbo (H585FNT1GD) | ATI Radeon HD 5850 | 1024 MB GDDR5 |
MSI | R5850 Twin Frozr II | ATI Radeon HD 5850 | 1024 MB GDDR5 |
Powercolor | HD5850 (AX5850 1GBD5-DH) | ATI Radeon HD 5850 | 1024 MB GDDR5 |
Powercolor | PCS+ HD5850 (AX5850 1GBD5-PPDH) | ATI Radeon HD 5850 | 1024 MB GDDR5 |
VTX3D | HD 5850 (VX5850 1GBD5-DH) | ATI Radeon HD 5850 | 1024 MB GDDR5 |
Radeon HD 5830 | |||
HIS | HD 5830 iCooler V Turbo | ATI Radeon HD 5830 | 1024 MB GDDR5 |
Sapphire | HD5830 (11169-00-10R) | ATI Radeon HD 5830 | 1024 MB GDDR5 |
Sapphire | HD5830 1GB GDDR5 | ATI Radeon HD 5830 | 1024 MB GDDR5 |
Radeon HD 5770 | |||
ASUS | EAH5770/2DI/512MD5 | ATI Radeon HD 5770 | 512 MB GDDR5 |
ASUS | EAH5770 CUCore/2DI/1GD5 | ATI Radeon HD 5770 | 1024MB GDDR5 |
Club3D | HD 5770 CGAX-5772I | ATI Radeon HD 5770 | 512 MB GDDR5 |
Gigabyte | GV-R577UD-1GD | ATI Radeon HD 5770 | 1024 MB GDDR5 |
Gigabyte | GV-R577SO-1GD | ATI Radeon HD 5770 | 1024 MB GDDR5 |
Gigabyte | GV-R577D5-1GD-B | ATI Radeon HD 5770 | 1024 MB GDDR5 |
HIS | HD 5770 Fan 1GB (H577FK1GD) | ATI Radeon HD 5770 | 1024 MB GDDR5 |
HIS | HD 5770 IceQ 5 1GB (H577Q1GD) | ATI Radeon HD 5770 | 1024 MB GDDR5 |
HIS | HD 5770 IceQ 5 Turbo 1GB (H577QT1GD) | ATI Radeon HD 5770 | 1024 MB GDDR5 |
MSI | R5770-PMD1G | ATI Radeon HD 5770 | 1024 MB GDDR5 |
MSI | R5770 Hawk | ATI Radeon HD 5770 | 1024 MB GDDR5 |
Powercolor | HD5770 (AX5770 512MD5-H) | ATI Radeon HD 5770 | 512 MB GDDR5 |
Powercolor | PCS+ HD5770 1GB GDDR5 (AX5770 1GBD5-PPG) | ATI Radeon HD 5770 | 1024 MB GDDR5 |
VTX3D | HD 5770 1GB GDDR5 (VX5770 1GBD5-H) | ATI Radeon HD 5770 | 1024 MB GDDR5 |
Radeon HD 5750 | |||
ASUS | EAH5750 FORMULA/2DI/1GD5 | ATI Radeon HD 5750 | 1024 MB GDDR5 |
ASUS | EAH5750 FORMULA/DI/512MD5 | ATI Radeon HD 5750 | 512 MB GDDR5 |
Gigabyte | GV-R575SL-1GI | ATI Radeon HD 5750 | 1024 MB GDDR5 |
Gigabyte | GV-R575D5-1GD | ATI Radeon HD 5750 | 1024 MB GDDR5 |
HIS | HD 5750 IceQ+ 1GB (H575Q1GD) | ATI Radeon HD 5750 | 1024 MB GDDR5 |
Powercolor | HD5750 1GB GDDR5 (AX5750 1GBD5-H) | ATI Radeon HD 5750 | 1024 MB GDDR5 |
Sapphire | HD5750 512M GDDR5 PCIE | ATI Radeon HD 5750 | 512 MB GDDR5 |
Sapphire | VAPOR-X HD5750 1GB GDDR5 PCIE | ATI Radeon HD 5750 | 1024 MB GDDR5 |
Vero | HD5750 1G 128B DDR5 (VT575010050) | ATI Radeon HD 5750 | 1024 MB GDDR5 |
VTX3D | HD5750 (VX5750 512MD5-H) | ATI Radeon HD 5750 | 512 MB GDDR5 |
Radeon HD 5670 | |||
ASUS | EAH5670/DI/1GD5 | ATI Radeon HD 5670 | 1024 MB GDDR5 |
HIS | HD 5670 IceQ | ATI Radeon HD 5670 | 1024 MB GDDR5 |
Radeon HD 5570 | |||
ASUS | EAH5570/DI/1GD3(LP) | ATI Radeon HD 5570 | 1024 MB GDDR3 |
Radeon HD 5550 | |||
HIS | HD 5550 Silence (H555HB512) | ATI Radeon HD 5550 | 512 MB GDDR5 |
Radeon HD 5450 | |||
MSI | R5450-MD512H | ATI Radeon HD 5450 | 512 MB GDDR3 |
Radeon HD 4890 | |||
ASUS | EAh5890/HTDI/1GD5/A | ATI Radeon HD 4890 | 1024 MB GDDR5 |
Sapphire | Vapor-X TOXIC HD 4890 1GB GDDR5 | ATI Radeon HD 4890 | 1024 MB GDDR5 |
Radeon HD 4870 X2 | |||
Force3D | Radeon HD 4870 X2 | ATI Radeon HD 4870 X2 | 2048 MB GDDR5 |
Radeon HD 4870 | |||
MSI | R4870-T2D512 | ATI Radeon HD 4870 | 512 MB GDDR5 |
Palit | Radeon HD 4870 Sonic Dual Edition 512MB | ATI Radeon HD 4870 | 512 MB GDDR5 |
Sapphire | Vapor-X HD 4870 1GB GDDR5 | ATI Radeon HD 4870 | 1024 MB GDDR3 |
Sapphire | Vapor-X TOXIC HD 4870 1GB GDDR5 | ATI Radeon HD 4870 | 1024 MB GDDR5 |
Radeon HD 4850 | |||
Force3D | Radeon HD 4850 Black Edition | ATI Radeon HD 4850 | 512 MB GDDR3 |
Gainward | Radeon HD 4850 512MB | ATI Radeon HD 4850 | 512 MB GDDR3 |
Gigabyte | GV-R485ZL-512H | ATI Radeon HD 4850 | 512 MB GDDR3 |
Palit | Radeon HD 4850 Sonic Special Edition DDR5 | ATI Radeon HD 4850 | 512 MB GDDR5 |
Palit | HD4850 512MB DDR3 | ATI Radeon HD 4850 | 512 MB GDDR3 |
Sapphire | Vapor-X HD 4850 512MB GDDR3 | ATI Radeon HD 4850 | 512 MB GDDR3 |
Sapphire | HD4850 512MB GDDR3 | ATI Radeon HD 4850 | 512 MB GDDR3 |
Sapphire | HD 4850 PCI-E Dual Slot Fansink | ATI Radeon HD 4850 | 512 MB GDDR3 |
Sapphire | Toxic HD 4850 PCI-E | ATI Radeon HD 4850 | 512 MB GDDR3 |
Sapphire | Radeon HD 4850 512MB | ATI Radeon HD 4850 | 512 MB GDDR3 |
XFX | HD 4850 512 MB DDR3 XXX (HD-485-X-YDD) | ATI Radeon HD 4850 | 512 MB GDDR3 |
Radeon HD 4830 | |||
Powercolor | AX4830 512MD3-H | ATI Radeon HD 4830 | 512 MB GDDR3 |
Radeon HD 4770 | |||
ASUS | EAh5770 FORMULA/DI/512MD5 | ATI Radeon HD 4770 | 512 MB GDDR5 |
MSI | R4770-T2D512 | ATI Radeon HD 4770 | 512 MB GDDR5 |
Radeon HD 4730 | |||
Sapphire | HD 4730 512MB GDDR5 | ATI Radeon HD 4730 | 512 MB GDDR5 |
Radeon HD 4670 | |||
ASUS | EAh5670/DI/512M/A | ATI Radeon HD 4670 | 512 MB GDDR3 |
Sapphire | HD 4670 (New Edition) | ATI Radeon HD 4670 | 1024 MB GDDR3 |
Sapphire | HD4670 512MB GDDR4 | ATI Radeon HD 4670 | 512 MB GDDR4 |
Radeon HD 4650 | |||
Palit | HD4650 Super 512MB DDR2 | ATI Radeon HD 4650 | 512 MB GDDR2 |
Sapphire | HD 4650 512MB DDR2 | ATI Radeon HD 4650 | 512 MB DDR2 |
Radeon HD 3870 X2 | |||
Sapphire | HD3870 X2 | ATI Radeon HD 3870 X2 | 1024 MB GDDR3 |
Radeon HD 3870 | |||
Gigabyte | GV-RX387512H-B | ATI Radeon HD 3870 | 512 MB GDDR4 |
Palit | HD3870 512MB DDR3 | ATI Radeon HD 3870 | 512 MB GDDR3 |
Radeon HD 3850 | |||
ASUS | EAh4850 | ATI Radeon HD 3850 | 512 MB GDDR3 |
Palit | HD3850 Super 512MB DDR2 | ATI Radeon HD 3850 | 512 MB GDDR2 |
XpertVision | Radeon HD3850 256MB | ATI Radeon HD 3850 | 256 MB GDDR3 |
Radeon HD 3650 | |||
ASUS | EAh4650 | ATI Radeon HD 3650 | 256 MB GDDR3 |
ASUS | EAh4650 TOP | ATI Radeon HD 3650 | 256 MB GDDR3 |
Sapphire | Radeon HD 3650 256M GDDR3 | ATI Radeon HD 3650 | 256 MB GDDR3 |
Radeon HD 2600 XT | |||
ASUS | EAh3600XT | ATI Radeon HD 2600 XT | 256 MB GDDR3 |
GeForce RTX 3090 | |||
ASUS | TUF-RTX3090-O24G-GAMING | NVIDIA GeForce RTX 3090 | 24576 GDDR6X |
Inno3D | GeForce RTX 3090 iChill X4 | NVIDIA GeForce RTX 3090 | 24576 MB GDDR6X |
MSI | GeForce RTX 3090 Gaming X Trio 24G | NVIDIA GeForce RTX 3090 | 24576 MB GDDR6X |
MSI | GeForce RTX 3090 Suprim X 24G | NVIDIA GeForce RTX 3090 | 24576 MB GDDR6X |
GeForce RTX 3080 Ti | |||
ASUS | ROG-STRIX-RTX3080TI-O12G-GAMING | NVIDIA GeForce RTX 3080 Ti | 12288 MB GDDR6X |
ASUS | TUF-RTX3080TI-O12G-GAMING | NVIDIA GeForce RTX 3080 Ti | 12288 MB GDDR6X |
GeForce RTX 3080 | |||
ASUS | TUF-RTX3080-O10G-GAMING | NVIDIA GeForce RTX 3080 | 10240 MB GDDR6X |
MSI | GeForce RTX 3080 Gaming X Trio 10G | NVIDIA GeForce RTX 3080 | 10240 MB GDDR6X |
MSI | GeForce RTX 3080 Suprim X 10G | NVIDIA GeForce RTX 3080 | 10240 |
GeForce RTX 3070 Ti | |||
ASUS | ROG-STRIX-RTX3070TI-O8G-GAMING | NVIDIA GeForce RTX 3070 Ti | 8192 MB GDDR6X |
MSI | GeForce RTX 3070 Ti GAMING X TRIO 8G | NVIDIA GeForce RTX 3070 Ti | 8192 MB GDDR6X |
GeForce RTX 3070 | |||
ASUS | TUF-RTX3070-O8G-GAMING | NVIDIA GeForce RTX 3070 | 8192 MB GDDR6 |
ASUS | DUAL-RTX3070-O8G | NVIDIA GeForce RTX 3070 | 8192 MB GDDR6 |
Gigabyte | GV-N3070GAMING OC-8GD | NVIDIA GeForce RTX 3070 | 8192 MB GDDR6 |
MSI | GeForce RTX 3070 Gaming X Trio | NVIDIA GeForce RTX 3070 | 10240 MB GDDR6 |
GeForce RTX 3060 Ti | |||
ASUS | TUF-RTX3060TI-O8G-GAMING | NVIDIA GeForce RTX 3060 Ti | 8192 MB GDDR6 |
MSI | GeForce RTX 3060 Ti Gaming X Trio | NVIDIA GeForce RTX 3060 Ti | 8192 MB GDDR6 |
GeForce RTX 3060 | |||
ASUS | ROG-STRIX-RTX3060-O12G-GAMING | NVIDIA GeForce RTX 3060 | 12288 MB GDDR6 |
Inno3D | GeForce RTX 3060 iChill X3 Red | NVIDIA GeForce RTX 3060 | 12228 MB GDDR6 |
GeForce RTX 2080 Ti | |||
MSI | GeForce RTX 2080 Ti Gaming X Trio | NVIDIA GeForce RTX 2080 Ti | 11264 MB GDDR6 |
NVIDIA | GeForce RTX 2080 Ti Founders Edition | NVIDIA GeForce RTX 2080 Ti | 11264 MB GDDR6 |
GeForce RTX 2080 | |||
ASUS | DUAL-RTX2080-O8G | NVIDIA GeForce RTX 2080 | 8192 MB GDDR6 |
ASUS | ROG-STRIX-RTX2080-8G-GAMING | NVIDIA GeForce RTX 2080 | 8192 MB GDDR6 |
Gigabyte | GV-N2080GAMING OC-8GC | NVIDIA GeForce RTX 2080 | 8192 MB GDDR6 |
NVIDIA | GeForce RTX 2080 Founders Edition | NVIDIA GeForce RTX 2080 | 8192 MB GDDR6 |
GeForce RTX 2070 Super | |||
ASUS | DUAL-RTX2070S-O8G-EVO | NVIDIA GeForce RTX 2070 Super | 8192 MB GDDR6 |
Gigabyte | GV-N207SGAMING OC-8GC | NVIDIA GeForce RTX 2070 Super | 8192 MB GDDR6 |
GeForce RTX 2070 | |||
ASUS | DUAL-RTX2070-O8G | NVIDIA GeForce RTX 2070 | 8192 MB GDDR6 |
ASUS | ROG-STRIX-RTX2070-O8G-GAMING | NVIDIA GeForce RTX 2070 | 8192 MB GDDR6 |
ASUS | DUAL-RTX2070-O8G-MINI | NVIDIA GeForce RTX 2070 | 8192 MB GDDR6 |
Inno3D | GeForce RTX 2070 Gaming OC X2 | NVIDIA GeForce RTX 2070 | 8192 MB GDDR6 |
MSI | GeForce RTX 2070 Armor 8G | NVIDIA GeForce RTX 2070 | 8192 MB GDDR6 |
MSI | GeForce RTX 2070 Gaming Z 8G | NVIDIA GeForce RTX 2070 | 8192 MB GDDR6 |
GeForce RTX 2060 Super | |||
ASUS | ROG-STRIX-RTX2060S-O8G-GAMING | NVIDIA GeForce RTX 2060 Super | 8192 MB GDDR6 |
Gigabyte | GV-N206SWF2OC-8GD | NVIDIA GeForce RTX 2060 Super | 8192 MB GDDR6 |
MSI | GeForce RTX 2060 Super Gaming X | NVIDIA GeForce RTX 2060 Super | 8192 MB GDDR6 |
GeForce RTX 2060 | |||
ASUS | ROG-STRIX-RTX2060-O6G-GAMING | NVIDIA GeForce RTX 2060 | 6144 MB GDDR6 |
MSI | GeForce RTX 2060 Gaming Z | NVIDIA GeForce RTX 2060 | 6144 MB GDDR6 |
GeForce GTX 1660 Ti | |||
ASUS | ROG-STRIX-GTX1660TI-O6G-GAMING | NVIDIA GeForce GTX 1660 Ti | 6144 MB GDDR6 |
MSI | GeForce GTX 1660 Ti Gaming X 6G | NVIDIA GeForce GTX 1660 Ti | 6144 MB GDDR6 |
GeForce GTX 1660 Super | |||
ASUS | TUF 3-GTX1660S-O6G-GAMING | NVIDIA GeForce GTX 1660 Super | 6144 MB GDDR6 |
ASUS | ROG-STRIX-GTX1660S-O6G-GAMING | NVIDIA GeForce GTX 1660 Super | 6144 MB GDDR6 |
MSI | GTX 1660 Super Gaming X | NVIDIA GeForce GTX 1660 Super | 6144 MB GDDR6 |
GeForce GTX 1660 | |||
MSI | GeForce GTX 1660 Gaming X 6G | NVIDIA GeForce GTX 1660 | 6144 MB GDDR5 |
GeForce GTX 1650 Super | |||
ASUS | TUF-GTX1650S-O4G-GAMING | NVIDIA GeForce GTX 1650 Super | 4096 MB GDDR6 |
MSI | GTX 1650 Super Gaming X | NVIDIA GeForce GTX 1650 Super | 4096 MB GDDR6 |
GeForce GTX 1650 | |||
ASUS | ROG-STRIX-GTX1650-O4G-GAMING | NVIDIA GeForce GTX 1650 | 4096 MB GDDR5 |
MSI | GeForce GTX 1650 Ventus XS 4G OC | NVIDIA GeForce GTX 1650 | 4096 MB GDDR5 |
MSI | GeForce GTX 1650 Gaming X 4G | NVIDIA GeForce GTX 1650 | 4096 MB GDDR5 |
GeForce GTX 1080 Ti | |||
ASUS | ROG-STRIX-GTX1080TI-O11G-GAMING | NVIDIA GeForce GTX 1080 Ti | 11264 MB GDDR5X |
ASUS | ROG-POSEIDON-GTX1080TI-P11G-GAMING | NVIDIA GeForce GTX 1080 Ti | 11264 MB GDDR5X |
Inno3D | iChill GTX 1080 Ti X3 Ultra | NVIDIA GeForce GTX 1080 Ti | 11264 MB GDDR5X |
MSI | GeForce GTX 1080 Ti Gaming X 11G | NVIDIA GeForce GTX 1080 Ti | 11264 MB GDDR5X |
NVIDIA | GeForce GTX 1080 Ti Founders Edition | NVIDIA GeForce GTX 1080 Ti | 11264 MB GDDR5X |
GeForce GTX 1080 | |||
ASUS | ROG STRIX-GTX1080-O8G-GAMING | NVIDIA GeForce GTX 1080 | 8192 MB GDDR5X |
Gigabyte | GV-N1080D5X-8GD-B | NVIDIA GeForce GTX 1080 | 8192 MB GDDR5X |
Gigabyte | GV-N1080G1 GAMING-8GD | NVIDIA GeForce GTX 1080 | 8192 MB GDDR5X |
MSI | GeForce GTX 1080 Gaming X 8G | NVIDIA GeForce GTX 1080 | 8192 MB GDDR5X |
GeForce GTX 1070 Ti | |||
ASUS | ROG-STRIX-GTX1070TI-A8G-GAMING | NVIDIA GeForce GTX 1070 Ti | 8192 MB GDDR5 |
ASUS | CERBERUS-GTX1070TI-A8G | NVIDIA GeForce GTX 1070 Ti | 8192 MB GDDR5 |
ASUS | TURBO-GTX1070TI-8G | NVIDIA GeForce GTX 1070 Ti | 8192 MB GDDR5 |
MSI | GTX 1070 Ti Gaming 8G | NVIDIA GeForce GTX 1070 Ti | 8192 MB GDDR5X |
GeForce GTX 1070 | |||
ASUS | ROG STRIX-GTX1070-O8G-GAMING | NVIDIA GeForce GTX 1070 | 8192 MB GDDR5 |
ASUS | EX-GTX1070-O8G | NVIDIA GeForce GTX 1070 | 8192 MB GDDR5 |
MSI | GeForce GTX 1070 Gaming X 8G | NVIDIA GeForce GTX 1070 | 8192 MB GDDR |
MSI | GeForce GTX 1070 8G Duke | NVIDIA GeForce GTX 1070 | 8192 MB GDDR5 |
GeForce GTX 1060 | |||
ASUS | ROG STRIX-GTX1060-O6G-GAMING | NVIDIA GeForce GTX 1060 | 6144 MB GDDR5 |
ASUS | DUAL-GTX1060-6G | NVIDIA GeForce GTX 1060 | 6144 MB GDDR5 |
Gigabyte | GV-N1060WF2OC-6GD | NVIDIA GeForce GTX 1060 | 6144 MB GDDR5 |
Inno3D | iChill GeForce GTX 1060 X3 | NVIDIA GeForce GTX 1060 | 6144 MB GDDR5 |
MSI | GeForce GTX 1060 Gaming X 6G | NVIDIA GeForce GTX 1060 | 6144 MB GDDR5 |
Palit | GeForce GTX 1060 Jetstream 6GB | NVIDIA GeForce GTX 1060 | 6144 MB GDDR5 |
GeForce GTX 1060 3GB | |||
ASUS | DUAL-GTX1060-O3G | NVIDIA GeForce GTX 1060 3GB | 3072 MB GDDR5 |
GeForce GTX 1050 Ti | |||
ASUS | EX-GTX1050TI-4G | NVIDIA GeForce GTX 1050 Ti | 4096 MB GDDR5 |
ASUS | ROG Strix GeForce GTX 1050 Ti | NVIDIA GeForce GTX 1050 Ti | 4096 MB GDDR5 |
ASUS | CERBERUS-GTX1050TI-O4G | NVIDIA GeForce GTX 1050 Ti | 4096 MB GDDR5 |
ASUS | GTX1050TI-O4G-LP-BRK | NVIDIA GeForce GTX 1050 Ti | 4096 MB GDDR5 |
ASUS | GTX1050TI-O4G-LP-BRK | NVIDIA GeForce GTX 1050 Ti | 4096 MB GDDR5 |
EVGA | GeForce GTX 1050 Ti SC Gaming | NVIDIA GeForce GTX 1050 Ti | 4096 MB GDDR5 |
Gigabyte | GV-N105TG1 GAMING-4GD | NVIDIA GeForce GTX 1050 Ti | 4096 MB GDDR5 |
MSI | GeForce GTX 1050 Ti Gaming X 4G | NVIDIA GeForce GTX 1050 Ti | 4096 MB GDDR5 |
GeForce GTX 1050 3GB | |||
ASUS | PH-GTX1050-3G | NVIDIA GeForce GTX 1050 3GB | 3072 MB GDDR5 |
GeForce GTX 1050 | |||
ASUS | EX-GTX1050-2G | NVIDIA GeForce GTX 1050 | 2048 MB GDDR5 |
ASUS | DUAL-GTX1050-O2G-V2 | NVIDIA GeForce GTX 1050 | 2048 MB GDDR5 |
MSI | GeForce GTX 1050 Aero ITX 2G OC | NVIDIA GeForce GTX 1050 | 2048 MB GDDR5 |
GeForce GT 1030 | |||
ASUS | PH-GT1030-O2G | NVIDIA GeForce GT 1030 | 2048 MB GDDR5 |
GeForce GTX 980 Ti | |||
ASUS | STRIX-GTX980TI-DC3OC-6GD5-GAMING | NVIDIA GeForce GTX 980 Ti | 6144 MB GDDR5 |
ASUS | MATRIX-GTX980TI-P-6GD5-GAMING | NVIDIA GeForce GTX 980 Ti | 6144 |
Gigabyte | GV-N98TG1 GAMING-6GD | NVIDIA GeForce GTX 980 Ti | 6144 MB GDDR5 |
Inno3D | iChill GeForce GTX 980Ti X3 Ultra | NVIDIA GeForce GTX 980 Ti | 6144 MB GDDR5 |
NVIDIA | GeForce GTX 980 Ti | NVIDIA GeForce GTX 980 Ti | 6144 MB GDDR5 |
GeForce GTX 980 | |||
ASUS | STRIX-GTX980-DC2OC-4GD5 | NVIDIA GeForce GTX 980 | 4096 MB GDDR5 |
ASUS | MATRIX-GTX980-P-4GD5 | NVIDIA GeForce GTX 980 | 4096 MB GDDR5 |
EVGA | GeForce GTX 980 Superclocked ACX 2.0 | NVIDIA GeForce GTX 980 | 4096 MB GDDR5 |
EVGA | GeForce GTX 980 Classified Gaming ACX 2.0 | NVIDIA GeForce GTX 980 | 4096 MB GDDR5 |
Gigabyte | GV-N980G1 Gaming-4GD | NVIDIA GeForce GTX 980 | 4096 MB GDDR5 |
MSI | GTX 980 Gaming 4G | NVIDIA GeForce GTX 980 | 4096 MB GDDR5 |
NVIDIA | GeForce GTX 980 | NVIDIA GeForce GTX 980 | 4096 MB GDDR5 |
Palit | GeForce GTX 980 Super JetStream | NVIDIA GeForce GTX 980 | 4096 MB GDDR5 |
GeForce GTX 970 | |||
ASUS | STRIX-GTX970-DC2OC-4GD5 | NVIDIA GeForce GTX 970 | 4096 MB GDDR5 |
ASUS | GTX970-DCMOC-4GD5 | NVIDIA GeForce GTX 970 | 4096 MB GDDR5 |
ASUS | TURBO-GTX970-OC-4GD5 | NVIDIA GeForce GTX 970 | 4096 MB GDDR5 |
EVGA | GeForce GTX 970 FTW ACX 2.0 | NVIDIA GeForce GTX 970 | 4096 MB GDDR5 |
Gainward | GeForce GTX 970 Phoenix | NVIDIA GeForce GTX 970 | 4096 MB GDDR5 |
Gigabyte | GV-N970G1 Gaming-4GD | NVIDIA GeForce GTX 970 | 4096 MB GDDR5 |
Inno3D | iChill GeForce GTX 970 4GB Ultra | NVIDIA GeForce GTX 970 | 4096 MB GDDR5 |
MSI | GTX 970 Gaming 4G | NVIDIA GeForce GTX 970 | 4096 MB GDDR5 |
GeForce GTX 960 | |||
ASUS | STRIX-GTX960-DC2OC-2GD5 | NVIDIA GeForce GTX 960 | 2048 MB GDDR5 |
ASUS | GTX960-MOC-2GD5 | NVIDIA GeForce GTX 960 | 2048 MB GDDR5 |
ASUS | STRIX-GTX960-DC2OC-4GD5 | NVIDIA GeForce GTX 960 | 4096 MB GDDR5 |
ASUS | GTX960-DC2OC-2GD5-BLACK | NVIDIA GeForce GTX 960 | 2048 MB GDDR5 |
EVGA | GeForce GTX 960 SuperSC ACX 2.0+ | NVIDIA GeForce GTX 960 | 2048 MB GDDR5 |
Gigabyte | GV-N960WF2OC-2GD | NVIDIA GeForce GTX 960 | 2048 MB GDDR5 |
Gigabyte | GV-N960G1 GAMING-2GD | NVIDIA GeForce GTX 960 | 2048 MB GDDR5 |
Inno3D | iChill GeForce GTX 960 2GB Ultra | NVIDIA GeForce GTX 960 | 2048 MB GDDR5 |
MSI | GTX 960 Gaming 2G | NVIDIA GeForce GTX 960 | 2048 MB GDDR5 |
MSI | GTX 960 Gaming 4G | NVIDIA GeForce GTX 960 | 4096 MB GDDR5 |
Palit | GeForce GTX 960 Super JetStream | NVIDIA GeForce GTX 960 | 2048 GB GDDR5 |
GeForce GTX 950 | |||
ASUS | STRIX-GTX950-DC2OC-2GD5-GAMING | NVIDIA GeForce GTX 950 | 2048 MB GDDR5 |
EVGA | GeForce GTX 950 FTW ACX 2.0 | NVIDIA GeForce GTX 950 | 2048 MB GDDR5 |
Gigabyte | GV-N950XTREME-2GD | NVIDIA GeForce GTX 950 | 2048 MB GDDR5 |
Inno3D | iChill GeForce GTX 950 2GB Ultra | NVIDIA GeForce GTX 950 | 2048 MB GGD5 |
MSI | GTX 950 Gaming 2G | NVIDIA GeForce GTX 950 | 2048 MB GDDR5 |
GeForce GTX Titan | |||
Zotac | GeForce GTX TITAN (ZT-70101-10P) | NVIDIA GeForce GTX Titan | 6144 MB GDDR5 |
GeForce GTX 780 Ti | |||
ASUS | GTX780TI-DC2OC-3GD5 | NVIDIA GeForce GTX 780 Ti | 3072 MB GDDR5 |
ASUS | MATRIX-GTX780TI-P-3GD5 | NVIDIA GeForce GTX 780 Ti | 3072 MB GDDR5 |
Inno3D | iChill GeForce GTX 780 Ti HerculeZ X3 Ultra | NVIDIA GeForce GTX 780 Ti | 3072 MB GDDR5 |
MSI | GTX 780Ti Gaming 3G | NVIDIA GeForce GTX 780 Ti | 3072 MB GDDR5 |
NVIDIA | GeForce GTX 780 Ti | NVIDIA GeForce GTX 780 Ti | 3072 MB GDDR5 |
GeForce GTX 780 | |||
ASUS | GTX780-DC2OC-3GD5 | NVIDIA GeForce GTX 780 | 3072 MB |
ASUS | STRIX-GTX780-OC-6GD5 | NVIDIA GeForce GTX 780 | 6144 MB GDDR5 |
Gigabyte | GV-N780OC-3GD | NVIDIA GeForce GTX 780 | 3072 MB GDDR5 |
Inno3D | iChill GeForce GTX 780 HerculeZ 3000 | NVIDIA GeForce GTX 780 | 3072 MB GDDR5 |
MSI | N780 TF 3GD5/OC | NVIDIA GeForce GTX 780 | 3072 MB GDDR5 |
MSI | N780 Lightning | NVIDIA GeForce GTX 780 | 3072 MB GDDR5 |
NVIDIA | GeForce GTX 780 | NVIDIA GeForce GTX 780 | 3072 MB |
Palit | GTX 780 JetStream (NE5X780h20FB-1100J) | NVIDIA GeForce GTX 780 | 3072 MB |
GeForce GTX 770 | |||
ASUS | GTX770-DC2OC-2GD5 | NVIDIA GeForce GTX 770 | 2048 MB GDDR5 |
MSI | N770 TF 2GD5/OC | NVIDIA GeForce GTX 770 | 2048 MB GDDR5 |
Palit | GeForce GTX 770 JetStream | NVIDIA GeForce GTX 770 | 2048 MB GDDR5 |
Zotac | GeForce GTX 770 AMP! Edition (ZT-70303-10P) | NVIDIA GeForce GTX 770 | 2048 MB GDDR5 |
GeForce GTX 760 | |||
ASUS | GTX760-DC2OC-2GD5 | NVIDIA GeForce GTX 760 | 2048 MB GDDR5 |
ASUS | ASUS MARS760-4GD5 | NVIDIA GeForce GTX 760 | 2х 2048 MB GDDR5 |
ASUS | GTX760-DCMOC-2GD5 | NVIDIA GeForce GTX 760 | 2048 MB GDDR5 |
ASUS | STRIKER-GTX760-P-4GD5 | NVIDIA GeForce GTX 760 | 4096 MB GDDR5 |
Inno3D | iChill GeForce GTX 760 HerculeZ 3000 | NVIDIA GeForce GTX 760 | 2048 MB GDDR5 |
MSI | N760 TF 2GD5/OC | NVIDIA GeForce GTX 760 | 2048 MB GDDR5 |
MSI | N760 Hawk | NVIDIA GeForce GTX 760 | 2048 MB GDDR5 |
Palit | GTX 760 JetStream | NVIDIA GeForce GTX 760 | 2048 MB GDDR5 |
GeForce GTX 750 Ti | |||
ASUS | GTX750TI-OC-2GD5 | NVIDIA GeForce GTX 750 Ti | 2048 MB GDDR5 |
ASUS | STRIX-GTX750TI-OC-2GD5 | NVIDIA GeForce GTX 750 Ti | 2048 MB GDDR5 |
EVGA | GeForce GTX 750 Ti FTW ACX Cooling | NVIDIA GeForce GTX 750 Ti | 2048 MB GDDR5 |
Gigabyte | GV-N75TWF2OC-2GI | NVIDIA GeForce GTX 750 Ti | 2048 MB GDDR5 |
MSI | N750Ti TF 2GD5/OC | NVIDIA GeForce GTX 750 Ti | 2048 MB GDDR5 |
Palit | GeForce GTX 750 Ti StormX Dual | NVIDIA GeForce GTX 750 Ti | 2048 MB GDDR5 |
Palit | GTX 750 Ti KalmX | NVIDIA GeForce GTX 750 Ti | 2048 MB GDDR5 |
GeForce GTX 750 | |||
ASUS | GTX750-PHOC-1GD5 | NVIDIA GeForce GTX 750 | 1024 MB GDDR5 |
MSI | N750 1GD5/OCV1 | NVIDIA GeForce GTX 750 | 1024 MB GDDR5 |
GeForce GT 740 | |||
ASUS | GT740-OC-2GD5 | NVIDIA GeForce GT 740 | 2048 GB GDDR5 |
ASUS | GT740-OC-1GD5 | NVIDIA GeForce GT 740 | 1024 MB GDDR5 |
EVGA | GeForce GT 740 FTW | NVIDIA GeForce GT 740 | 1024 MB GDDR5 |
Palit | GeForce GT 740 | NVIDIA GeForce GT 740 | 2048 MB DDR3 |
GeForce GT 730 | |||
ASUS | GT730-SL-1GD3-BRK | NVIDIA GeForce GT 730 | 1024 MB DDR3 |
Gigabyte | GV-N730D5OC-1GI | NVIDIA GeForce GT 730 | 1024 MB GDDR5 |
GeForce GTX 690 | |||
Zotac | Zotac GeForce GTX 690 (ZT-60701-10P) | NVIDIA GeForce GTX 690 | 2x 2048 MB GDDR5 |
GeForce GTX 680 | |||
ASUS | GTX680-DC2T-2GD5 | NVIDIA GeForce GTX 680 | 2048 MB GDDR5 |
ASUS | GTX680-2GD5 | NVIDIA GeForce GTX 680 | 2048 GB GDDR5 |
ASUS | GTX680-DC2O-2GD5 | NVIDIA GeForce GTX 680 | 2048 MB GDDR5 |
Gigabyte | GV-N680WF3-2GD | NVIDIA GeForce GTX 680 | 2048 MB GDDR5 |
MSI | N680GTX Lightning | NVIDIA GeForce GTX 680 | 2048 MB GDDR5 |
Palit | GeForce GTX 680 JetStream | NVIDIA GeForce GTX 680 | 2048 MB GDDR5 |
Zotac | GeForce GTX 680 (ZT-60601-10P) | NVIDIA GeForce GTX 680 | 2048 MB GDDR5 |
Zotac | GeForce GTX 680 AMP! Edition (ZT-60102-10P) | NVIDIA GeForce GTX 680 | 2048 MB GDDR5 |
GeForce GTX 670 | |||
ASUS | GTX670-DC2-2GD5 | NVIDIA GeForce GTX 670 | 2048 MB GDDR5 |
ASUS | GTX670-DC2T-2GD5 | NVIDIA GeForce GTX 670 | 2048 MB GDDR5 |
ASUS | GTX670-DC2-4GD5 | NVIDIA GeForce GTX 670 | 4096 MB GDDR5 |
ASUS | GTX670-DCMOC-2GD5 | NVIDIA GeForce GTX 670 | 2048 MB GDDR5 |
Gainward | GeForce GTX 670 2GB | NVIDIA GeForce GTX 670 | 2048 MB GDDR5 |
Gigabyte | GV-N670OC-2GD | NVIDIA GeForce GTX 670 | 2048 MB GDDR5 |
Inno3D | iChill GeForce GTX 670 HerculeZ 3000 (C670-1SDN-E5DSX) | NVIDIA GeForce GTX 670 | 2048 MB GDDR5 |
MSI | N670GTX-PM2D2GD5/OC | NVIDIA GeForce GTX 670 | 2048 MB |
MSI | N670 PE 2GD5/OC | NVIDIA GeForce GTX 670 | 2048 MB GDDR5 |
Palit | GeForce GTX 670 JetStream | NVIDIA GeForce GTX 670 | 2048 MB GDDR5 |
Zotac | GeForce GTX 670 AMP! Edition (ZT-60302-10P) | NVIDIA GeForce GTX 670 | 2048 MB GDDR5 |
GeForce GTX 660 Ti | |||
ASUS | GTX660 TI-DC2O-2GD5 | NVIDIA GeForce GTX 660 Ti | 2048 MB GDDR5 |
KFA2 | GeForce GTX 660 Ti EX OC 2GB | NVIDIA GeForce GTX 660 Ti | 2048 MB GDDR5 |
MSI | N660Ti PE 2GD5/OC | NVIDIA GeForce GTX 660 Ti | 2048 MB GDDR5 |
Palit | GTX 660 Ti Jetstream | NVIDIA GeForce GTX 660 Ti | 2048 MB GDDR5 |
Zotac | GTX 660 Ti AMP! Edition | NVIDIA GeForce GTX 660 Ti | 2048 MB GDDR5 |
GeForce GTX 660 | |||
ASUS | GTX660-DC2-2GD5 | NVIDIA GeForce GTX 660 | 2048 MB GDDR5 |
ASUS | GTX660-DC2T-2GD5 | NVIDIA GeForce GTX 660 | 2048 MB GDDR5 |
ASUS | GTX660-DC2O-2GD5 | NVIDIA GeForce GTX 660 | 2048 MB GDDR5 |
KFA2 | GeForce GTX 660 EX OC 2GB | NVIDIA GeForce GTX 660 | 2048 MB GDDR5 |
MSI | N660 TF 2GD5/OC | NVIDIA GeForce GTX 660 | 2048 MB GDDR5 |
Zotac | GeForce GTX 660 (ZT-60901-10M) | NVIDIA GeForce GTX 660 | 2048 MB GDDR5 |
GeForce GTX 650 Ti Boost | |||
ASUS | GTX650TIB-DC2OC-2GD5 | NVIDIA GeForce GTX 650 Ti Boost | 2048 MB GDDR5 |
Inno3D | iChill GTX 650 Ti Boost HerculeZ 2000 | NVIDIA GeForce GTX 650 Ti Boost | 2048 MB GDDR5 |
Palit | GTX 650 Ti Boost OC 2048MB | NVIDIA GeForce GTX 650 Ti Boost | 2048 MB GDDR5 |
GeForce GTX 650 Ti | |||
ASUS | GTX650TI-DC2T-1GD5 | NVIDIA GeForce GTX 650 Ti | 1024 MB GDDR5 |
ASUS | GTX650TI-1GD5 | NVIDIA GeForce GTX 650 Ti | 1024 MB |
Gigabyte | GV-N65TOC-1GI | NVIDIA GeForce GTX 650 Ti | 1024 MB GDDR5 |
Inno3D | GeForce GTX 650 Ti (N650-1SDN-D5CW) | NVIDIA GeForce GTX 650 Ti | 1024 MB GDDR5 |
KFA2 | GeForce GTX 650 Ti EX OC 1GB | NVIDIA GeForce GTX 650 Ti | 1024 MB GDDR5 |
MSI | N650Ti PE 1GD5/OC | NVIDIA GeForce GTX 650 Ti | 1024 MB GDDR5 |
MSI | N650Ti-1GD5/OC | NVIDIA GeForce GTX 650 Ti | 1024 MB GDDR5 |
Palit | GeForce GTX 650 Ti OC | NVIDIA GeForce GTX 650 Ti | 1024 MB GDDR5 |
GeForce GTX 650 | |||
ASUS | GTX650-DCT-1GD5 | NVIDIA GeForce GTX 650 | 1024 MB GDDR5 |
Inno3D | GTX 650 Herculez (N65M-1SDN-D5CW) | NVIDIA GeForce GTX 650 | 1024 MB GDDR5 |
MSI | N650 PE 1GD5/OC | NVIDIA GeForce GTX 650 | 1024 MB GDDR5 |
MSI | N650-1GD5/OCV1 | NVIDIA GeForce GTX 650 | 1024 MB GDDR5 |
Palit | GeForce GTX 650 | NVIDIA GeForce GTX 650 | 1024 MB GDDR5 |
GeForce GT 640 | |||
KFA2 | GT 640 (KFA-GT640-1GD3-STD-ATFD-V1) | NVIDIA GeForce GT 640 | 1024 MB DDR3 |
GeForce GT 630 rev.2 | |||
ASUS | GT630-SL-2GD3-L | NVIDIA GeForce GT 630 rev.2 | 2048 MB DDR3 |
GeForce GT 630 | |||
ASUS | GT630-2GD3 | NVIDIA GeForce GT 630 | 2048 MB DDR3 |
Inno3D | GT 630 (N630-2DDV-D3CX) | NVIDIA GeForce GT 630 | 1024 MB DDR3 |
GeForce GTX 590 | |||
ASUS | ENGTX590/3DIS/3GD5 | NVIDIA GeForce GTX 590 | 3072 MB GDDR5 |
GeForce GTX 580 | |||
ASUS | Matrix GTX580 P/2DIS/1536MD5 | NVIDIA GeForce GTX 580 | 1536 MB GDDR5 |
Gigabyte | GV-N580SO-15I | NVIDIA GeForce GTX 580 | 1536 MB GDDR5 |
Inno3D | iChill GeForce GTX 580 Black (C58V-1SDN-K5HWX) | NVIDIA GeForce GTX 580 | 1536 MB GDDR5 |
MSI | N580GTX Lightning | NVIDIA GeForce GTX 580 | 1536 MB GDDR5 |
Zotac | GeForce GTX 580 AMP! Edition (ZT-50102-10P) | NVIDIA GeForce GTX 580 | 1536 MB GDDR5 |
Zotac | GeForce GTX 580 (ZT-50101-10P) | NVIDIA GeForce GTX 580 | 1536 MB GDDR5 |
GeForce GTX 570 | |||
ASUS | ENGTX570 DCII/2DIS/1280MD5 | NVIDIA GeForce GTX 570 | 1280 MB GDDR5 |
Gainward | GeForce GTX 570 Phantom | NVIDIA GeForce GTX 570 | 1280 MB GDDR5 |
Inno3D | GeForce GTX 570 | NVIDIA GeForce GTX 570 | 1280 MB GDDR5. Тестирование в режиме 3-Way SLI |
Inno3D | iChill GeForce GTX 570 Black (C570-1SDN-J5KWX) | NVIDIA GeForce GTX 570 | 1280 MB GDDR5 |
MSI | N570GTX Twin Frozr III Power Edition/OC | NVIDIA GeForce GTX 570 | 1280 MB GDDR5 |
MSI | N570GTX Twin Frozr II/OC | NVIDIA GeForce GTX 570 | 1280 MB GDDR5 |
Palit | GeForce GTX 570 Sonic Platinum | NVIDIA GeForce GTX 570 | 1280 MB GDDR5 |
Palit | GeForce GTX 570 | NVIDIA GeForce GTX 570 | 1280 MB GDDR5 |
Zotac | GeForce GTX 570 AMP! Edition (ZT-50202-10P) | NVIDIA GeForce GTX 570 | 1280 MB GDDR5 |
GeForce GTX 560 Ti | |||
ASUS | ENGTX560 Ti DC/2DI/1GD5 | NVIDIA GeForce GTX 560 Ti | 1024 MB GDDR5 |
Gainward | GeForce GTX 560 Ti | NVIDIA GeForce GTX 560 Ti | 1024 MB GDDR5 |
Gainward | GeForce GTX 560 Ti Phantom | NVIDIA GeForce GTX 560 Ti | 1024 MB GDDR5 |
Gainward | GeForce GTX 560 Ti Golden Sample | NVIDIA GeForce GTX 560 Ti | 1024 MB GDDR5 |
Gigabyte | GV-N560SO-1GI | NVIDIA GeForce GTX 560 Ti | 1024 MB GDDR5 |
Inno3D | GeForce GTX 560 Ti | NVIDIA GeForce GTX 560 Ti | 1024 MB GDDR5 |
KFA2 | GeForce GTX 560 Ti LTD OC (SOC White Edition) | NVIDIA GeForce GTX 560 Ti | 1024 MB GDDR5 |
KFA2 | GeForce GTX 560 Ti (Slim) | NVIDIA GeForce GTX 560 Ti | 1024 MB GDDR5 |
KFA2 | GeForce GTX 560 (Slim) | NVIDIA GeForce GTX 560 Ti | 1024 MB GDDR5 |
MSI | N560GTX-Ti Hawk | NVIDIA GeForce GTX 560 Ti | 1024 MB GDDR5 |
Palit | GeForce GTX 560 Ti Sonic | NVIDIA GeForce GTX 560 Ti | 1024 MB GDDR5 |
Sparkle | Calibre X560 | NVIDIA GeForce GTX 560 Ti | 1024 MB GDDR5 |
GeForce GTX 560 | |||
ASUS | ENGTX560 DCII TOP/2DI/1GD5 | NVIDIA GeForce GTX 560 | 1024 MB GDDR5 |
MSI | N560GTX Twin Frozr II/OC | NVIDIA GeForce GTX 560 | 1024 MB GDDR5 |
GeForce GTX 550 Ti | |||
Inno3D | GeForce GTX 550 Ti | NVIDIA GeForce GTX 550 Ti | 1024 MB GDDR5 |
KFA2 | GeForce GTX 550 Ti | NVIDIA GeForce GTX 550 Ti | 1024 MB GDDR5 |
MSI | N550GTX-Ti Cyclone II 1GD5/OC | NVIDIA GeForce GTX 550 Ti | 1024 MB GDDR5 |
Palit | GeForce GTX 550 Ti Sonic | NVIDIA GeForce GTX 550 Ti | 1024 MB GDDR5 |
Sparkle | Calibre X550 Ti DFL | NVIDIA GeForce GTX 550 Ti | 1024 MB GDDR5 |
GeForce GT 520 | |||
ASUS | ENGT520 SILENT/DI/1GD3(LP) | NVIDIA GeForce GT 520 | 1024 MB DDR3 |
Inno3D | GeForce GT 520 | NVIDIA GeForce GT 520 | 1024 MB DDR3 |
GeForce GTX 480 | |||
MSI | N480GTX Lightning | NVIDIA GeForce GTX 480 | 1536 MB GDDR5 |
Zotac | GeForce GTX 480 AMP! Edition (ZT-40102-10P) | NVIDIA GeForce GTX 480 | 1536 MB GDDR5 |
Zotac | GeForce GTX 480 (ZT-40101-10P) | NVIDIA GeForce GTX 480 | 1536 MB GDDR5 |
GeForce GTX 470 | |||
Inno3D | iChill GTX 470 Hawk (N47V-1SDN-J5KW) | NVIDIA GeForce GTX 470 | 1280 MB GDDR5 |
Zotac | GeForce GTX 470 (ZT-40201-10P) | NVIDIA GeForce GTX 470 | 1280 MB GDDR5 |
GeForce GTX 465 | |||
Inno3D | GTX 465 (N465-1DDN-D5DW) | NVIDIA GeForce GTX 465 | 1024 MB GDDR5 |
Palit | GeForce GTX 465 | NVIDIA GeForce GTX 465 | 1024 MB GDDR5 |
GeForce GTX 460 1024MB | |||
Inno3D | iChill GeForce GTX 460 Freezer (C460-1DDN-D5DWX) | NVIDIA GeForce GTX 460 1024MB | 1024 MB GDDR5 |
MSI | N460GTX Hawk | NVIDIA GeForce GTX 460 1024MB | 1024 MB GDDR5 |
Palit | GeForce GTX 460 Sonic | NVIDIA GeForce GTX 460 1024MB | 1024 MB GDDR5 |
Palit | GeForce GTX 460 Sonic 2GB | NVIDIA GeForce GTX 460 1024MB | 2048 MB GDDR5 |
Palit | GeForce GTX 460 Sonic Platinum | NVIDIA GeForce GTX 460 1024MB | 1024 MB GDDR5 |
Sparkle | Calibre X460G | NVIDIA GeForce GTX 460 1024MB | 1024 MB GDDR5 |
Zotac | GeForce GTX 460 1GB (ZT-40402-10P) | NVIDIA GeForce GTX 460 1024MB | 1024 MB GDDR5 |
GeForce GTX 460 768MB | |||
ASUS | ENGTX460 DirectCU TOP/2DI/768MD5 | NVIDIA GeForce GTX 460 768MB | 768 MB GDDR5 |
Gigabyte | GV-N460OC-768I | NVIDIA GeForce GTX 460 768MB | 768 MB GDDR5 |
MSI | N460GTX Cyclone 768D5/OC | NVIDIA GeForce GTX 460 768MB | 768MB GDDR5 |
GeForce GTS 450 | |||
ASUS | ENGTS 450 DirectCU TOP/DI/1GD5 | NVIDIA GeForce GTS 450 | 1024 MB GDDR5 |
Gigabyte | GV-N450OC-1GI | NVIDIA GeForce GTS 450 | 1024 MB GDDR5 |
Inno3D | iChill GeForce GTS 450 Freezer (C450-1DDN-D5CWX) | NVIDIA GeForce GTS 450 | 1024 MB GDDR5 |
KFA2 | GeForce GTS 450 | NVIDIA GeForce GTS 450 | 1024 MB GDDR5 |
KFA2 | GeForce GTS 450 | NVIDIA GeForce GTS 450 | 1024 MB DDR3 |
MSI | N450GTS Cyclone 1GD5/OC | NVIDIA GeForce GTS 450 | 1024 MB GDDR5 |
Palit | GeForce GTS 450 | NVIDIA GeForce GTS 450 | 1024 MB GDDR3 |
Sparkle | GeForce GTS450 OC One 1G | NVIDIA GeForce GTS 450 | 1024 MB GDDR5 |
Zotac | ZT-40506-10L | NVIDIA GeForce GTS 450 | 1024 MB GDDR3 |
GeForce GT 440 GDDR5 | |||
Inno3D | GeForce GT 440 (N440-1DDV-D5CX) | NVIDIA GeForce GT 440 GDDR5 | 1024 MB GDDR5 |
GeForce GT 430 | |||
Inno3D | GeForce GT 430 | NVIDIA GeForce GT 430 | 1024 MB DDR3 |
Palit | GeForce GT 430 | NVIDIA GeForce GT 430 | 512 MB GDDR5 |
GeForce GTX 295 | |||
Inno3D | GeForce GTX 295 Platinum Edition | NVIDIA GeForce GTX 295 | 1792 MB GDDR3 |
XFX | GF GTX295 576M 1792MB DDR3 | NVIDIA GeForce GTX 295 | 1792 MB GDDR3 |
GeForce GTX 285 | |||
BFG | GeForce GTX 285 OC | NVIDIA GeForce GTX 285 | 1024 MB GDDR3 |
Zotac | GeForce GTX 285 AMP! | NVIDIA GeForce GTX 285 | 1024 MB GDDR3 |
GeForce GTX 280 | |||
XpertVision | GeForce GTX 280 | NVIDIA GeForce GTX 280 | 1024 MB GDDR3 |
Zotac | GeForce GTX 280 AMP! | NVIDIA GeForce GTX 280 | 1024 MB GDDR3 |
GeForce GTX 275 | |||
Gigabyte | GV-N275SO-18I | NVIDIA GeForce GTX 275 | 1792 MB GDDR3 |
Inno3D | iChill GTX275 Accelero XXX | NVIDIA GeForce GTX 275 | 896 MB GDDR3 |
GeForce GTX 260 rev. 2 | |||
Zotac | GeForce GTX 260 AMP2! | NVIDIA GeForce GTX 260 rev. 2 | 896 MB GDDR3 |
GeForce GTX 260 | |||
ASUS | ENGTX260/HTDP/896M | NVIDIA GeForce GTX 260 | 896 MB GDDR3 |
BFG | GeForce GTX 260 OC2 | NVIDIA GeForce GTX 260 | 896 MB GDDR3 |
Gigabyte | GV-N26SO-896I | NVIDIA GeForce GTX 260 | 896 MB GDDR3 |
XFX | GF GTX260 666M 896MB DDR3 Black (GX-260N-ADB) | NVIDIA GeForce GTX 260 | 896 MB GDDR3 |
Zotac | GeForce GTX 260 AMP! | NVIDIA GeForce GTX 260 | 896 MB GDDR3 |
GeForce GTS 250 | |||
ASUS | ENGTS250 DK/DI/1GD3/WW | NVIDIA GeForce GTS 250 | 1024 MB GDDR3 |
Axle | AX-GTS250/1GD3P6CDI | NVIDIA GeForce GTS 250 | 1024 MB GDDR3 |
Leadtek | WinFast GTS 250 | NVIDIA GeForce GTS 250 | 512 MB GDDR3 |
Palit | GeForce GTS 250 Green | NVIDIA GeForce GTS 250 | 512 MB GDDR3 |
Palit | GeForce GTS 250 E-Green | NVIDIA GeForce GTS 250 | 1024 MB GDDR3 |
Palit | GTS250 512MB GDDR3 | NVIDIA GeForce GTS 250 | 512 MB GDDR3 |
Zotac | GeForce GTS 250 AMP! 1GB | NVIDIA GeForce GTS 250 | 1024 MB GDDR3 |
GeForce GT 240 | |||
ASUS | ENGT240/DI/1GD3/A | NVIDIA GeForce GT 240 | 1024 MB DDR3 |
Zotac | GeForce GT240 AMP! | NVIDIA GeForce GT 240 | 512 MB GDDR5 |
GeForce GT 220 | |||
Gigabyte | GV-N220OC-1GI | NVIDIA GeForce GT 220 | 1024 MB DDR3 |
Palit | GeForce GT 220 512MB DDR2 | NVIDIA GeForce GT 220 | 512 MB DDR2 |
Palit | GeForce GT 220 Sonic 512MB GDDR3 | NVIDIA GeForce GT 220 | 512 MB GDDR3 |
GeForce 210 | |||
Palit | GeForce 210 | NVIDIA GeForce 210 | 512 MB DDR3 |
GeForce 9800 GTX+ | |||
Gainward | BLISS 9800GTX+ 512MB DDR3 | NVIDIA GeForce 9800 GTX+ | 512 MB GDDR3 |
MSI | N9800GTX-T2D512-OC | NVIDIA GeForce 9800 GTX+ | 512 MB GDDR3 |
Palit | GF9800GTX+ 512M DDR3 | NVIDIA GeForce 9800 GTX+ | 512 MB GDDR3 |
XFX | 9800 GTX+ 512МБ DDR3 (PV-T98W-YDQ4) | NVIDIA GeForce 9800 GTX+ | 512 MB GDDR3 |
GeForce 9800 GTX | |||
Point of View | GF9800GTX EXO | NVIDIA GeForce 9800 GTX | 512 MB GDDR3 |
GeForce 9800 GT | |||
ASUS | EN9800GT/HTDP/512MD3/A | NVIDIA GeForce 9800 GT | 512 MB GDDR3 |
Inno3D | 9800 GT Green (N98GT-3DDV-C3DX) | NVIDIA GeForce 9800 GT | 512 GDDR3 |
Palit | GeForce 9800GT Green 512MB | NVIDIA GeForce 9800 GT | 512 MB GDDR3 |
GeForce 9800 GX2 | |||
Zotac | GeForce 9800GX2 | NVIDIA GeForce 9800 GX2 | 1024 MB GDDR3 |
GeForce 9600 GT | |||
ASUS | EN9600GT/HTDI/512M/A | NVIDIA GeForce 9600 GT | 512 MB GDDR3 |
EVGA | e-GeForce 9600GT Dual-Slot Edition | NVIDIA GeForce 9600 GT | 512 MB GDDR3 |
Gigabyte | GV-NX96T512H | NVIDIA GeForce 9600 GT | 512 MB GDDR3 |
Gigabyte | GV-NX96T512HP | NVIDIA GeForce 9600 GT | 512 MB GDDR3 |
Leadtek | WinFast PX9600 GT 1024MB | NVIDIA GeForce 9600 GT | 1024 MB GDDR3 |
Palit | GeForce 9600GT Green 512MB | NVIDIA GeForce 9600 GT | 512 MB GDDR3 |
Palit | GeForce 9600GT Sonic 512MB | NVIDIA GeForce 9600 GT | 512 MB GDDR3 |
Sparkle | 9600 GT Green (SX96GT512D3G-VP) | NVIDIA GeForce 9600 GT | 512 MB GDDR3 |
XpertVision | 9600GT 512MB DDR3 | NVIDIA GeForce 9600 GT | 512 MB GDDR3 |
XpertVision | GeForce 9600GT 512MB Sonic | NVIDIA GeForce 9600 GT | 512 MB GDDR3 |
XpertVision | GeForce 9600GT 512MB | NVIDIA GeForce 9600 GT | 512 MB GDDR3 |
Zotac | 9600GT 512MB (ZT-96TES3P-FSB) | NVIDIA GeForce 9600 GT | 512 MB GDDR3 |
Zotac | GeForce 9600 GT AMP! | NVIDIA GeForce 9600 GT | 512 MB DDR3 |
GeForce 9600 GSO | |||
ASUS | EN9600GSO/HTDP/384M | NVIDIA GeForce 9600 GSO | 384 MB GDDR3 |
ASUS | EN9600GSO MG/HTDP/512M/A | NVIDIA GeForce 9600 GSO | 512 MB GDDR2 |
Gigabyte | GV-NX96G384H | NVIDIA GeForce 9600 GSO | 384 MB GDDR3 |
XFX | 9600GSO 580M 384MB DDR3 | NVIDIA GeForce 9600 GSO | 384 MB GDDR3 |
GeForce 9500 GT | |||
Leadtek | WinFast PX9500 GT | NVIDIA GeForce 9500 GT | 512 MB GDDR3 |
Palit | GeForce 9500GT Super 512MB DDR2 | NVIDIA GeForce 9500 GT | 512 MB DDR2 |
Point of View | GF9500GT 512MB DDR2 | NVIDIA GeForce 9500 GT | 512 MB DDR2 |
XFX | GeForce 9500GT 550M | NVIDIA GeForce 9500 GT | 256 MB DDR3 |
XpertVision | GeForce 9500GT 512MB DDR2 Super | NVIDIA GeForce 9500 GT | 512 MB DDR2 |
GeForce 8800 ULTRA | |||
ASUS | EN8800ULTRA/G/HTDP/768M/A | NVIDIA GeForce 8800 ULTRA | 768 MB GDDR3 |
GeForce 8800 GTS Rev2 | |||
ASUS | EN8800GTS | NVIDIA GeForce 8800 GTS Rev2 | 512 MB GDDR3 |
GeForce 8800 GT | |||
ASUS | EN8800GT | NVIDIA GeForce 8800 GT | 512 MB GDDR3 |
MSI | NX8800GT-T2D256E-OC | NVIDIA GeForce 8800 GT | 256 MB GDDR3 |
PNY | GeForce 8800GT 512MB DDR3 | NVIDIA GeForce 8800 GT | 512 MB GDDR3 |
XpertVision | GeForce 8800GT 1GB Super | NVIDIA GeForce 8800 GT | 1024 MB GDDR3 |
GeForce 8800 GS 768MB | |||
XpertVision | GeForce 8800GS 768MB | NVIDIA GeForce 8800 GS 768MB | 768 MB GDDR3 |
GeForce 8800 GS 384MB | |||
XpertVision | GeForce 8800GS 384MB | NVIDIA GeForce 8800 GS 384MB | 384 MB GDDR3 |
GeForce 8600 GTS | |||
Zotac | GeForce 8600GTS 512MB | NVIDIA GeForce 8600 GTS | 512 MB GDDR3 |
GeForce 8600 GT | |||
ASUS | EN8600GT | NVIDIA GeForce 8600 GT | 256 MB GDDR3 |
Palit | GeForce 8600GT Super+ 1GB | NVIDIA GeForce 8600 GT | 1024 MB DDR2 |
XpertVision | GeForce 8600GT 256MB DDR3 | NVIDIA GeForce 8600 GT | 256 MB DDR3 |
XpertVision | GeForce 8600GT Sonic+ 256MB | NVIDIA GeForce 8600 GT | 256 MB DDR3 |
GeForce 8500 GT DDR3 | |||
Forsa | GeForce 8500GT DDR3 | NVIDIA GeForce 8500 GT DDR3 | 256 MB GDDR3 |
GeForce 8500 GT DDR2 | |||
Forsa | GeForce 8500GT DDR2 | NVIDIA GeForce 8500 GT DDR2 | 256 MB GDDR2 |
Palit | GeForce 8500GT Super+ 1GB | NVIDIA GeForce 8500 GT DDR2 | 1024 MB DDR2 |
GeForce 7900 GS | |||
Forsa | GeForce 7900GS | NVIDIA GeForce 7900 GS | 256 MB GDDR3 |
GeForce 7600 GT | |||
Point of View | GeForce 7600GT | NVIDIA GeForce 7600 GT | 256 MB |
GeForce 7600 GS 256MB | |||
EVGA | e-GeForce 7600GS | NVIDIA GeForce 7600 GS 256MB | 256 MB GDDR2 |
GeForce 7300 GT | |||
ASUS | EN7300GT/SILENT/HTD/256M/A | NVIDIA GeForce 7300 GT | 256 MB GDDR2 |
Обзор видеокарты ASUS TUF Gaming GeForce RTX 3070 Ti. Насколько лучше, чем обычная RTX 3070?
22.10.21
Видеокарты RTX 3080 Ti и RTX 3070 Ti вышли в начале лета и являются более продвинутыми версиями RTX 3080 и RTX 3070.
Героем нашего обзора стала видеокарта ASUS TUF Gaming GeForce RTX 3070 Ti, основанная, как можно догадаться, на базе RTX 3070 Ti.
Характеристики видеокарт серии RTX 3000
Из приведенной таблицы хорошо видно, что RTX 3070 Ti отличается от своей сестры RTX 3070 незначительно.
Самым заметным изменением стал переход на видеопамять GDDR6X вместо GDDR6. При этом объем видеопамяти и шина остались без изменений.
Также отметим небольшое увеличение числа вычислительных конвейеров, блоков растеризации и RT-ядер.
Обратите внимание, что довольно существенно, с 220 до 290 Вт, выросло энергопотребление TDP.
Знакомимся с ASUS TUF Gaming GeForce RTX 3070 Ti (TUF-RTX3070TI-8G-GAMING)
Видеокарты серии ASUS TUF поколения RTX 3000 довольно частые гости нашей редакции.
За последний год мы рассматривали такие модели на базе RTX 3080, RTX 3060 Ti, RTX 3080 Ti.
Теперь к нам попала ASUS TUF Gaming GeForce RTX 3070 Ti (TUF-RTX3070TI-8G-GAMING).
Каких-то приятных бонусов, вроде фирменных наклеек, брендированных стяжек в комплекте не поставляется
Она обладает аналогичными особенностями, что и другие современные продукты серии ASUS TUF.
Сразу отметим очень высокий уровень внешнего исполнения. Да и по дизайну модель очень хороша. На наш взгляд она выглядит даже лучше, чем видеокарты ASUS ROG, которые в иерархии стоят выше.
«Кожух» корпуса на лицевой панели и задняя пластина — металлические. Местами на поверхности заметна текстура отпечатка покрышки. Этим производитель подчеркивает выносливость и надежность продуктов ASUS TUF.
ASUS TUF Gaming GeForce RTX 3070 Ti довольно длинная (30 см), но со современным меркам это далеко не рекорд.
Корпус шириной в 2,7 слота производитель преподносит как преимущество, мол это обусловлено использованием крупного радиатора системы охлаждения.
Традиционно для видеокарт ASUS последнего поколения вентиляторы имеют ободок по внешнему радиусу.
Центральный вентилятор крутится в другу сторону по сравнению со своими соседями. Это сделано специально и, как заявляется, обеспечивает улучшенный отвод тепла.
Приятно, что ASUS добавила дополнительный HDMI-выход на панели разъемов. Референсная RTX 3070 Ti имеет всего один HDMI.
Рядом с парой 8-контактных разъемов питания размещен переключатель режимов Performance и Quiet (реализовано переключением между отдельными микросхемами BIOS). Это традиционная функция современных видеокарт ASUS TUF.
Имеются два элемента с управляемой RGB-подсветкой. С некоторого момента ASUS предлагает довольно развитое ПО, где вы можете не просто синхронизировать компоненты в системе и выбирать различные эффекты, но также создавать свою программу свечения самостоятельно.
Система охлаждения
ASUS TUF Gaming GeForce RTX 3070 Ti имеет заметно более высокое энергопотребление по сравнению с RTX 3070.
Поэтому неудивительно, что производитель не стал использовать систему охлаждения, скажем, от ASUS TUF Gaming GeForce RTX 3070, а позаимствовал ее у более старших моделей ASUS TUF на базе RTX 3080 и RTX 3080 Ti. Это дает основания полагать, что видеокарта будет иметь хороший запас по части охлаждения.
Сама СО очень развитая. Крупный радиатор пронизан большим количеством тепловых трубок. Кристалла графического процессора касается специальная теплораспределительная плита. Такое решение чаще встречается именно на видеокартах самого высокого класса. В более бюджетных вариантах обычно задействуется решение с прямым контактом тепловых трубок.
Система охлаждения ASUS TUF Gaming GeForce RTX 3070 Ti (изображение с сайта ASUS)
Еще одна любопытная деталь. Для отвода тепла от микросхем памяти и некоторых других компонентов предусмотрена отдельная металлическая рамка.
Дополнительная металлическая рамка (изображение с сайта ASUS)
С выходом серии RTX 3000 компания NVIDIA в своих референсных видеокартах задала тренд на дизайн СО, где часть радиатора продувается «насквозь» через окно на плате видеокарты. Такой же вариант реализован и тут.
При небольших нагрузках, когда температура опускается ниже определенного уровня, вентиляторы полностью останавливаются. Сегодня это обычная функция для большинства графических плат.
Задняя пластина также отводит часть тепла. В некоторых точках она соприкасается с платой через термопрокладки.
Проверяем в работе: частоты, энергопотребление, температуры, шум
Частоты ASUS TUF Gaming GeForce RTX 3070 Ti (TUF-RTX3070TI-8G-GAMING) полностью соответствуют референсным. Существует точно такая же модель с приставкой CO (TUF-RTX3070TI-O8G-GAMING), с небольшим заводским разгоном.
Режимы Performance и Quiet по частотам не отличаются.
Параметры видеокарты по данным GPU-Z (слева режим Performance, а справа — Quiet
Предельная частота GPU во многом зависит от приложений и игр, но она практически всегда выше, чем заявленная Boost-частота. Это обычное явление в видеокартах NVIDIA.
Максимальное значение частоты GPU, которое замечали, находится примерно на уровне 1950 МГц.
В настройках есть возможность увеличения лимита энергопотребления на 20%.
В тестовом бенчмарке 3DMark Time Spy, который хорошо нагружает видеокарту, энергопотребление видеокарты находилось на уровне 280–290 Вт, что вполне соответствует заявленному для RTX 3070 Ti.
Это очень немалая нагрузка в плане тепловыделения, но система охлаждения с ней справилась довольно легко.
Видеокарта тестировалась в весьма благоприятных условиях при комнатной температуре около 19 °C.
Под максимальной нагрузкой в играх температура GPU стабилизировалась примерно на отметке 60 °C при оборотах вентиляторов около 1700 об./мин.
С такой скоростью вращения видеокарту слышно, но в целом она работает тихо. При желании, вы вручную можете изменить профиль работы вентиляторов пожертвовав несколькими градусами роста в пользу более низких рабочих оборотов. Запас есть.
Замеры параметров видеокарты в приложении MSI Afterburner (режим Performance)
Замеры параметров видеокарты в приложении MSI Afterburner (режим Quiet)
К слову, разницу между режимами Performance и Quiet уловить не удалось. Уровень максимальной температуры и обороты вращения оказались примерно одинаковыми. Разве что в режиме Performance вначале вентиляторы раскручиваются более агрессивно.
Но в более сложных условиях, например в корпусе с плохой продуваемостью, более высокой комнатной температурой, чем в нашем тесте, разница может проявится. Обычно Performance обеспечивает более низкие температуры за счет работы на более высоких оборотах по сравнению с режимом Quiet.
В видеокартах с памятью GDDR6X надо также обращать внимание на температуру видеопамяти. Дело в том, что GDDR6X греется сильнее GDDR6 и без должного внимания к ней бывает случаи, что микросхемы GDDR6X разогреваются даже до 100 °C и выше в некоторых моделях.
Температуру чипов видеопамяти умеет показывать приложение GPUZ (не для всех видеокарт).
Но в случае с ASUS TUF Gaming GeForce RTX 3070 Ti никаких поводов для волнений нет.
Обратите внимание, что и температура Hot Spot графического процессора и температура памяти находится на более чем приемлемом уровне под нагрузкой.
Система охлаждения справляется со своими задачами очень хорошо.
NVIDIA GeForce RTX 3070 Ti в майнинге Ethereum (ETH)
Все выпускаемые видеокарты RTX 3070 Ti имеют ограничитель производительности при майнинге и относятся к так называемым LHR (Low Hashrate)-видеокартам.
Версий RTX 3070 Ti без ограничителя майнинга не бывает.
В нашем тесте мы также хотели посмотреть, чего можно добиться с ASUS TUF Gaming GeForce RTX 3070 Ti.
Хотя ограничитель затрагивает несколько алгоритмов, главной его целью является Ethash. Именно алгоритм Ethash используется при майнинге Ethereum (ETH).
Ethereum (ETH) уже на протяжении нескольких лет является самой стабильной в плане доходности и самой популярной криптовалютой, которую майнят на видеокартах.
Так как тема майнинга не является профильной для нас, проводили эксперименты только с Ethereum (ETH).
После выставления оптимальных параметров (снижение частоты GPU на несколько сотен, выставление ограничителя энергопотребления, увеличения частоты видеопамяти) запускаем Phoenix Miner.
В самом начале приложение показывает производительность на уровне 80 мегахеш (Mh/s), но сразу начинает снижаться и фиксируется примерно на значении 43,8 Mh/s.
Так работает ограничитель майнинга. В теории 3070 Ti вполне способна выдавать более 80 мегахеш, но получаем всего около 50% от этого значения.
Но в конце августа энтузиасты нашли метод частичной разблокировки ограничителя на LHR-видеокартах.
Производительность в майнинге Ethereum удалось поднять с 50 до примерно 68–69%.
Такую частичную разблокировку уже имеют несколько приложений для майнинга. Мы использовали NBminer 39.5.
В MSI Afterburner зафиксировали частоту GPU на уровне 1530 МГц, повысили частоту памяти на 1300 МГц и с такими настройками в NBminer 39.5 удалось получить стабильную работу с хешрейтом около 54–55 Mh/s.
Что касается энергопотребления, то обнаружилась интересная картина.
Энергопотребление при майнинге с частичной разблокировкой ограничителя не фиксировалось на каком-то одном уровне, а постоянно менялось в пределах 112–168 Вт. График имеет пилообразный вид.
Пилообразный вид гистограммы энергопотребления при майнинге с частичной разблокировкой ограничения
Такое необычное поведение связано с особенностями обхода ограничителя майнинга.
Еще некоторые наблюдения…
Добыча Ethereum (ETH) очень сильно нагружает видеопамять.
Да, мы заметили, что по показаниям встроенного датчика микросхемы видеопамяти нагревались сильнее, чем в играх, но системы охлаждения ASUS TUF Gaming GeForce RTX 3070 Ti даже в таком режиме оказалось достаточно.
Можно довольно легко удерживать температуру видеопамяти ниже отметки 90 °C, используя довольно комфортные, в плане уровня шума, обороты вентилятора.
Хешрейт 54–55 Mh/s для Ethereum на момент подготовки материала обеспечивал доходность на уровне $3,8 в сутки. Это довольно высокое значение, делающее видеокарты на базе RTX 3070 Ti очень привлекательными для майнинга, даже с учетом их ограничителя.
Производительность в играх
Конфигурация тестовой системы:
- Процессор: Intel Core i5-9600KF с разгоном до 4,8 ГГц по всем ядрам
- Процессорный кулер: Thermalright MUX-120 + вентилятор Arctic P12 PWM
- Материнская плата: ASUS TUF Z390-PRO GAMING
- Оперативная память: 2×8 ГБ DDR4 3200 МГц (Kingston HyperX FURY DDR4 RGB HX432C16FB3AK2/16)
- Накопители: ADATA S511 120 ГБ (система) + Goodram SSD IRDM M.2 1 ТБ
- Блок питания: Enermax Revolution D.F. 650W
- Используемый драйвер с видеокартой ASUS TUF Gaming GeForce RTX 3080: 456.55
- Используемый драйвер с видеокартой ASUS ROG Strix GeForce RTX 3070: NVIDIA GeForce 457.30
- Используемый драйвер с видеокартой ASUS TUF Gaming GeForce RTX 3080 Ti OC: 471.11
- Используемый драйвер с видеокартой ASUS TUF Gaming GeForce RTX 3070 Ti: 471.11
Как показали тесты, по производительности ASUS TUF Gaming GeForce RTX 3070 Ti заняла место между RTX 3070 и RTX 3080, что логично.
Причем, результаты RTX 3070 Ti находятся ближе к RTX 3070.
Новый тип памяти и чуть больше вычислительных конвейеров обеспечили рост скорости по сравнению с RTX 3070, но преимущество мы бы назвали умеренным.
Зачастую RTX 3070 Ti превосходит RTX 3070 примерно на 10%. Иногда разница составляла 5–7%, а иногда доходила до 15%.
Чем выше используемое разрешение, тем больше будет отрыв RTX 3070 Ti от RTX 3070.
Выводы
Разница между RTX 3070 Ti и RTX 3070 заметна, но не такая уж и большая. Зачем NVIDIA потребовалось дополнительно сегментировать свой модельный ряд и добавлять новые модели, которые не сильно то и отличаются от своих собратьев, — можно только догадываться.
Как вариант, это сделано для более выгодной картины при конкуренции с AMD или же с целью сделать более высокими рекомендованные цены.
Возможно, «обычные» модели RTX 3070 и RTX 3080 (без Ti) постепенно будут выводить из ассортимента.
Главным разочарованием в RTX 3070 Ti стало то, что тут по-прежнему (как и в RTX 3070) используется всего 8 ГБ видеопамяти.
Да, на данный момент этого вполне хватает, но хотелось бы иметь некоторый задел на будущее. Кроме того, сегодня большый объем видеопамяти может пригодится в каких-то задачах не связанных с играми.
Напомним, что 8 ГБ видеопамяти имела еще GTX 1070, вышедшая в далеком 2016 году.
А в 2021 году видеть 8 ГБ у модели довольно высокой категории как минимум удивительно.
Даже с учетом встроенного ограничителя, видеокарты RTX 3070 Ti на данный момент имеют очень неплохую доходность при майнинге. А это значит, что цены сильно завышены и определяются, по большей мере, именно эффективностью при добыче криптовалют, а не производительностью в играх, при видеомонтаже и т. д.
Возвращаясь к тестируемой ASUS TUF Gaming GeForce RTX 3070 Ti, можем лишь похвалить данную модель от ASUS.
При довольно высоком энергопотреблении и тепловыделении, свойственным для RTX 3070 Ti, система охлаждения имеет запас легко справляется с отводом тепла, обеспечивая приемлемые температуры в сочетании с умеренным шумом.
Видеокарта имеет качественное внешнее исполнение, да и выглядит, на наш взгляд, очень классно. Без излишней аляпости. Но это уже дело вкуса.
Среди дополнительных бонусов отметим двойной BIOS и элементы с подсветкой. Подсветка далеко не такая крутая, как в моделях ASUS ROG, но позволит поэкспериментировать с синхронизацией и светоэффектами.
ASUS TUF Gaming GeForce RTX 3070 Ti (TUF-RTX3070TI-8G-GAMING) — это очень достойный вариант видеокарты на базе RTX 3070 Ti.
Характеристики ASUS TUF Gaming GeForce RTX 3070 Ti (TUF-RTX3070TI-8G-GAMING) | |
Модель | NVIDIA GeForce RTX 3070 Ti |
Интерфейс | PCI Express 4.0 ×16 |
Графический процессор | GA104 (Ampere) |
Техпроцесс | 8 нм |
Видеопамять | 8 ГБ, GDDR6X |
Шина памяти | 256 бит |
Частота графического процессора | 1575 (1770 boost) МГц |
Частота памяти результирующая | 19 000 МГц |
Выходы | 2×HDMI (2.1), 3× DisplayPort (1.4a) |
Разъем дополнительного питания | 2×8 Pin |
Энергопотребление | 290 Вт |
Поставщик | Представ-во ASUS |
Рекомендованная цена в США | $599 |
Условная цена в Украине (на момент публикации) | $1600 |
Оценка:
+ хорошая производительность
+ качественные материалы «корпуса»
+ эффективная система охлаждения
+ отключение вентиляторов при низкой нагрузке
+ двойной BIOS
-большие габариты
-высокое энергопотребление
-8 ГБ видеопамяти — это довольно скромно, как для видеокарты такого класса
-цена
Смотрите также:
Обзор видеокарты ASUS ROG Strix Radeon RX 6700 XT OC. Огромная видеокарта среднего класса
Обзор видеокарты ASUS ROG Strix GeForce RTX 3060. Сильно ли отстает от RTX 3060 Ti?
Обзор видеокарты ASUS TUF Gaming GeForce RTX 3060 Ti OC. Сложно придраться
Обзор видеокарты ASUS TUF GAMING Radeon RX 6800. У AMD получилось
Обзор видеокарты MSI GeForce RTX 3080 Suprim X 10G. Бентли в мире видеокарт
Обзор видеокарты MSI GeForce RTX 3080 GAMING X TRIO 10G. Сравниваем с RTX 2080 Super
Обзор видеокарты ASUS ROG Strix GeForce RTX 3070. С большим запасом
Обзор видеокарты ASUS TUF Gaming GeForce RTX 3080 и RGB-сборка ПК в стиле ASUS
evoИнженер тестовой лаборатории
Читайте также
Авторы Guardians of the Galaxy уточнили системные требования и в два раза снизили требования к HDD | Games
Для установки игры Marvel’s Guardians of the Galaxy потребуется не менее 80 ГБ свободного места на ПК и 50 ГБ — на PlayStation 4 и 5. Об этом представители студии Eidos Montreal сообщили в твиттере.
Ранее в системных требованиях были указаны 150 ГБ свободного места на накопителе. Помимо этого уточнения, разработчики также сообщили, какие комплектующие понадобятся для использования в игре технологии трассировки лучей.
Минимальные системные требования Marvel’s Guardians of the Galaxy с трассировкой лучей:
1080p, низкая детализация, высокое качество трассировки лучей
- ОС: Windows 10 64 bit Build 1803;
- ЦП: AMD Ryzen 5 2600 / Intel Core i5-9400;
- ОЗУ: 16 ГБ;
- видеокарта: NVIDIA GeForce RTX 2060;
- DirectX: версии 12;
- место на диске: 80 ГБ.
Рекомендованные системные требования Marvel’s Guardians of the Galaxy:
1440p, высокая детализация, очень высокое качество трассировки лучей
- ОС: Windows 10 64 bit Build 1803;
- ЦП: AMD Ryzen 5 1600 / Intel Core i5-10600;
- ОЗУ: 16 ГБ;
- видеокарта: NVIDIA GeForce RTX 3070;
- DirectX: версии 12;
- место на диске: 80 ГБ.
Максимальные системные требования Marvel’s Guardians of the Galaxy:
2160p, максимальная детализация, максимальное качество трассировки лучей
- ОС: Windows 10 64 bit Build 1803;
- ЦП: AMD Ryzen 7 3700X / Intel Core i7-10700;
- ОЗУ: 16 ГБ;
- видеокарта: NVIDIA GeForce RTX 3080;
- DirectX: версии 12;
- место на диске: 80 ГБ.
Релиз Marvel’s Guardians of the Galaxy запланирован на 26 октября 2021 года на ПК, PS4, PS5, Xbox One и Xbox Series. Ранее в сети был опубликован список лицензированных песен, которые появятся в игре.
Не забудь поделиться с друзьями:Последние статьи и обзоры на AnandTech
Сегодня Intel раскрывает финансовую информацию за третий квартал 2021 года, и в отчете о прибылях и убытках есть один небольшой лакомый кусочек, касающийся грядущих новых предложений дискретных графических процессоров. Заработок, как правило, является шансом поднять флаг инноваций в отношении того, что нас ждет впереди, и на этот раз Intel подтверждает, что ее дискретная графика первого поколения с архитектурой Xe-HPG появится на полках в первом квартале 2022 года.Intel постепенно раскрывает возможности своих предложений с дискретной игровой графикой. Ранее в этом году компания анонсировала брендинг своей графики следующего поколения под названием Arc, а вместе с ней и первых четырех поколений продуктов: Alchemist, Battlemage, Celestial и Druid. Легко видеть, что здесь мы идем ABCD. Технически при этом раскрытии в августе 2021 года Intel указала …
Хотя формальная спецификация еще не ратифицирована JEDEC, индустрия памяти в целом уже готовится к предстоящему запуску следующего поколения…
13 от Ryan Smith 3 дн назадСегодня утром AMD снова расширяет семейство видеокарт Radeon RX 6000, на этот раз добавляя второе, более дешевое предложение для массового рынка: Radeon RX …
43 автор: Райан Смит, 13.10.2021Компания Noctua славится не только своей высококлассной командой дизайнеров и инженеров, поставляющей высококачественные продукты для воздушного охлаждения, но и коричнево-бежевой цветовой схемой.Некоторым пользователям может не понравиться …
50 Автор: Гэвин Бонсор, 10/4/2021Добро пожаловать в Hot Chips! Это ежегодная конференция, посвященная новейшим, лучшим и грядущим крупным кремниевым продуктам, которая волнует всех нас. Следите за обновлениями в понедельник и вторник …
15 Автор: доктор Ян Катресс, 24.08.2021Добро пожаловать в Hot Chips! Это ежегодная конференция, посвященная новейшим, лучшим и грядущим крупным кремниевым продуктам, которая волнует всех нас.Следите за обновлениями в понедельник и вторник …
2 Автор: доктор Ян Катресс, 23.08.2021Наряду с беглым взглядом на их будущую архитектуру Xe-HPG, еще одно важное открытие, сделанное сегодня группой Intel по производству потребительской графики, относится к программной части бизнеса. Наряду с …
45 Написано Райаном Смитом, 19.08.2021Для презентаций Intel, посвященных Дню архитектуры 2021 года, инь традиционного янь производителя процессоров — это графические процессоры.Intel провела последние несколько лет, готовясь выйти на рынок для …
72 Написано Райаном Смитом, 19.08.2021После нескольких месяцев различных тизеров Intel, наконец, начинает собирать группу для своих первых высокопроизводительных дискретных графических процессоров и видеокарт. Сегодня утром компания …
56 автор: Райан Смит, 16.08.2021В рамках серии объявлений, связанных с SIGGRAPH, NVIDIA сегодня утром объявляет о новом дополнении к своей линейке профессиональных видеокарт RTX — RTX A2000.После NVIDIA …
32 Автор: Райан Смит, 10.08.2021Начиная со следующего месяца, линейка продуктов AMD Radeon RX 6000 для настольных ПК станет немного глубже — и немного дешевле — с добавлением следующего …
66 написано Райаном Смитом, 29.07.2021Продолжая рассказывать о доходах за второй квартал в этом месяце, AMD готовится отчитаться о своих доходах.И так было на протяжении большей части прошлого года …
105 Автор: Райан Смит, 27.07.2021Конструкция большинства передовых процессоров и ASIC основана на этапах оптимизации, при этом тремя ключевыми точками оптимизации являются производительность, мощность и площадь (а иногда и стоимость). Однажды …
20 автор Dr.Ян Катресс от 22.07.2021Пару недель назад UL (ранее Futuremark) выпустила последний тест в своем текущем наборе игровых тестов 3DMark — CPU Profile. Предпосылка этого нового специфичного для ЦП теста — …
29 Автор: доктор Ян Катресс, 15.07.2021Ранее в этом году новый генеральный директор Intel Пэт Гелсинджер представил свой новый IDM 2.0 для Intel. Это видение представляло собой трехкомпонентную стратегию, основанную на улучшении собственного процесса …
32 Автор: доктор Ян Катресс, 7/12/2021В рамках сегодняшней серии объявлений на торговой выставке ISC 2021 NVIDIA сегодня утром объявляет о том, что они переносят 80-гигабайтную версию своего ускорителя A100 на PCIe…
16 от Райан Смит, 28.06.2021Наряду с сегодняшним выпуском своего нового драйвера Radeon Software Adrenalin 21.6.1 — первого с поддержкой технологии FidelityFX Super Resolution — AMD также использует эту возможность …
59 от Райан Смит, 22.06.2021На прошлой неделе TSMC провела свой технологический симпозиум 2021 года, на котором были рассмотрены свои последние разработки в технологии технологических узлов, призванные повысить производительность, затраты и возможности для своих клиентов…
28 Автор: доктор Ян Катресс, 8.06.2021На основном мероприятии AMD Computex 2021 в этом году генеральный директор Лиза Су среди серии различных анонсов новых продуктов и технологических раскрытий дразнила некоторые новые подробности о …
49 Автор Андрей Фрумусану, 01.06.2021Второй основной лейтмотив дня Computex исходит от NVIDIA, которая вышла на виртуальную выставочную площадку, чтобы обсудить новые продукты как для геймеров, так и для предприятий…
50 Автор: Райан Смит, 1/6/2021 ОбзорNvidia GeForce RTX 2080: игры в разрешении 4K уже доступны по цене
Следующее поколение видеокарт Nvidiaнаконец-то здесь, и оно обещает большие перспективы. Предполагается, что RTX 2080 будет на 75 процентов быстрее, чем GTX 1080 в некоторых играх, и он разработан, чтобы наконец достичь конечной цели — игр 4K со скоростью 60 кадров в секунду.Помимо обычных архитектурных улучшений, на этот раз Nvidia также использует некоторые новые уловки, чтобы претворить в жизнь свои смелые заявления.
Новые RTX 2070 (от 499 долларов), RTX 2080 (от 699 долларов) и RTX 2080 Ti (от 999 долларов) все основаны на архитектуре Тьюринга компании и предназначены для обеспечения большей мощности и более красивых кинематографических эффектов в играх. За эту дополнительную мощность приходится платить. Надбавка Nvidia к своим картам Founders Edition, на которые распространяется трехлетняя гарантия и которые по умолчанию разогнаны, поднимает RTX 2080 Ti до невероятных 1199 долларов.В прошлом году смартфоны сделали скачок на 1000 долларов благодаря новым технологиям, и теперь настала очередь вашей видеокарты, чтобы поразить ваш кошелек.
Итак, что вы получаете за свои деньги? Новые карты Nvidia включают поддержку как трассировки лучей в реальном времени, так и сглаживания на основе искусственного интеллекта. Трассировка лучей — большая новая возможность этого поколения, она используется для создания отражений света в реальном времени и кинематографических эффектов в играх. Но еще до того, как вы установили игру на свой компьютер, технология Nvidia Deep Learning Super-Sampling (DLSS) использует фермы суперкомпьютеров компании для сканирования игр до их выпуска и разработки наиболее эффективного способа рендеринга графики.По словам Nvidia, это все, по крайней мере, потому, что мы не смогли полностью протестировать трассировку лучей или DLSS с устройствами RTX 2080 и RTX 2080 Ti, которые мы рассматривали на прошлой неделе. Пока Microsoft не выпустит обновление Windows 10 October 2018 Update, ни одна из причудливых новых технологий Nvidia не будет доступна для обычных игр.
Nvidia заверяет нас, что скоро 25 игр будут поддерживать DLSS, а по крайней мере 11 будут иметь трассировку лучей в ближайшие месяцы. Но наряду с новыми дискретными функциями эти новые видеокарты обладают еще большей мощностью, поэтому мы протестировали RTX 2080 с мониторами G-Sync 1440p и 4K, чтобы увидеть, могут ли эти новые карты соответствовать обещаниям Nvidia в отношении производительности.
Хорошие вещи
- Тихо и прохладно
- Отлично подходит для игр 1440P / 1080P
- Увеличение мощности по сравнению с GTX 1080
Плохие вещи
- Не может обрабатывать 4K при 60 кадрах в секунду в требовательных играх
- Улучшения трассировки лучей / DLSS пока неизвестны
- Требование к источнику питания 650 Вт и дополнительное энергопотребление
Оценка Verge 7.5 из 10
Хорошие вещи
- Возможность игр в формате 4K при 60 кадрах в секунду
- Впечатляющий скачок мощности по сравнению с GTX 1080 и RTX 2080
- Тихо и прохладно
Плохие вещи
- Единственный реальный вариант для компьютерных игр 4K, и высокая цена отражает это
- Улучшения трассировки лучей / DLSS пока неизвестны
- Требование к источнику питания 650 Вт и дополнительное энергопотребление
Оборудование
Прежде чем мы посмотрим на производительность, вам нужно знать несколько вещей о реальном оборудовании.Nvidia изменила дизайн этих RTX-карт во многих отношениях, но, пожалуй, самым важным является то, как они охлаждаются. Nvidia отказалась от комбинации металлического экрана и вентилятора, которая хорошо служила ей в прошлом, в пользу новой конфигурации с двумя вентиляторами для своих карт Founders Edition, которая ближе к тому, что уже используют большинство сторонних производителей карт. Также появилась полноразмерная испарительная камера, благодаря которой карты работают тише и холоднее.
Я одержим тем, чтобы ПК был настолько тихим, насколько это возможно, и я использую корпус с звукопоглощающими панелями, поэтому я не слышу, как вентиляторы уносятся прочь.В течение прошлого года я использовал EVGA GeForce GTX 1080 с двумя вентиляторами, поэтому я не ожидал большой разницы с новым дизайном Nvidia. Но я был искренне впечатлен: нежный гул RTX 2080 настолько тонкий, что, когда я в конце концов переключился на свою обычную GTX 1080, я подумал, что кто-то спрятал фен в футляре.
Вся эта новая мощность и более эффективное охлаждение не бесплатны. Nvidia рекомендует, чтобы ваша система имела блок питания мощностью не менее 650 Вт, если вы хотите правильно использовать RTX 2080 или RTX 2080 Ti.Если вы покупаете карты Founders Edition, они потребляют до 225 и 260 Вт соответственно. Это значительный шаг вперед по сравнению с рекомендованным блоком питания 500 Вт (и потребляемой мощностью 180 Вт) для GTX 1080, и это означает, что вам понадобится 6-контактный и 8-контактный разъем для RTX 2080 или два 8-контактных разъема для RTX 2080. Ti. Я также был встревожен, увидев, что RTX 2080 Ti потребляет 45 Вт энергии в режиме ожидания во время моего тестирования, но Nvidia сообщает мне, что обновление драйвера решит эту проблему в ближайшее время и снизит потребление в режиме ожидания до 10-15 Вт.
Помимо конструкции вентилятора, Nvidia также имеет три выхода DisplayPort 1.4a, которые могут работать с разрешением до 8K по одному кабелю с DSC 1.2. Также есть разъем HDMI 2.0b и разъем VirtualLink USB-C для следующего поколения гарнитур VR.
1440p тестирование
Чтобы увидеть, как эти новые карты работают с типичной игровой настройкой 2018 года, мы протестировали как Nvidia RTX 2080, так и RTX 2080 Ti с 27-дюймовым монитором Asus ROG Swift PG279Q и множеством требовательных игр AAA.Этот монитор имеет разрешение 1440p и частоту обновления до 165 Гц с G-Sync, поэтому он отлично подходит для этих новых карт.
Наше тестирование производительности проводилось с использованием PUBG , Shadow of the Tomb Raider , Destiny 2: Forsaken , Far Cry 5 , демонстрации Nvidia Star Wars DLSS и демонстрации Epic Games Infiltrator DLSS. Shadow of the Tomb Raider — одна из последних игр DirectX 12, которая показала наибольший прирост производительности во время наших тестов.В то время как Tomb Raider мог выдавать в среднем около 39 кадров в секунду при максимальных настройках моего GTX 1080, RTX 2080 смог достичь в среднем 54 кадров в секунду (увеличение на 38 процентов). Этого все еще недостаточно для идеальной игры с разрешением 1440p при максимальных настройках, но более мощная RTX 2080 Ti смогла выдать в среднем 71 кадр в секунду при тех же настройках.
Far Cry 5 менее требователен, чем Tomb Raider , и намного лучше работает на максимальных настройках, в среднем около 81 кадра в секунду на моем GTX 1080 и 96 кадров в секунду на RTX 2080.RTX 2080 Ti доводит это до 113 кадров в секунду, что является приятным моментом для высокой скорости обновления этого монитора. PUBG также работает намного лучше на RTX 2080 Ti, в среднем около 125 кадров в секунду по сравнению с 80 кадрами в секунду, к которым я привык у GTX 1080.
Тесты Nvidia RTX 2080 (1440p)
Контрольный показатель | EVGA GTX 1080 | RTX 2080 Основное издание | RTX 2080 Ti Основное издание |
---|---|---|---|
Контрольный показатель | EVGA GTX 1080 | RTX 2080 Основное издание | RTX 2080 Ti Основное издание |
3DMark Time Spy | 6 933 | 9,363 | 11,384 |
3DMark Fire Strike | 9,381 | 11 652 | 14 347 |
Судьба 2 | В среднем 95 кадров в секунду | 120 кадров в секунду в среднем | 140 кадров в секунду в среднем |
PUBG | 80 кадров в секунду в среднем | В среднем 95 кадров в секунду | 125 кадров в секунду в среднем |
Shadow of the Tomb Raider | Среднее значение 39 кадров в секунду | В среднем 54 кадра в секунду | 71 кадр / с в среднем |
Far Cry 5 | 81 кадр / с в среднем | 96 кадров в секунду в среднем | 113 кадров в секунду в среднем |
Демонстрация Infiltrator DLSS | 65 кадров в секунду без DLSS | 103 кадр / с с DLSS / 91 кадр / с без DLSS | 108 кадров в секунду с DLSS / 101 кадров в секунду без DLSS |
Если вы планируете играть в разрешении 1440p и не собираетесь в ближайшее время переходить на 4K, RTX 2080 предлагает оптимальное соотношение цены и производительности.Хотя 2080 Ti, безусловно, предлагает гораздо больше возможностей для будущих игр, таких как Battlefield V , RTX 2080 более чем способен запускать современные игры в этом разрешении.
Хотя мы еще не можем протестировать трассировку лучей (ожидается, что Shadow of the Tomb Raider станет одной из первых обновленных игр), Epic Games создала демоверсию Infiltrator , которая тестирует рендеринг Unreal Engine 4. движок с новыми возможностями DLSS от Nvidia. Хотя это всего лишь демонстрация, результаты выглядели многообещающими.RTX 2080 в среднем показывал 103 кадра в секунду с включенным DLSS по сравнению с рендерингом без DLSS со средней скоростью 65 кадров в секунду на GTX 1080. Это более чем 50-процентное улучшение производительности и близко к заявленным Nvidia производительности для RTX 2080. Если аналогичные улучшения могут быть применены к существующих и будущих игр, то RTX 2080 будет еще более комфортным вариантом для 1440p.
4K, будущее
Gaming с разрешением 1440p может быть стандартом на сегодняшний день, но скоро все будут смотреть на игры с разрешением 4K.Чтобы увидеть, на что способны эти новые карты в играх следующего поколения, мы также протестировали эти же игры, используя монитор Acer Predator X27, дисплей стоимостью 2000 долларов, который имеет 4K, HDR, G-Sync и частоту обновления 144 Гц. Ваши глаза не обманывают вас; Фактически, монитор стоит дороже, чем графический процессор, и столько же, сколько полная игровая установка для ПК.
Сразу отвечу на очевидный вопрос: ни одна видеокарта RTX не может воспроизводить графически интенсивные игры 4K со скоростью 144 кадра в секунду. Ни одна из протестированных нами игр не смогла достичь среднего или пикового значения fps, близкого к собственной частоте обновления монитора Acer X27; технологии просто еще нет.
RTX 2080 с трудом достиг 60 кадров в секунду при разрешении 4K при игре в Destiny 2 (в среднем 50 кадров в секунду), Far Cry 5 (в среднем 56 кадров в секунду), Shadow of the Tomb Raider (в среднем 28 fps), и даже старый добрый PUBG (в среднем 54 кадра в секунду). Если вы хотите играть в игры в формате 4K, что также требует значительных инвестиций в такой мощный монитор, как этот, вам также придется учитывать покупку RTX 2080 Ti, , а не , RTX 2080, потому что он только что выиграл ‘ t сократить это.
Тесты Nvidia RTX 2080 (4K)
Контрольный показатель | RTX 2080 Основное издание | RTX 2080 Ti Основное издание |
---|---|---|
Контрольный показатель | RTX 2080 Основное издание | RTX 2080 Ti Основное издание |
3DMark Time Spy | 4 687 | 5 536 |
3DMark Fire Strike | 6,365 | 8 009 |
Судьба 2 | 50 кадров в секунду в среднем | В среднем 84 кадра в секунду |
PUBG | 55 кадров в секунду в среднем | В среднем 90 кадров в секунду |
Shadow of the Tomb Raider | 28 кадров в секунду в среднем | Среднее значение 36 кадров в секунду |
Far Cry 5 | 56 кадров в секунду в среднем | 71 кадр / с в среднем |
Демонстрация Infiltrator DLSS | 55 кадров в секунду с DLSS / 47 кадров в секунду без DLSS | 81 кадр / с с DLSS / 56 кадр / с без DLSS |
RTX 2080 Ti намного лучше подходит для компьютерных игр с разрешением 4K.Играя в те же игры, 2080 Ti достиг в среднем 84 кадров в секунду в Destiny 2 в тигельном режиме, 71 кадров в секунду в Far Cry 5 и 90 кадров в секунду в PUBG (или стабильных 60 кадров в секунду, если заблокирован). Между тем, Shadow of the Tomb Raider по-прежнему оказался проблемой, а 2080 Ti показал себя не намного лучше, чем 2080, в среднем всего 35 кадров в секунду при максимальных настройках. Предстоящее обновление трассировки лучей для Tomb Raider может иметь здесь значение, но пока оно не выйдет, мы не можем сказать наверняка.
В демонстрации Infiltrator , в которой был включен DLSS, 2080 Ti достиг максимальной скорости 81 кадр / с, а затем колебался около 75 для большей части демонстрации, тогда как 2080 достиг максимальной скорости 55 кадр / с, снижаясь до 43 кадр / с во время загруженных сцен.
Большие обещания, но нам придется подождать и увидеть
Судя по результатам нашего тестирования, обещание Nvidia поиграть в 4K со скоростью 60 кадров в секунду с RTX 2080 просто не оправдывается. Если вы готовы пойти на компромисс с настройками детализации, то это может сработать, и некоторым более старым играм удастся достичь этого рубежа.Но если вы покупаете 2080, вам следует придерживаться разрешения 1440p или ниже. Это то, что вы уже можете сделать с существующими картами, но 2080 дает вам гораздо больше возможностей для лучших настроек сегодня и более сложных игр в будущем. Наши краткие тесты демонстрации DLSS показали потенциал некоторого прироста производительности, который она могла бы принести, но не стоит тратить деньги на карту и надеяться, что со временем она станет лучше.
Трассировка лучей привлекает внимание заголовков и звучит великолепно, но практические преимущества остаются неизвестными за пределами шикарных демонстраций.Множество игр, вероятно, будут поддерживать его в будущем, но настоящей проверкой будет то, будет ли поддержка консолей следующего поколения. Разработчики игр все чаще создают игры, рассчитанные на масштабирование на различном оборудовании. Внедрение консолей, безусловно, также ускорит распространение ПК. Если и есть компания, которая может продвигать трассировку лучей, так это Nvidia, но это все равно будет проблемой. В архитектуре Тьюринга есть действительно впечатляющие изменения, и Nvidia по-прежнему имеет очень небольшую конкуренцию со стороны AMD в этом диапазоне высокопроизводительных видеокарт.Если вы сейчас рассматриваете высокопроизводительную видеокарту, вы, вероятно, будете смотреть исключительно на что-то от Nvidia, поэтому компания просто конкурирует сама с собой, пока AMD не догонит ее.
Общая производительность RTX 2080 впечатляет, а скачок по сравнению с GTX 1080 заметен и стоит вложенных средств, особенно для требовательных игр. Но единственный жизнеспособный вариант для игр 4K — это RTX 2080 Ti, а версия Founders Edition от Nvidia обойдется вам в 1199 долларов. Это серьезное вложение для игр с разрешением 4K, и это еще до того, как вы дойдете до 2000 долларов, которые в настоящее время необходимо потратить, чтобы получить монитор 4K с частотой обновления 144 Гц.
Итак, да, 4K / 60 fps gaming — это здесь с линейкой видеокарт RTX, но вам придется заплатить высокую премию, чтобы получить ее.
Обзор видеокартыGIGABYTE GeForce RTX 3080 Ti EAGLE 12G
Введение
2 июня 2021 года NVIDIA представила видеокарту GeForce RTX 3080 Ti Founders Edition. Через день партнерские видеокарты-надстройки выпустили свои видеокарты. Пришло время для AIB (партнеров по надстройке платы), и в этом ключе сегодня у нас есть видеокарта GIGABYTE GeForce RTX 3080 Ti EAGLE 12G GV-N308TEAGLE-12GD.
Это наша первая рассматриваемая здесь кастомная видеокарта на базе графического процессора GeForce RTX 3080 Ti. Когда мы говорим, что это розничная карта, мы имеем в виду, что мы заплатили за доставку и взяли взаймы у щедрого пользователя форума. Этот человек купил эту видеокарту, выиграв Newegg shuffle за, получите это, 1195 долларов! Правильно, ПО МАРШРУТНОЙ ЦЕНЕ в размере 1199 долларов США. Мы хотим поблагодарить этого человека за то, что он одолжил нам свою карту, и мы ценим это. В рознице больше не бывает.Мы очень рады видеть, что предлагает этот вариант GIGABYTE.
NVIDIA GeForce RTX 3080 Ti
Сначала немного о самой GeForce RTX 3080 Ti. NVIDIA выпустила его 3 июня rd 2021 года по рекомендованной розничной цене 1199 долларов. Важно помнить, что NVIDIA не является производителем для партнеров по надстройке, а является производителем только Founders Edition, поэтому такие производители, как GIGABYTE, по-прежнему определяют свои собственные MSRP.
GeForce RTX 3080 Ti построен на 8-нм кристалле Samsung GA102-225 на базе архитектуры NVIDIA Ampere.Он состоит из 80 SM, 10240 ядер CUDA, 112 ROP, 320 TMU, 80 ядер RT (2 -го поколения ) и 320 тензорных ядер (3 -го поколения ). Базовая частота составляет 1365 МГц, а частота разгона — 1665 МГц. Он имеет 12 ГБ памяти GDDR6X с частотой 19 ГГц на 384-битной шине памяти, обеспечивающей пропускную способность памяти 912 ГБ / с. TDP составляет 350 Вт.
GIGABYTE GeForce RTX 3080 Ti EAGLE 12G
Сегодняшний обзор видеокарт — самый интересный, вместо того, чтобы рассматривать топовые артикулы или модели, мы фактически рассматриваем самые дешевые артикулы / модели.Когда дело доходит до этого, любой артикул или модель, которую вы можете достать, — это хорошие новости. SKU более низкого уровня обычно более распространены, так как SKU более высокого уровня имеют более высокий спрос. Эти базовые SKU, назовем их, могут того стоить, потому что часто, как в случае с нашей видеокартой, она имеет индивидуальную сборку с индивидуальным охлаждением и функциями GIGABYTE.
GIGABYTE GeForce RTX 3080 Ti EAGLE 12G находится в основании, а прямо над ним — модель «OC» с заводским разгоном, но с таким же кулером.У нашего нет заводского разгона, он работает на эталонной частоте разгона NVIDIA в 1665 МГц. Версия OC EAGLE работает с заводским разгоном 1680 МГц, что не очень большая разница. Над EAGLE находится VISION, затем GAMING, затем MASTER, затем XTREME и, наконец, версии с водяным охлаждением.
Поскольку тактовая частота и характеристики такие же, как у Founders Edition, давайте разберемся, что отличает эту карту от нее. Это сводится к конструкции и дизайну.GIGABYTE доработала аппаратные компоненты печатной платы и предоставила видеокарте собственный радиатор и вентилятор, а также RGB Fusion 2.0.
Эта видеокарта оснащена системой охлаждения GIGABYTE WINDFORCE 3X с альтернативными вращающимися вентиляторами. Всего имеется три вентилятора, два из них 90 мм и один 80 мм. Вентиляторы имеют уникальную конструкцию лопастей. Воздушный поток разделяется треугольным краем вентилятора и плавно направляется через трехмерные полосы на поверхности вентилятора.
Вентиляторы также вращаются в направлении, противоположном вентилятору, рядом друг с другом, чтобы уменьшить турбулентность соседних вентиляторов и увеличить давление воздуха.Смазка Graphene nano используется для продления срока службы вентиляторов в 2,1 раза, что близко к сроку службы двойных шарикоподшипников, но с более тихим звуковым профилем. Вентиляторы также поддерживают технологию GIGABYTE 3D Active Fan, которая отключает вентиляторы, когда графический процессор находится в режиме низкой нагрузки или в игре с низким энергопотреблением.
Радиатор состоит из семи композитных медных тепловых трубок, а большая медная пластина непосредственно касается графического процессора. Эта медная пластина касается не только графического процессора, но и видеопамяти для их охлаждения. GIGABYTE Screen Cooling используется для обеспечения прохождения воздушного потока через охлаждение тепловых трубок и лучшего отвода тепла.У видеокарты цельнометаллическая задняя панель. Он также действует как дополнительная структура, делающая видеокарту менее гибкой и более прочной. Задняя панель приподнята и вентилируется, поэтому тепло не задерживается.
GIGABYTE использует более совершенные конструкции фаз питания, чтобы полевые МОП-транзисторы могли работать при более низких температурах. Имеется встроенная защита от перегрева и балансировка нагрузки для каждого полевого МОП-транзистора. Дроссели и конденсаторы, сертифицированные GIGABYTE Ultra Durable, также используются для увеличения срока службы. В конструкции печатной платы используется полностью автоматизированный производственный процесс для обеспечения высокого качества и устранения острых выступов паяных разъемов.
GIGABYTE также встроила в видеокарту свой RGB Fusion 2.0. Он имеет 16,7 млн настраиваемых параметров цвета и множество световых эффектов. Вы также можете синхронизировать освещение с другими устройствами AORUS. Программное обеспечение AORUS Engine поддерживается для управления возможностями разгона, включая напряжение и конфигурацию RGB.
Это подводит нас к размеру видеокарты, она намного больше, чем у Founders Edition. Его длина составляет 12,5 дюйма, ширина — 5 дюймов, а его размер составляет 2 дюйма.7 слотов в высоту или 2,2 дюйма. Для питания требуется два 8-контактных разъема питания, и GIGABYTE рекомендует блок питания на 750 Вт. Для подключения он имеет три порта DisplayPort 1.4a и 2 порта HDMI 2.1. Это довольно много возможностей для подключения.
Лучшая видеокарта 12 ГБ в 2021 году: окончательный обзор
Графика — самая важная часть вашего компьютера, видеокарты фактически контролируют все нули и единицы и превращают их в удивительные пиксели на экране компьютера. Хотя раньше было почти невозможно получить такие чудовищные пиксели из-за таких кремниевых продуктов.Обзор поможет вам выбрать лучшую видеокарту 12 ГБ, доступную на рынке, поскольку одна и та же видеокарта подойдет не всем.
Они также известны как видеокарты и фактически важная покупка искры для геймеров. Поэтому поиск лучшей видеокарты 12 ГБ при настройке компьютера является обязательным. Этим картам в 2021 году не хватит по многим причинам, таким как covid-19, крипто-майнинг и т. Д., Но мы отобрали для вас лучшие видеокарты 12 ГБ в 2021 году, сбалансировав при этом удивительные функции, цену, качество и эффективность карт.
Список лучших видеокарт 12 ГБОзнакомьтесь с подробными обзорами лучшей видеокарты на 12 ГБ ниже.
Это графическая карта с самой высокой производительностью. Эта карта-чудовище была впервые выпущена 26 мая -го , 2015. В ней используется совершенно новый GM 200 maxwell. Для этого требуется только 8-контактный и 6-контактный разъемы питания. Он доступен для продажи в виде готового устройства, просто подключите его и платите за все свои любимые игры с потрясающими пикселями 4K и выше.Он также поставляется с комплектом обновления. Эта графическая карта весит около 3 фунтов. Эта карта имеет 12 гигабайт памяти и 250 Вт TDP, что намного больше, чем у GTX 980. Базовая тактовая частота немного ниже — 1 гигагерц. Он весит около 3 фунтов.
Характеристики- Он имеет лучшую функцию водяного охлаждения, которая в основном регулируется с помощью 120-мм радиатора.
- Поставляется с вентилятором, позволяющим снизить рабочую температуру графического процессора.Более того, вентилятор охлаждает не только графический процессор, но и оборудование для регулирования мощности.
- EVGA обладает всеми качествами, такими как непревзойденная графика, акустические, тепловые и энергоэффективные характеристики.
- EVGA в основном сочетает в себе все характеристики новой архитектуры NVIDIA maxwell более совершенным образом.
- Это гарантирует, что вы не отвлечетесь от игры в потрясающем разрешении 4K.
- Эта видеокарта известна как самая мощная графическая карта, выпущенная NVIDIA в 2015 году.
- Невероятная система охлаждения.
- Быстрая скорость.
- Виртуальная реальность.
- На карте нет задней панели.
Эта высококачественная видеокарта была выпущена 18 октября 2013 года. С помощью этого удивительного графического процессора Tesla k40 можно выполнять множество сложных задач, таких как ускорение, перекодирование видео, криптография, анализ сложных данных и рендеринг 3D-моделей.Обладая огромной памятью, его ускоритель графического процессора идеально подходит для самых требовательных высокопроизводительных вычислений и огромных наборов проблем с данными.
Самое лучшее в этой карте NVIDIA Tesla — это то, что она в 10 раз быстрее CPU. Он также имеет функцию Tesla GPUBoost, которая преобразует запас мощности в управляемое пользователем повышение производительности. Кроме того, он имеет скорость памяти 3000 МГц и размер оперативной памяти видеокарты 12 ГБ. Карта NVIDIA Tesla оснащена вычислительным процессором GPU с 8-контактным кабелем питания, а также 6-контактным кабелем питания, что делает его быстрым, эффективным и самым надежным.
K40 — это жесткий запуск от NVIDIA и их партнеров, с отдельными картами и OEM-системами, оснащенными ими.
Характеристики- Разнообразные приложения можно разблокировать с помощью ускорителя графического процессора или графической карты Tesla. Кроме того, графический процессор NVIDIA K40 может повысить управляемую пользователем производительность за счет запаса мощности.
- Сверхбыстрая память GDDR5 объемом 12 ГБ может обрабатывать в 2 раза большие наборы данных, что позволяет быстро обрабатывать огромные объемы данных.
- Новые потоки могут быть динамически созданы с помощью динамического параллелизма, что упрощает пользователям переход между динамическими и гибкими структурами данных.
- Tesla заполучила некоторые из лучших вещей, которые только достигли массового производства, такие как модуль 4Gbit GDDR5.
- При максимальной вычислительной нагрузке tesla k40 может достигать 150 Вт.
- tesla k40 работает без HDMI или порта дисплея для вывода видео.
- Этот NVIDIA K40 требует активного охлаждения.
Это одна из лучших видеокарт емкостью 12 Гбайт с тремя вентиляторами на передней панели, обеспечивающими максимальный воздушный поток и предотвращение нагрева. У него есть два 8-контактных разъема питания и потрясающая скорость 16 гигагерц. Эта лучшая видеокарта на 12 ГБ весит всего около 4,11 фунта, что упрощает транспортировку.
Три порта дисплея 1.4 прикреплены к задней части карты и мультимедийный интерфейс высокой четкости (HDMI) 2.Также прилагается 1, на котором есть одобрение XFX. В дополнение к этому, HDMI может управлять пропускной способностью до 48 гигабайт. Он имеет 16 гигабайт памяти, но конфигурационная память заканчивается на 12 гигабайтах. У XFX не только улучшенное цифровое разрешение 7680 x 4320, но и внешний дисплей лучше, чем у многих графических карт.
Подводя итог, XFX может быть очень приятным и может дать вам надлежащие результаты. Карта может быть быстрой, крутой и тихой одновременно.
Характеристики- Самое лучшее в этой видеокарте XFX Speedster — это то, что она не работает в режиме производительности.
- Он имеет тактовую частоту разгона 2581 мегагерц, а во время игры она составляет 2424 мегагерца.
- Для работы требуется блок питания мощностью не менее 650 Вт.
- Он имеет 2560 потоковых процессоров.
- XFX имеет слот 2,75, высоту 132,00 мм и длину около 323,00 мм.
- Игровая видеокарта XFX Speedster дешевле фантомной игровой видеокарты.
- Обладает сверхстабильностью и повышенной частотой.
- В этой видеокарте используется технология нескольких дисплеев AMD Eyefinity.
- Общая потребляемая мощность в режиме ожидания составляет около 12 Вт.
- Merc RX 6700 не имеет материнской платы asrock.
Эта графическая карта на 12 Гбайт вытесняет все остальные карты своей чудовищной производительностью. Он имеет более крупный охлаждающий блок, так как оснащен графическим процессором с 3 вентиляторами. Лучше всего то, что вентиляторы перестают вращаться, когда температура опускается ниже 55 градусов по Цельсию.Подключены два мультимедийных интерфейса высокой четкости (HDMI) 2.1. Он также включает в себя три порта дисплея 1.4, которые обеспечивают защиту широкополосного цифрового контента (HDCP) 2.3.
В основном, эта графическая карта на 12 ГБ работает на частоте 1780 мегагерц, а ее обычная базовая частота составляет 1,41 гигагерца. RTX 3060 поддерживает разрешение до 8k, поэтому эта видеокарта необходима, если вы играете в игры с портом дисплея 1440 или портом дисплея 1080.
Характеристики- Имеет металлическую заднюю пластину.
- Карта имеет 3584 кубических ядра.
- Поставляется с выходом на 5 дисплеев (2 HDMI и 3 HDCP)
- Мощность 850 ампер.
- Конденсаторы военного назначения.
- Лучшая видеокарта 12 ГБ, которую вы найдете в этом ценовом диапазоне.
- Потребляет меньше электроэнергии, 16 Вт в час.
- Он не издает много шума, поэтому вы можете спокойно наслаждаться играми.
- Немного дороже
- Вентиляторы необходимо заменять через определенное время.
Nivida quadro произведен компанией HP, впервые выпущен на рынок 20 октября -го 2013 года. Имеет графическую карту на 12 гигабайт. Эта Quadro K6000 похожа на GeForce 780Ti, единственное существенное отличие заключается в оперативной памяти. K6000 имеет 64-битные блоки с плавающей запятой, которые используются в других графических операциях.
Самое лучшее в этой карте то, что Quadro K6000 имеет базовую частоту памяти 902 мегагерца.Он улучшил производительность вычислений по сравнению с предыдущими моделями. Кроме того, он использует низкое энергопотребление, поэтому он может развертывать несколько компьютеров одновременно, не выстраивая сотни таких карт и не увеличивая ваш счет на сотни.
Видеокарта имеет двухслотовые порты DVI с двумя портами дисплея 1.2. Он имеет высококачественные возможности отображения, такие как входной и выходной SDI (последовательный цифровой интерфейс).
Характеристики- K6000 может вычислять 5x гигафлопс.
- У него лучшая графика и больше всего памяти.
- Использует только 225 Вт блока питания.
- Меньше тепла и шума.
- Имеет 3D синхронизированное стерео.
- Эти видеокарты идеальны для профессиональной визуализации, редактирования видео, Autocad и т. Д.
- Лучше всего для людей, которые хотят сделать работу с графической обработкой быстрой и эффективной.
- Карта NVIDIA Quadro K6000 не идеальна для игр.
Когда вы настраиваете или обновляете свой компьютер, очень важно выбрать правильную видеокарту. Поскольку производительность видеокарты напрямую влияет на игровой процесс, хорошая видеокарта может улучшить игровой процесс. Но чем выше производительность видеокарты, тем дороже цена, поэтому очень важно выбрать правильную видеокарту, которая вам подходит.
Мы должны понимать, что выбор видеокарты не является самостоятельным решением, и ее нужно выбирать в сочетании с личным использованием и другими компьютерными аксессуарами. Пожалуйста, сначала ознакомьтесь с этим руководством по покупке видеокарты, выбирая лучшую видеокарту 12 ГБ.
1. Введение названия видеокарты NVIDIA и AMDПри покупке видеокарт нам все равно необходимо знать название и параметры видеокарт, иначе легко обмануть.Давайте посмотрим на текущие продукты NVIDIA. В настоящее время видеокарты NVIDIA в основном включают 20 серий и 10 серий, а также последние 30 серий, из которых 20 серий включают RTX 2080, RTX 2060, 10 серий включают GTX 1660 и GTX 1650.
Мы видим, что в названиях видеокарт NVIDIA есть несколько чисел, например 2080,2070,2060,1660. Чем больше здесь цифр, тем выше производительность. Кроме того, мы также можем видеть, что цифры перед некоторыми продуктами одинаковы, но есть суффиксы super или Ti.Вообще говоря, производительность карт Ti выше, чем у Super, производительность карт Super Series выше, чем у моделей без букв на хвосте, таких как GTX 1660 ti> GTX 1660 super> GTX 1660.
Этот метод сравнения применим только к продуктам одного производителя и той же архитектуры. Если продукты поставляются с другой архитектурой, это не применимо. Например, GTX 1660 и GTX 1080 не принадлежат к одной и той же архитектуре, поэтому нельзя сказать, что 1660 больше 1080, поэтому GTX 1660 мощнее GTX 1080.Для сравнения продуктов с разной архитектурой мы можем сравнивать только данные путем оценки.
Для графических процессоров от разных производителей мы не можем определить рейтинг производительности путем сравнения чисел в названии, например AMD RX 5500XT и NVIDIA RTX 2080, вы не можете определить, какая производительность графического процессора лучше, только по количеству их имя, хотя правила продуктов AMD такие же, как правила NVIDIA.
На официальном веб-сайте AMD AMD в настоящее время имеет три типа ядер графического процессора: один — это серия RX 5000, второй — серия RX VEGA, а третий — серия RX 500, чем больше количество названий продуктов, лучше производительность продукта, такого как RX590 и RX580.В RX580 название продукта такое же, но если в суффиксе названия продукта есть XT, производительность продукта лучше, например, RX 5600XT лучше, чем RX 5600.
2. Общие сведения о параметрах видеокартыКогда мы знакомы с названием видеокарты, мы можем обнаружить, что в таблице параметров спецификации есть данные, которые мы не знаем, что они означают, когда мы выбираем лучшую видеокарту на 12 ГБ. Итак, давайте посмотрим на параметры подробнее.
1. Объем памяти видеокартыемкость памяти для разработки относительно проста, чем выше разрешение и настройки качества изображения, тем больше потребность в хранилище видео. 4 ГБ памяти видеокарты можно в основном обрабатывать при разрешении 1080p. Если это разрешение 2К, необходима видеокарта на 6ГБ. Если это разрешение 4K, необходима видеокарта на 8 ГБ, а для ПК идеально подойдет видеокарта на 12 ГБ. Большинство видеокарт имеют строгие ограничения на объем видеопамяти, а разные видеокарты часто предусматривают разную емкость видеопамяти.Как правило, чем больше объем памяти, тем выше производительность видеокарты.
2. Тип и разрядность памяти видеокартыGDDR5 и GDDR6 являются общими для текущей памяти видеокарты, и есть относительно редкая память HBM (используется видеокартой AMD RX Vega). Короче говоря, HBM лучше, чем GDDR6, и GDDR6 лучше, чем GDDR5. Также нужно обращать внимание на скорость памяти, чем выше скорость, тем лучше производительность. Разрядность видеопамяти соответствует типу ядра.Разные ядра также определяют разрядность видеопамяти. Так что производитель видеокарты не имеет права его настраивать. Обычная ширина видеокарт на рынке составляет 256 бит, 192 бит, 128 бит и 64 бит. Как правило, чем выше видеокарта, тем выше разрядность памяти.
3. Тактовая частота графического процессораПри том же ядре графического процессора, чем выше частота графического процессора, тем выше производительность видеокарты. И чем выше частота видеокарты той же марки, чем выше цена, тем лучше отвод тепла.Тем не менее, потенциал ядра графического процессора практически исчерпан, или AMD и NVIDIA строго ограничены, поэтому улучшение частоты не будет большим, а улучшение производительности не будет очевидным. Его нельзя увидеть в игре, можно только отразить при беге.
4. Количество CUDA или потоковых процессоровЭто очень важный параметр. Графические карты той же архитектуры обычно классифицируются по количеству CUDA или потоковых процессоров. Однако это сравнение может быть выполнено только между видеокартами с одинаковой архитектурой.Вообще говоря, чем больше CUDA или потоковый процессор, тем выше уровень видеокарты.
5. Размер видеокартыГрафическая карта может быть разделена на карту половинной высоты и карту полной высоты по высоте, по толщине можно разделить на карту с одним слотом, карту с двумя слотами, карту с 2,5 слотами, карту с тремя слотами и так далее. Текущая игровая видеокарта — это в основном все карты высокого уровня, и они часто занимают 2 слота. Как правило, чем выше уровень видеокарты, тем больше слотов она занимает и тем больше длина.Поэтому, выбирая лучшую видеокарту 12 ГБ для ваших нужд, вы должны соответствовать своему шасси и избегать проблем во время установки. В то же время проверьте, нет ли конфликта между компонентами и видеокартой на вашей материнской плате.
6. Порт видеовыходаОсновные порты вывода видео включают HDMI, DP и DVI. Тип-C более продвинутых точек также присоединяется. В настоящее время на большинстве видеокарт удален интерфейс VGA, поэтому нам нужно обратить внимание на то, какой тип интерфейса дисплея, соответствует ли он интерфейсу, предоставляемому видеокартой, и, если он не совпадает, его необходимо перенести.
7. TDP Энергопотребление ЭнергопотреблениеTDP — важный параметр. Вообще говоря, чем выше производительность, тем выше потребление энергии и чем выше потребление энергии, это означает, что потребность в мощности выше, а требования к рассеиванию тепла выше. Поэтому, когда вы выбираете лучшую видеокарту 12 ГБ, обратите внимание на то, соответствует ли мощность источника питания, достаточно ли хороша теплоотдача корпуса машины, и если источник питания недостаточен, оборудование может быть повреждено.Плохой отвод тепла приведет к снижению производительности видеокарты и ухудшению игрового процесса.
8. Интерфейс питания видеокартыПоскольку PCI-E может обеспечить мощность не более 75 Вт, видеокарта с TDP, превышающим 75 Вт, требует внешнего источника питания. Обычный интерфейс видеокарты — 6-контактный и 8-контактный, некоторые — один 6-контактный или один 8-контактный, а высокопроизводительная видеокарта часто предоставляет 2 8-контактных или даже 3 8-контактных интерфейса. Поэтому вам необходимо проверить, имеет ли ваш блок питания соответствующий интерфейс питания для видеокарты.
9. Устройство трассировки лучейЭто уникальная технология видеокарт серии NVIDIA RTX. Он доступен только для видеокарт серии 20. Ядро трассировки лучей в основном используется в игре для трассировки лучей в реальном времени. Эта функция может повысить точность воспроизведения игры, что является направлением развития в будущем. AMD в настоящее время не поддерживается, но будет поддерживать эту технологию в будущем.
10. Тензорное ядро Это также технология NVIDIA, которая в основном используется для поддержки глубокого обучения и высокопроизводительных вычислений.Поэтому, если есть потребность в работе AI (например, тензорном потоке), рекомендуется выбрать видеокарту NVIDIA с этим ядром. В этом случае у NVIDIA есть дополнительная информация и серьезная официальная поддержка для вас.
3. Как выбрать лучшую видеокарту 12 ГБКогда мы знакомы с правилами именования AMD и NVIDIA и имеем определенное представление о параметрах видеокарты, теперь мы можем выбрать лучшую видеокарту 12 ГБ для наших подходящих потребностей. При выборе стоит обратить внимание на следующие 5 принципов.
1. Определите GPUБлагодаря пониманию ядра видеокарты, общеизвестному рейтингу производительности AMD и NVIDIA с продуктами с одинаковой архитектурой, мы выберем правильный вариант между AMD 、 NVIDIA и видеокартами предыдущего поколения. Поэтому нам недостаточно выбрать правильный графический процессор только в соответствии с названием видеокарты. Нам также необходимо иметь определенное представление о рейтинге производительности графического процессора, как правило, производительность видеокарт оценивается с помощью различных тестов и сравнений.Классифицируем видеокарты ниже. Согласно классификации, нам нужно сначала выбрать ядро видеокарты, такое как суперъядро GTX 1660 или ядро RX590.
2. Комбинация GPU и CPUДля игровых пользователей более разумным выбором будет потратить больший бюджет на видеокарту, но вы также должны обратить внимание на совместимость с процессором, процессор не может быть слишком экономным. Если вы играете в игру, также требуются некоторые фоновые задачи, необходим ЦП с 6 физическими ядрами.Рекомендуется ЦП уровня I5-9600K. Если у вас высокопроизводительная видеокарта, вам следует выбрать 8 ядер и процессор уровня I7-9700K. Кроме того, лучше начать с объема памяти 16 ГБ, а SSD должен соответствовать продуктам поддержки NVMe.
3. Адаптация дисплеяПроизводительность видеокарты в играх тесно связана с разрешением. При одинаковых настройках качества изображения чем выше разрешение, тем меньше количество кадров в игре, поэтому требования к производительности дисплея с высоким разрешением для видеокарты выше.Кроме того, если дисплей поддерживает высокую частоту обновления, более высокая производительность графической карты может использовать преимущества дисплея с высокой частотой обновления. Если дисплей поддерживает технологию защиты от разрывов, обратите внимание, что видеокарта NVDIA соответствует технологии G-sync, а видеокарта AMD — технологии FreeSync.
4. Разгон видеокартыРаньше разгон видеокарты был актуальной темой, но сейчас для разгона видеокарты остается очень мало места.Из-за ограничений AMD и NVIDIA, а частота видеокарты уже приближается к пределу, места для разгона больше нет. Более того, разгон требует определенных навыков, а также необходимо учитывать рассеивание тепла, шум и стабильность системы. Поэтому новичкам заниматься разгоном не рекомендуется.
5. Блок питания и шассиЭнергопотребление видеокарт высокого класса часто относительно велико, поэтому мощность их блока питания должна не отставать.Если источник питания недостаточен или источник питания некачественный, может произойти трагедия поломки оборудования. Кроме того, следует учитывать пространство шасси. Если пространство слишком мало, некоторые видеокарты могут не быть установлены или рассеивание тепла будет затронуто после установки. Особенно пользователям небольших корпусов следует обратить внимание на проблемы с пространством коробки.
4. Выбирая лучшую видеокарту на 12 ГБ, следует ли выбирать AMD или NVIDIA?В настоящее время на рынке представлены только два производителя графических процессоров, поэтому, покупая лучшую видеокарту 12 Гб, мы можем выбирать продукты только между AMD и NVIDIA.На текущем рынке графических процессоров NVIDIA занимает безусловное преимущество. Для пользователей, которые стремятся к максимальной производительности, они могут выбрать только видеокарту NVIDIA, продукты AMD могут сражаться с NVIDIA только на рынке среднего и низкого уровня.
Производительность графического процессора AMD в том же ценовом сегменте часто лучше, чем у графического процессора NVIDIA на рынке среднего и низкого ценового диапазона, но основная проблема AMD — большая проблема. Если вы хотите играть в онлайн-игры с большими требованиями к видеопамяти, рекомендуется выбрать видеокарту NVIDIA.Если вы выбираете видеокарту AMD RX Vega Series, вы должны проверить, достаточно ли мощности вашего блока питания. Что касается видеокарты серии AMD RX500, которая, несомненно, является рентабельной, ее производительность лучше, чем у видеокарты NVIDIA того же ценового уровня, но и ее энергопотребление выше.
5. Классификация видеокарт на всех уровняхПри классификации видеокарт мы в основном разделяем их по разрешению игры, для которого подходят соответствующие видеокарты.Мы можем разделить видеокарту на шесть уровней с помощью рейтинга производительности видеокарты.
Уровень 1: GeForce RTX 2080 Ti подготовлена для разрешения 4K. GeForce RTX 2080 Super, GeForce RTX 2080, GeForce GTX 1080 Ti, GeForce RTX 2070 super и AMD Radeon VII также доступны для игры в некоторые игры в 4K.
Уровень 2: Radeon RX 5700 XT, GeForce RTX 2070, GeForce RTX 2060 super, Radeon RX 5700, GeForce GTX 1080, AMD Radeon RX Vega 64 подготовлены для игр 2K.
Уровень 3: GeForce RTX 2060, AMD RX 5600 XT, GeForce GTX 1070 Ti, Radeon RX 56 и GeForce GTX 1070 и GTX 1660Ti, при разрешении 1080P на них нет давления. И они также могут работать с разрешением 1440P, но некоторые изображения могут быть уменьшены при воспроизведении с разрешением 2K.
Уровень 4: GTX 1660 super, GTX 1660, AMD Radeon RX 5500 XT, AMD Radeon RX 590, AMD Radeon RX 580 в первой половине 2020 года являются основными графическими процессорами для игр с разрешением 1080p.
Уровень 5: GeForce GTX 1060 (6 ГБ), AMD Radeon RX 570, GeForce GTX 1650 super, GeForce GTX 1060 (3 ГБ) и GeForce GTX 1650 также могут играть в игры с разрешением 1080P, но качество игрового экрана будет снижено .
Уровень 6: AMD Radeon RX 550 и GeForce GT 1030 и графические процессоры ниже, они могут поддерживать только некоторые онлайн-игры, очевидно, что они не могут поддерживать игры с большими требованиями к видеопамяти. Однако преимущество этого типа видеокарты заключается в низком энергопотреблении, поэтому они подходят для тех пользователей, у которых есть особые требования к размеру видеокарты.
Последние мыслиВыбор лучшей видеокарты 12 Гб 2021 года — разумный выбор при настройке игрового компьютера. Мы можем судить о производительности по модели ядра графического процессора видеокарты и посмотреть, может ли она удовлетворить наши потребности. Таким образом, первое, что нужно учитывать при выборе лучших видеокарт, — это базовая модель видеокарты. После того, как определено ядро видеокарты, другой наиболее важной задачей является также выбор подходящего процессора.Если вы не выберете подходящий процессор, ваша графическая карта не сможет идеально выполнять свою задачу.
Люди покупают графический процессор исходя из его производительности, но цена, характеристики и эффективность по-прежнему являются важными факторами при выборе лучшего графического процессора 12 ГБ. Нам следует позаботиться о частоте графического процессора, информации о видеопамяти, энергопотреблении TDP, интерфейсе вывода, тепловыделении и другой информации. И может случиться так, что немного более медленная карта может получить более высокий рейтинг.
Понравилось? Тогда обязательно ознакомьтесь с нашим другим руководством по лучшей видеокарте GDDR6 .
Power без компромиссов — обзор видеокарты GeForce RTX 3080 — GAMING TREND
Это вопрос, который возникает при каждом цикле обновления, и ответ всегда: «Это зависит от обстоятельств». Этот вопрос, конечно, звучит так: «Сейчас самое время обновить мою видеокарту?» Что ж, NVIDIA анонсировала свои карты GeForce RTX 3080 и 3090, и на этот раз ответ на этот вопрос немного проще.
К тому времени, когда вы прочтете это, у вас будет шанс предварительно заказать RTX 3080, но зачем вам это нужно? Что ж, если вы используете любую карту из 10-й серии, даже 1080Ti, давно пора. Было бы легко просто бросить вам тест за тестом, указать на числа и сказать: «Видите? Более высокие цифры! » но это окажет вам как потребителю медвежью услугу, а также возможности этого фантастического оборудования. Он способен на гораздо большее, чем просто кадры и разрешение, и именно в этих деталях вы поймете, почему этот 3080 стоил его вдвое дороже.Однако для этого нам нужно сделать неожиданный крюк.
Xbox Series X и PlayStation 5 уже не за горами, Microsoft вынуждена объявить об этом из-за утечки, а Sony сразу за ними. Эти новые платформы начинают вторгаться на территорию, где полностью доминировали высокопроизводительные ПК. 4K / 60, 1440p при 120 кадрах в секунду, трассировка лучей — эти вещи были просто (и редко) достижимыми на таком мощном оборудовании, как Xbox One X. Новые консоли начинают дышать разреженным воздухом с памятью GDDR6 с пропускной способностью памяти 560 ГБ / с. пропускная способность с разрешением 4K при тактовой частоте 14 Гбит / с.Впечатляет, но почему я говорю вам, игроку на ПК, эти вещи? Это связано с тем, что игры, создаваемые для этого будущего поколения, будут иметь порты PS5 и XSX, поэтому они также представляют уровень оборудования, используемого в качестве эталона в течение следующих четырех-пяти лет разработки. Конечно, будут эксклюзивы для ПК, но вряд ли они отклонятся слишком далеко от этого базового уровня. Таким образом, я собираюсь использовать опубликованные номера графических процессоров Xbox Series X (они выше, чем у PlayStation 5) как часть моего сравнения для GeForce RTX 3080, а также для GeForce RTX 3080 предыдущего поколения (и все еще звездного исполнителя). сам по себе), 2080 Ti, и я даже добавлю 1080 Ti, чтобы охватить все базы.
Чтобы полностью усвоить все, что находится под капотом GeForce RTX 3080, вам нужно разобраться в нескольких фоновых объектах. Я постараюсь объяснить их кратко и простым языком, чтобы вам не требовалось иметь степень инженера-электронщика, чтобы понять их. Достаточно сказать, что при подведении итогов может быть упущен какой-то нюанс, но общая идея верна. Если вы не согласны, напишите мне в Discord — я люблю болтать.
Cuda Cores:
Еще в 2007 году NVIDIA представила модуль ядра параллельной обработки, названный CUDA, или Compute Unified Device Architecture.Проще говоря, эти ядра CUDA могут вычислять и передавать графику. Данные проталкиваются через SM или потоковые мультипроцессоры, которые параллельно передают ядра CUDA через кэш-память. Когда ядра CUDA получают эту гору данных, они индивидуально захватывают и обрабатывают каждую инструкцию и делят ее между собой. RTX 2080 Ti, какой бы мощный он ни был, имеет 4352 ядра, что делает его еще более ошеломляющим, когда вы видите, что у GeForce RTX 3080 их колоссальные 8704 ядра. Теперь поймите, что большее количество ядер CUDA не всегда означает быстрее, но мы рассмотрим другие элементы, которые объясняют, почему в данном случае это очень важно.
Консоли текущего поколения и Gen-9 от Microsoft и Sony используют архитектуру AMD Zen 2, а это означает, что здесь нет ядер CUDA — они эксклюзивны для NVIDIA. Вместо этого они используют что-то похожее, но не так легко измерить или объяснить. Будет более ясно, когда мы перейдем к сопоставлению памяти и пропускной способности.
Boost Clock:
Boost Clock — вряд ли новая концепция, представленная в серии GeForce GTX 600, но это очень необходимая часть выжать каждый кадр из вашей карты.По сути, базовые часы — это «стандартная» скорость работы вашей карты, которую вы можете ожидать в любой момент времени, независимо от обстоятельств. С другой стороны, повышающая частота позволяет графическому процессору динамически регулировать скорость, выходя за рамки этой базовой частоты, если для использования доступна дополнительная мощность. Эта динамическая регулировка выполняется постоянно, позволяя карте переходить на более высокие частоты, пока температура остается в пределах допустимых значений. Благодаря лучшим решениям по охлаждению (подробнее об этом позже) GeForce RTX 3080 может обеспечивать гораздо более высокие тактовые частоты разгона, достигающие 1710 МГц — улучшение по сравнению со скоростью 2080 Ti в 1545 МГц.
GDDR6 против GDDR6X:
Возможно, вы заметили или не заметили, но есть очень тонкая разница между картами 2080 Ti, 3070 и 3080 и 3090. Первые два используют память GDDR6 — стандарт видеопамяти, которая также используется в обеих будущих консольных платформах. С другой стороны, RTX 3080 и 3090 используют GDDR6X. Какая разница? Что ж, 2080 Ti способен выдавать 616,0 ГБ / с через свой конвейер памяти — довольно ошеломляющий объем, но когда текстуры могут быть массивными при разрешении 4K или даже 8K, очень необходимая скорость.С другой стороны, GeForce RTX 3080 может выдавать 760 ГБ / с — значительное улучшение по сравнению с предшественником. В то время как 2080 Ti мог иметь дополнительный гигабайт места на 11 ГБ, 10 ГБ GDDR6X RTX 3080 более плотно упакованы, быстрее и эффективнее. Команда Micron (производитель и изобретатель памяти) сделала довольно большой шаг вперед с этой новой архитектурой памяти, нарушив некоторые фундаментальные правила, которые были неизменны до сих пор.
Двоичный код — это то, что говорят компьютеры — единицы и нули.Отправляя электрические сигналы через транзистор для индикации включенного или выключенного состояния, мы можем создавать всевозможные вещи, от программ до графики и цифрового звука. Что ж, Micron спросил, что произойдет, если мы сможем более точно измерить состояние этого электрического заряда и включить не только включение и выключение, но и четыре состояния по конвейеру? GDDR6X — это ответ на этот вопрос, поскольку он делает именно это. Раньше этого никогда не делали с памятью, и поскольку память формирует пути для всего, что делает графический процессор, это влияет на всю платформу.Независимо от того, занимаетесь ли вы редактированием видео, играете или позволяете своей видеокарте выполнять работу искусственного интеллекта как DLSS, возможность удерживать вдвое больше инструкций на каждый кусочек яблока — это феноменально. Для тех из вас, кто интересуется математикой за кулисами, четыре состояния GDDR6X (PAM4 или четырехимпульсная амплитудная модуляция) — это 00, 01, 11 и 10, что позволяет увеличить ширину памяти без значительного увеличения мощности или нагрева или уменьшения надежного обнаружения состояния. Это один из главных секретов, которые обеспечивают мощь этой новой видеокарты NVIDIA.
Что такое RT Core?
Возможно, одним из наиболее неправильно понимаемых аспектов серии RTX является ядро RT. Это ядро является выделенным конвейером для потокового мультипроцессора (SM), где рассчитываются световые лучи и пересечения треугольников. Проще говоря, это математическая единица, благодаря которой освещение в реальном времени работает и выглядит наилучшим образом. Несколько ядер SM и RT работают вместе, чтобы чередовать инструкции, обрабатывая их одновременно, что позволяет обрабатывать множество источников света, пересекающихся с объектами в окружающей среде разными способами, и все это одновременно.На практике это означает, что команде графических художников и дизайнеров не нужно «вручную размещать» освещение и тени, а затем настраивать сцену в зависимости от пересечения и интенсивности света — с помощью RTX они могут просто разместить источник света в сцену и пусть карта сделает всю работу. Я, конечно, слишком упрощаю это, но это общая идея.
Карты архитектуры Тьюринга (серия 20X0) были первыми реализациями этой специализированной технологии ядра RT. У 2080 Ti было 72 ядра RT, всего 29.Пропускная способность 9 терафлопс, тогда как RTX 3080 имеет 68 ядер RT 2-го поколения с удвоенной пропускной способностью версий на основе Тьюринга, способных обеспечивать мощность обработки света и теней 58 терафлопс при одновременной трассировке лучей, затенении и вычислениях. ! Это не лишняя маркетинговая ерунда — 3080 способен выполнять вдвое больше вычислений пересечений лучей и треугольников, что значительно упрощает реализацию возможностей освещения и теней в реальном времени для разработчиков для создания реалистичных миров, в которых мы можем жить.
Что такое тензорное ядро?
Вот еще один пример «а зачем мне это нужно?» в архитектуре GPU — Тензорное ядро. Эта относительно новая технология от NVIDIA широко использовалась в высокопроизводительных суперкомпьютерах или центрах обработки данных, прежде чем наконец появилась на потребительских картах в последних и более мощных картах серии 20X0. Теперь, с RTX 3080, у нас есть третье поколение этих процессоров и их перемещение (т.е. 2080 Ti имеет 240 ядер второго поколения, 3080 имеет 272 тензорных ядра третьего поколения, но они, как сообщается, в два раза быстрее). , что они делают?
тензорных ядер используются для обучения на основе искусственного интеллекта, и мы видим, что это более непосредственно применяется к играм через DLSS или суперсэмплинг глубокого обучения.DLSS — это больше, чем маркетинговые модные слова, DLSS может взять несколько кадров, проанализировать их, а затем сгенерировать «идеальный кадр», интерпретируя результаты с помощью искусственного интеллекта с помощью суперкомпьютеров в штаб-квартире NVIDIA. Второй проход процесса использует то, что он узнал о наложении имен на первом проходе, а затем «заполняет» то, что он считает более точными пикселями, в результате чего получается более чистое изображение, которое можно визуализировать еще быстрее. Удивительно, но результаты могут быть чище, чем исходное изображение, особенно при более низком разрешении, а меньший объем обработки означает, что можно визуализировать больше кадров с использованием сэкономленной энергии.Это буквально бесплатные кадры. DLSS 3.0 все еще витает в воздухе, но очень скоро мы увидим, что это применяется более широко, чем сегодня. Нам придется внимательно следить за этим, но когда он выйдет, эти тензорные ядра станут компонентами для выполнения работы. Это все фантастично, но не лучше ли вам увидеть это в действии? Вот небольшой фрагмент из Control, который делает именно это.
DLSS 2.0 был представлен в марте 2020 года, и он взял на себя принципы DLSS и намеревался разрешить жалобы пользователей и разработчиков, одновременно повышая скорость.С этой целью они переработали основной конвейер Tensor, эффективно удвоив скорость, сохранив при этом качество изображения оригинала, или даже повысили его резкость до такой степени, что оно выглядит лучше исходного! Сообществу пользователей NVIDIA предоставила элементы управления DLSS, предоставив на выбор три режима — «Производительность» для максимальной частоты кадров, «Сбалансированный» и «Качество», которые позволяют получить конечное изображение наилучшего качества. Разработчики увидели самое большое благо в DLSS 2.0, поскольку им была предоставлена универсальная сеть обучения ИИ.Вместо того, чтобы обучать каждую игру и каждый кадр, DLSS 2.0 использует библиотеку параметров, не связанных с игрой, для улучшения графики и производительности, а это означает, что технология может быть применена к любой игре, если разработчик решит это сделать. Циклы разработки игр таковы, каковы они есть, а поскольку технологии появятся на улицах только в начале этого года, вполне вероятно, что мы увидим больше использования DLSS 2.0 во время праздничного молниеносного блица, и даже больше после начала года.
Время кадра vs.Частота кадров:
Важно понимать, что эти два термина никоим образом не взаимозаменяемы. Framerate сообщает вам, сколько кадров отображается каждую секунду, а Frametime сообщает, сколько времени потребовалось для визуализации каждого кадра. Несмотря на то, что большое внимание уделяется частоте кадров и разрешению, с которым он рендерится, времени кадра, вероятно, должно уделяться равное, если не большее внимание. Когда рендеринг кадров занимает слишком много времени, они могут быть отброшены или рассинхронизированы, что приведет к разного рода хаосу, включая заикание.Если кадр 1 занимает 17 мс, а кадр 2 — 240 мс, это приведет к нестабильному результату. Поймите, что оба важны, и не сосредотачивайтесь близоруко только на частоте кадров, поскольку это говорит только половину истории, поскольку, даже если устройство способно выдавать 144 кадра в секунду, если оно делает это неравномерно, вы увидите прерывистый вывод. .
Что такое RTX IO?
Прямо сейчас, будь то на ПК или на консолях, существует поток данных, который в значительной степени неэффективен, и наши игры страдают от этого.Платформы хранения доставляют товары по шине PCI, в ЦП и в системную память, где они распаковываются. Эти распакованные текстуры затем передаются обратно по шине PCI на графический процессор, который затем передает их памяти графического процессора. Как только это будет сделано, оно будет передано вашим глазам через монитор. У Microsoft есть новый API хранилища под названием DirectStorage, который позволяет твердотельным накопителям NVMe обходить этот процесс. В сочетании с NVIDIA RTX IO сжатые текстуры вместо этого отправляются из высокоскоростного хранилища через шину PCIe прямо в графический процессор.Затем ресурсы распаковываются гораздо более быстрым графическим процессором и немедленно доставляются на ваш ожидающий монитор. Исключение этого постоянного бизнеса высвобождает энергию, которую можно было бы использовать где-то еще — NVIDIA оценивает улучшение до 100 раз. Когда разработчики говорят о возможности уменьшить размер установки, это напрямую связано с этой технологией. Итак, в чем подвох?
NVIDIA RTX IO — совершенно феноменальная технология, но она настолько нова, что никто не готов к использованию в прайм-тайм. В результате я могу только сказать вам, что он идет, и рассказать о том, насколько хороши эта концепция и технология, я не могу проверить это для вас.Тем не менее, по мере того, как платформы хранения данных переходят на невероятно высокоскоростные диски, которые, к сожалению, имеют очень малую емкость, можно поспорить, что мы увидим, как это воплотится в жизнь и быстро. Следите за новостями — это может стать огромной победой для геймеров во всем мире.
Немного бок о бок:
Прежде чем мы перейдем к сути бенчмаркинга, я думаю, что сейчас самое время провести параллельное сравнение грядущих консолей, GeForce RTX 2080 Ti и GeForce RTX 3080.Хотя это не обязательно сравнение яблок с яблоками, это даст вам представление о возможностях и производительности по сравнению с новейшим оборудованием NVIDIA.
NVIDIA GeForce RTX 3080 | NVIDIA GeForce RTX 2080 Ti | Xbox серии X | PlayStation 5 | |
Ядра NVIDIA CUDA | 8,704 | 4,352 | NA | NA |
Тактовая частота с ускорением (МГц) | 1,710 | 1,545 | 1,825.00 | 2,233,00 |
Стандартная конфигурация памяти | 10 ГБ GDDR6X | 11 ГБ GDDR6 | 16 ГБ GDDR6 | 16 ГБ GDDR6 |
Ширина интерфейса памяти | 320 бит | 352-бит | 320 бит | 256 бит |
Скорость памяти | 19 Гбит / с | 14 Гбит / с | 14 Гбит / с | 14 Гбит / с |
Пропускная способность памяти | 760.0 ГБ / с | 616 ГБ / с | 560 ГБ / с | 448 ГБ / с |
Максимальное разрешение | 7680×4320 | 7680×4320 | 3840 x 2160 | 3840 x 2160 |
RT TFLOPS | 58 | 26,9 | 12,15 | 10,28 |
Неудивительно, что карта, которая стоит больше, чем вся консоль, превосходит ее по производительности, но трудно поверить, что она обеспечивает гораздо большую мощность.При почти удвоенной мощности он способен обеспечивать частоту кадров и разрешение, о которых новые консоли Sony и Microsoft могли только мечтать. Без лишних слов, давайте выделим несколько игр, которые доведут любую систему до предела своих возможностей, и посмотрим, как каждая из них работает в разрешении 1080p, 1440p и 4K.
Тестирование:
Анализ:
Из этих тестов можно почерпнуть много интересной информации. Конечно, выдающимися являются прыжки с большим количеством прыжков, но это также указывает на что-то тонкое.Игры, в которых используется новое освещение, такое как RTX, вместо выполнения сложных вычислений освещения и теней, значительно выигрывают у своих современников без этой технологии. В качестве примера, Assassin’s Creed Odyssey, как известно, ограничен процессором, поэтому добавление дополнительных аппаратных средств в игру будет только пока. Если бы в игре использовались такие технологии, как RTX, мы могли бы убрать это ограничение, что, вероятно, принесло бы огромные выгоды.
Также интересно в этом списке производительность Red Dead Redemption 2.Как вы убедились в нашем подробном обзоре версии для ПК, приключения Rockstar на Диком Западе поставят практически любую видеокарту на колени. Что ж, с момента запуска появилось множество патчей, и более чем несколько обновлений драйверов обеспечили лучшую оптимизацию, и теперь мы видим, что он может достигать 4K / 60 на ПК с помощью всего нескольких переключателей на 2080 Ti. Что ж, с RTX 3080 вам даже не придется беспокоиться об этом — сдвиньте все вправо, включите режим DX12 и наслаждайтесь играми 4K со скоростью 60 кадров в секунду без компромиссов. Совершенно захватывающе.
Shadow of the Tomb Raider была одной из первых игр, в которых использовалось освещение RTX, и поэтому у нее было больше времени для доработки. Мало того, что 4K / 60 в максимальном качестве возможно, вы можете поразить эти цифры с помощью кадров, которые можно сэкономить на картах с RTX. Вы можете убедиться в этом, если посмотрите на цифры 4K на 1080Ti. Хотя это невероятно мощная карта по сей день, без технологии RTX и целого банка ядер Tensor и RT для разгрузки работы дает 40 кадров в секунду при 4K и без всех наворотов.
Давайте на секунду поговорим о наворотах. Keoken Interactive представила вызывающее стресс лунное приключение со своей игрой Deliver Us the Moon. Безусловно, это красивая игра, но она, несомненно, является лучшим примером того, почему RTX, ни в коей мере не преувеличивая, меняет правила игры. Посмотрите это видео:
С точки зрения погружения нет ничего лучше такого прыжка. Погружение — это избавление от недоверия, и отражение вашего лунного космонавта, появившегося в стекле жилого блока, помогает усилить холодную реальность полного одиночества в своей миссии.Наблюдение за мерцанием панели состояния в стекле — это напоминание за пределами камеры о том, что вы — один маленький провал от верной смерти. Свет и тень изгибаются сквозь преломление стекла, чтобы напомнить вам, что ваша станция вращается, когда она летит вокруг нашего ближайшего небесного тела через космический вакуум. Музыка может создать или снять напряжение в сцене, но просмотр таких игр, как Deliver Us the Moon с освещением и эффектами в реальном времени, делает невозможным вернуться назад.
На самом деле, многие игры в этом списке страдают от загрузки процессора.Обмен между процессором, памятью, графическим процессором и носителем данных создает несколько узких мест, которые могут повлиять на вашу частоту кадров. Если ваша видеокарта может получать гигабайты информации каждую секунду, а ваш убогий механический жесткий диск изо всех сил пытается достичь скорости 133 МБ / с, у вас проблема. Если вы используете высокоскоростное хранилище SSD Gen3 или 4 m.2, этот диск может работать со скоростью 3 или даже 4 ГБ / с, но если ваш старый процессор не способен его обрабатывать, он не сможет заполнить ваш графический процессор или. Предположим, у вас есть блестящий новый процессор Intel 10-го поколения, вы можете быть удивлены, что он также может быть недостаточно быстрым для того, что находится под капотом этого RTX 3080.Мы обсудим, как NVIDIA пытается решить эту дилемму, немного дальше в этом обзоре, но, проще говоря, NVIDIA снова опережает кривую мощности, и процессоры, память и даже шина PCI должны наверстать упущенное, прежде чем все это. мощность используется полностью, а налоги гораздо меньше.
NVIDIA Broadcast:
Есть дополнительный бонус, связанный с дополнительной мощностью ядер Tensor. Хотя ядра AI действительно обрабатывают DLSS, они также обеспечивают дополнительное сглаживание в приложении, которое NVIDIA называет «NVIDIA Broadcast».Это приложение может улучшить качество звука вашего микрофона, динамиков и камеры, применяя обучение искусственному интеллекту во многом так же, как мы видим это в приведенных выше примерах. Статический или фоновый шум в вашем аудио, артефакты при потоковой передаче с зеленым экраном (или без него, поскольку Broadcast может просто применить виртуальный фон), отвлечение шума от звука другого человека и даже выполнение небольшого отслеживания головы, чтобы удержать вас в кадре, если вы из тех, кто много перемещается. Это не только приложение, ориентированное на игры, оно работает для любой видеоконференцсвязи, поэтому смело уменьшайте масштаб, пока мы все застряли внутри.
Внутри приложения три вкладки — микрофон, динамики и камера. Микрофон должен позволять удалять фоновый шум из звука. Я использую механическую клавиатуру, и мне не раз говорили, что она громкая. Что ж, даже с этим включенным, он все равно громкий — моя Seiren Elite не пропускает ни одного звука.
Вторая вкладка — это динамики, которые должны уменьшить количество шума, исходящего от других источников. Я обнаружил, что это довольно эффективно, убирая неприятные шумы при печати от других — надеюсь, однажды я смогу сделать то же самое для них.
На последней вкладке происходит волшебство. На вкладке «Камера» вы можете размыть фон, заменить его видео или изображением, просто удалить фон или «автоматически кадрировать». Программное обеспечение для звонков, такое как Zoom и Skype, тоже может это делать, но даже на этой ранней стадии я могу сказать, что оно не так хорошо. Более того, вставить его в OBS было так же просто, как выбрать устройство, выбрать «Camera NVIDIA Broadcast», и все было сделано. Нет ничего проще.
Программное обеспечение все еще находится в стадии тестирования и разработки, поэтому я не уверен, когда вы его получите, но результаты меня очень впечатлили.Я заметил незначительное (~ 2%) снижение частоты кадров при записи с помощью OBS — жалкие гроши, когда в таких играх, как Overwatch и Death Stranding, частота кадров превышает 150 кадров в секунду, и это работает с довольно ужасным освещением, как у меня в офисе. Правильно освещенная комната будет выглядеть намного лучше.
Охлаждение и шум:
Одно дело — обеспечить невероятно высокую частоту кадров и сногсшибательное разрешение, но если вы сделаете это, одновременно взорвав мне барабанные перепонки с пронзительным воем, когда ваши вентиляторы в стиле Harrier Jet раскрутятся, чтобы остыть, у нас возникнет проблема. .К счастью, NVIDIA осознала это, а также необходимость охлаждения ошеломляющих 28 миллиардов транзисторов (у 2080 Ti было 18,9 миллиарда), и они переработали 3080, чтобы соответствовать. Карта имеет прочную конструкцию с новой системой воздушного потока, которая более эффективно отводит тепло и каким-то образом делает это, будучи на 10 дБ тише, чем ее предшественник. Обычно я называю это маркетинговым заявлением, но я измерил это сам.
Нормальный поток воздуха через корпус при стандартной настройке начинается с забора воздуха спереди, проталкивания его через жесткие диски и, надеюсь, наружу сзади.Я могу сказать вам, что корпус, который я взял у Coolermaster, был неправильно собран по прибытии с 200-миллиметровым вентилятором наверху, нагнетающим воздух обратно в корпус, поэтому всегда лучше проверять стрелки сбоку, чтобы убедиться, что ваш корпус следует по этому пути. Конструкция 2080 Ti представляла собой сплошную плату, которая проходила по всей длине карты, а вентиляторы внизу отводили тепло. К сожалению, для этого требуется, чтобы он снова циркулировал по пути воздушного потока, поднимаясь вверх, а затем выходя из верхних и задних вентиляторов корпуса.
Система обдува RTX 3080 просто прекрасна. Поскольку благодаря 8-нанометровому производственному процессу карта была уменьшена вдвое, осталось много места для более крупного охлаждающего блока и ребер, а также соответствующей системы вентиляторов. Вентилятор в верхней части карты (после того, как он установлен в корпусе), вместо этого втягивает воздух снизу вверх, проходя через тепловую трубку гибридной паровой камеры (поскольку больше нет длинной печатной платы, препятствующей воздушному потоку), и толкает он находится прямо на пути нормального воздушного тракта корпуса.Второй вентилятор, расположенный в нижней части карты и ближайший к монтажному кронштейну в задней части корпуса, также втягивает воздух, но вместо того, чтобы пропускать его через карту, он выталкивает излишки тепла из задней части корпуса. карту через специальную вентиляционную трубку. Наблюдать:
Вы можете увидеть результаты во время выполнения тестов. Карта никогда не поднимала температуру выше 79 ° C, независимо от того, как сильно я ее нажимал или с каким разрешением я ее запускал, почти все время оставаясь в диапазоне от низкого до среднего 70-х, и при потрясающих 35 ° C в режиме ожидания.Я не раз заглядывал в свой корпус и видел, что вентиляторы для карты даже не крутятся — это удивительное произведение инженерной мысли.
Игры без компромиссов
С запуском PlayStation 5 и Xbox Series X вы услышите непрекращающийся поток рекламы, посвященной играм в разрешении 4K и тому, как обе платформы могут обеспечивать скорость 120 кадров в секунду. То, что мы увидели из нескольких практических моментов, которые у нас были с новыми консолями, — это то, что возможности не всегда соответствуют реальности. Dirt 5, ExoMecha, Gears 5, Halo Infinite (многопользовательская игра) Ori and the Will of the Wisps, Orphan of the Machine, Second Extinction и Metal: Hellsinger предназначены для работы со скоростью 120 кадров в секунду и с разрешением 4K, но это очень короткий список.При обновлении уже выпущенных игр это может немного усугубиться, но есть основная проблема — HDMI 2.1, ваш телевизор и ваш ресивер. Как и в случае с процессорами, оперативной памятью и материнскими платами, все ваши компоненты должны соответствовать, чтобы максимально увеличить производительность вашего графического процессора. На консоли все это само по себе и высечено в камне, но проблема остается. Хотя обе консоли обеспечивают поддержку HDMI 2.1, новейшего стандарта, который способен выдавать выходной сигнал до 8K, ваш телевизор и ресивер также должны их поддерживать — а это делают очень немногие.На самом деле, у вас, скорее всего, есть телевизор 4K, который поддерживает 60 Гц, если даже это. Это подводит меня к GeForce RTX 3080.
Новейшая серия видеокарт NVIDIA требует соответствующего оборудования. Они поддерживают выходы HDMI 2.1, 8K, мониторы с высокой частотой обновления и высоким разрешением, и делают это при включенных RTX и DLSS. Увидеть DOOM Eternal в 8K — это то, на что стоит обратить внимание, но большинство из нас далеки от того, чтобы осознать это дома. Однако мы можем без компромиссов наслаждаться играми в 4K при 60+ (часто ПУТЬ за 60).Конечно, новейшие консоли будут рекламировать 4K / 60 или даже 4K / 120, но могут ли они сделать это со всеми ползунками вправо? Я в этом искренне сомневаюсь.
Как бы то ни было, увидеть, как Doom Eternal работает со скоростью 150+ кадров в секунду при 4K, максимальное обновление на моих мониторах с частотой 144 Гц — это то, чем должны быть игры. Это не просто тщательно разработанная техническая демонстрация — это реально, и прямо сейчас здесь. Из фреймов создаются игры, и это никогда не было более правдоподобным, чем в адском шутере id’s.
В отношении GeForce RTX 3080 есть что отметить — требования к питанию.Все эти безумные возможности не бесплатны — вам понадобится блок питания на 750 Вт, чтобы воплотить этого зверя в жизнь. Если вы годами подключались к этому блоку питания мощностью 550 Вт, сейчас самое время добавить мощности вашим компонентам.
У меня есть одна очень крошечная жалоба на GeForce RTX 3080, и я подозреваю, что другие карты в семействе в настоящее время также имеют эту проблему — они удалили выделенный порт VR. Возможность подключить ключ, чтобы расширить мои соединения Oculus Rift от задней части моей машины, была настоящим благом, и, к сожалению, этого больше нет.Нам будет очень не хватать этого, но игра в VR-игры с частотой кадров, которая не вызывает у меня тошноты, кажется, просто притупляет боль.
Цена к производительности:
В этом нет ничего лишнего, такие карты, как Titan, 2080 Ti и 3090, дорогие. Они представляют собой подход, при котором не нужно беспокоиться о том, должны ли они, а просто могут ли они. Мне нравится такое безумие, потому что оно действительно расширяет границы технологий и инноваций. В прошлом году NVIDIA занимала 81% рынка графических процессоров, и они легко могли бы расслабиться и повторить мощность 2080 года и выпустить более дешевую версию с несколькими новыми прибамбасами.Это не то, что они сделали. Они владели полем и все же пришли с совершенно новой картой, которая взорвала их собственные предыдущие модели из воды. GeForce RTX 3070 обладает большей мощностью, чем 2080 Ti, и стоит 500 долларов по сравнению с более чем 1200 долларов, которые вы потратите, чтобы заполучить короля предыдущего поколения. Точно так же RTX 3080 затмевает все на рынке, даже их Titan RTX, и при цене 699 долларов он делает это способом, который превосходит его и забирает деньги на обед. Мы никогда не видели такого скачка между поколениями, может быть, никогда.Тот факт, что NVIDIA оценила это так, как они это делали, заставляет меня думать, что у них была причина, и я не думаю, что это причина в AMD.
Конечно, я уверен, что зеленая команда обеспокоена тем, как новое поколение консолей может повлиять на их рынок, но как человек, который очень долго работал в сфере технологий, может быть другая причина. Когда вы идете в тематический парк, есть таблички с надписью «Вы должны быть такого высокого роста, чтобы ездить на этой аттракционе», и они находятся там для вашей безопасности. Но безопасность редко бывает забавной или захватывающей.Мы очень давно поддерживаем старые технологии, такие как механические жесткие диски и устаревшие API. Windows 10 вышла пять лет назад, но все еще есть много людей, которые хотят использовать Windows 7. Если не выходить за рамки, инновации подавляются, и это мешает нам осознать то, чего мы могли бы достичь. Время от времени поднимая эту «высокую» планку, чтобы представить новый день и новый путь, мы посылаем потребителям сигнал о том, что пора обновляться, и даем разработчикам мощный сигнал о том, что они могут продвигать свои собственные границы.Именно так мы получаем такие игры, как Cyberpunk 2077, и так мы видим освещение, как в Watch Dogs: Legion. Это то, что ведет нас от этого к этому. Если пришло время поднять планку, Geforce RTX 3080, возможно, поднял ее так высоко, что нам потребуются годы, чтобы наверстать упущенное.
Обладая потрясающей производительностью на всех платформах и невероятным приростом для всего, что поддерживает RTX, GeForce RTX 3080 является техническим чудом. Обладая списком желаемых разработчиками функций и охлаждается более тихой и эффективной системой охлаждения, 3080 обеспечивает разрешение 4K / 60 и многое другое, и делает это без компромиссов.Тот факт, что он также делает это по цене, которую может позволить себе средний человек, делает его лучшим способом насладиться любой игрой, которую вы, возможно, захотите, сейчас и в обозримом будущем.
—Рон Берк
ПРОФИ
- Огромный скачок мощности по сравнению с предшественниками
- Редизайн системы охлаждения стал эффективным и бесшумным
- 4K / 60 + с RTX и DLSS уже здесь
- Мы только прикоснулись к AI
- Невероятно низкая цена
ПРОТИВ
- 10 ГБ видеопамяти кажется немного светлым
- Скучаю по выделенному порту VR уже
Рон Берк — главный редактор Gaming Trend.В настоящее время живущий в Форт-Уэрте, штат Техас, Рон — геймер старой школы, который любит CRPG, боевики / приключения, платформеры, музыкальные игры и недавно увлекся настольными играми. Рон также имеет черный пояс четвертой степени со званием Мастера в Мацумура Сэйто Сёрин-рю, Му Дук Кван Тан Су До, Универсальном Альянсе Тан Су До и Международной Федерации Тан Су До. Он также занимает высокие позиции в нескольких других стилях в своем стремлении стать всесторонним бойцом. Рон женат на редакторе игровых трендов Лоре Берк уже 21 год.У них есть три собаки — Пазузу (ирландский терьер), Ате и Каллиопа (смесь австралийских келпи и питбуля).
Обзор NVIDIA Quadro RTX 4000: графика Turing Powered Pro
Хотя серия GeForce RTX 2000 на основе Тьюринга первой попала на прилавки магазинов, примерно за неделю до их первоначального представления генеральный директор NVIDIA Дженсен Хуанг вышел на сцену и анонсировал семейство графических процессоров класса Quadro RTX для рабочих станций, предназначенных для профессиональных графических приложений. На сегодняшний день серия Quadro RTX состоит из четырех видеокарт, от чудовищной Quadro RTX 8000 с 48 ГБ GDDR6 до Quadro RTX 4000, предназначенной для профессионалов в области создания массового контента.Это позже мы покажем вам здесь сегодня.Если посмотреть на Quadro RTX 4000 в свете некоторых других профессиональных видеокарт NVIDIA, это может показаться довольно ручным решением. Это тонкая и скромная видеокарта, которая занимает всего один слот, с относительно простым квадратным кожухом вентилятора, в котором нет каких-либо диковинных элементов дизайна, за исключением гоночной полосы и некоторого брендинга. Но пусть это вас не вводит в заблуждение — у этой карты есть зубы, как вы увидите чуть позже.
|
NVIDIA Quadro RTX 4000 основана на графическом процессоре Turing TU106, аналогичном GeForce RTX 2060 и RTX 2070.Его графический процессор будет разгоняться до 1545 МГц, и он соединен с 8 ГБ GDDR6 через 256-битный интерфейс с эффективной скоростью передачи данных 13 Гбит / с. При такой скорости карта обеспечивает пиковую пропускную способность памяти до 415 ГБ / с.
По сравнению с основанной на Pascal Quadro P4000, которую он заменяет в основной линейке профессиональных графических процессоров NVIDIA, Quadro RTX 4000 предлагает значительно более высокую производительность по всем направлениям и гораздо большую пропускную способность памяти, а также некоторые дополнительные возможности благодаря кэш-памяти графических процессоров на основе Тьюринга. структура и присущие особенности.Quadro RTX 4000 предлагает больше ядер CUDA (2304 против 1792) и более быструю память в дополнение к ядрам Tensor и RT. Quadro RTX 4000 имеет 288 ядер Tensor и 36 ядер RT, которых просто нет в Pascal (или любой другой архитектуре GPU в настоящее время).
С точки зрения конструкции общая длина Quadro RTX 4000 составляет около 9,5 дюймов, хотя фактическая длина печатной платы составляет лишь около 70% от ее длины. Однослотовый кулер выходит за край графического процессора, а один вентилятор цилиндрического типа находится на дальнем краю.Вентилятор втягивает воздух, обдувает его через тонкие радиаторы, закрывающие графический процессор, оперативную память и VRM, и выпускает его через вентиляцию на другом конце.
За исключением стилизованного рисунка на передней части кожуха вентилятора кулера и формы вентиляционных отверстий, Quadro RTX 4000 имеет общий дизайн, похожий на P4000 предыдущего поколения. Оба они однослотовые, с углами 90 градусов по всему периметру, и короткие печатные платы.
Выходы Quadro RTX 4000 состоят из трех полноразмерных портов DisplayPort (DP1.4) и один разъем VitualLink типа USB-C, который предлагает 4-полосный порт HBR3 DisplayPort и USB 3.1 Gen 2 через один разъем.
Обзор видеокарты GIGABYTE AORUS GeForce RTX 2070 Super
Страница 1 из 18
ВВЕДЕНИЕ
С тех пор, как в середине 90-х я получил первые «3D» карты, такие как Riva 128 от NVIDIA, Voodoo от 3DFX и 3D Rage от ATI, я был очарован трехмерной графикой (кто помнит, как тогда играл в самые первые игры Need For Speed и Command & Conquer?).Перенесемся вперед почти 25 лет спустя, и благодаря нескончаемой конкуренции между AMD (купила ATI еще в 2006 году) и NVIDIA не только видеокарты становятся намного мощнее, но и оснащены впечатляющими технологиями, призванными сделать ваш игровой процесс более увлекательным. такие как FreeSync, G-Sync, трассировка лучей в реальном времени и суперсэмплинг глубокого обучения. Теперь, когда некоторые из вас хорошо осведомлены, я решил прекратить обзоры видеокарт некоторое время назад, но, поскольку многие из вас просили, я решил попробовать еще раз, и сегодня мы начинаем эти усилия, очень внимательно изучив AORUS GeForce RTX. 2070 Super card от GIGABYTE.
GIGABYTE — инженер, дальновидный исследователь и лидер в мире технологий, который использует свой опыт в области аппаратного обеспечения, запатентованные инновации и лидерство в отрасли для создания, вдохновения и развития. Компания GIGABYTE, известная более чем 30-летним опытом работы, отмеченной наградами, является краеугольным камнем в сообществе высокопроизводительных вычислений, предоставляя компаниям опыт в области серверов и центров обработки данных для ускорения их успеха. Находясь в авангарде развивающихся технологий, GIGABYTE стремится изобрести интеллектуальные решения, которые обеспечивают цифровизацию от периферии к облаку и позволяют клиентам собирать, анализировать и преобразовывать цифровую информацию в экономические данные, которые могут принести пользу человечеству и «улучшить вашу жизнь».
Последняя карта GeForce RTX 2070 Super — это ответ NVIDIA на серию RX 5700 от AMD, которая соответствует, а в некоторых случаях даже превосходит производительность предыдущей модели RTX 2070. Чтобы добиться дополнительной производительности, NVIDIA на этот раз использовала урезанную версию графического процессора Turing TU104 (вместо TU106), которая также присутствует в более мощных моделях RTX 2080/2080 Super. Для справки, GeForce RTX 2070 Super имеет в общей сложности 2560 шейдерных блоков, 40 ядер RT, 184 текстурных блока, 320 тензорных ядер и 13.6 миллиардов транзисторов, тогда как предыдущая GeForce RTX 2070 имела в общей сложности 2304 шейдерных блока, 36 RT-ядер, 144 текстурных блока, 288 тензорных ядер и в общей сложности 10,8 миллиарда транзисторов. Частота разгона ядра также различается, поскольку новая GeForce RTX 2070 Super установлена на частоте до 1770 МГц, тогда как GeForce RTX 2070 поставлялась с тактовой частотой ядра до 1620 МГц (всегда для эталонных карт). С другой стороны, вероятно, чтобы сократить расходы, NVIDIA не коснулась конца памяти новых карт, поэтому и RTX 2070 Super, и RTX 2070 имеют 8 ГБ 256-битной памяти GDDR6 со скоростью 14 Гбит / с с пропускной способностью 448 ГБ / с.