а всё же что важнее в видюхе частота ядра или биты?
вот например
Gigabyte PCI-Ex GeForce GTX 660 Ti 2GB GDDR5 (192bit) (1111/6008) (HDMI, 2xDVI, DP) (GV-N66TOC-2GD)
тут частота например вообще шикарная для такой цены но вот бит меньше...
кто может нормально объяснить что к чему что за что отвечает и что должно быть в игровой видюхе. А то сколько в нете не читал инфу, так там говориться что основной является частота, но вот например и знакомого комп, которому уже год так 7, и у него видюха 256мб 256 бит и до сих пор тянет почти все игры новые конечно не на максимуме но тянет же.