Mamy prawie 500 poradników i rankingów oraz około 10 tyś. ocen produktów!

Logo strony Strefa Zakupowa
Rejestruj
Zmień czcionkę:

Jaką kartę graficzną wybrać?

Większość osób myśli o kartach graficznych w kontekście gier komputerowych. Jest to zrozumiałe, gdyż zwykle właśnie tam przeciętny użytkownik w pełni wykorzystuje ich możliwości. Jednak gry to niejedyny obszar zastosowań komputera, który wymaga wydajnych układów graficznych. Obróbka grafiki, renderowanie oraz modelowanie animacji 3D, a także skomplikowane obliczenia naukowe, to kolejne zastosowania wymagające bardzo wydajnych GPU.

Początkowo układy odpowiedzialne za wyświetlanie grafiki były bardzo ubogie w możliwości. Pierwsze z nich umożliwiały tylko i wyłącznie pokazywanie znaków tekstowych ( tryb tekstowy). Kolejne modele dawały możliwość obsługi kolorów, co sprowadza się do manipulacji kolorami poszczególnych pikseli ( tryb graficzny).

Producenci

Nvidia

Spółkę założono w 1993 roku w Stanach Zjednoczonych. Firma zajmuje się produkcją układów scalonych, jednak najbardziej znana jest ze swoich układów graficznych (większość udziału w rynku). Flagowym produktem tej firmy są układy z serii GeForce.

Nazewnictwo modeli GeForce

Druga cyfra w nazwie układu odnosi się do jego wydajności:

  • x1x, x2x, x3x, x4x oraz x5x: modele budżetowe, np. GeForce GT 630
  • x6x oraz x7x: układy średnio wydajne, dedykowane na rynek masowy, np. GeForce GTX 760
  • x8x i x9x: jednostki o najwyższej wydajności, np. GeForce GTX 790

ATI/AMD

ATI Technologies Inc. to czołowy producent kart graficznych na świecie, chociaż w ich ofercie znajdowały się także chipsety do płyt głównych oraz inne układy scalone . Firma powstała w 1985 roku i ma swoją siedzibę w Markham oraz w Ontario (Kanada). W 2006 ATI połączyło się z AMD (jeden z największych producentów procesorów na rynku). Procesory graficzne (GPU) produkowane przez ATI/AMD naszą nazwę Radeon.

AMD Fusion

W 2011 roku AMD wyznaczył nowy trend na rynku kart graficznych. Otóż inżynierowie połączyli (zintegrowali) GPU bezpośrednio z procesorem. Tak powstałe układy firma nazwała APU. W ich ślady poszedł również Intel, ale o tym poniżej.

Intel

Amerykańska spółka powstała w 1968 roku. Intel to największy na świecie producent układów scalonych, który znany jest przede wszystkim z produkcji procesorów. Jednak od 2010 w większości swoich procesorów Intel montuje zintegrowane układy graficzne z serii: Intel HD Graphics, Intel Iris Graphics, Intel Iris Pro Graphics.

Procesor graficzny (GPU)

To podstawowy element każdej karty graficznej. W dużej mierze to właśnie on decyduje o potencjalnych możliwościach całego układu. Jego najważniejszym zadaniem jest dokonywanie skomplikowanych obliczeń mających na celu wygenerowanie grafiki – jak się okaże poniżej od niedawna ma on też inne zastosowania.

Taktowanie procesora graficznego

O możliwościach GPU mówi nam przede wszystkim jego szybkość taktowania wyrażana w Hercach – w praktyce częstotliwości zegara są tak duże, że stosujemy odpowiednie przedrostki np. MHz (milion Herców), GHz (miliard Herców). Im taktowanie będzie wyższe, tym procesor graficzny będzie w stanie efektywniej przetwarzać dane, a tym samym grafika będzie generowana szybciej. Jednak parametr ten może służyć nam do porównywania kart tylko z tym samym GPU. W innym przypadku wyniki będą niemiarodajne.

Obciążenie GPU oraz wydajność

Z pewnością grałeś już w gry wideo i wiesz, że "obraz obrazowi nierówny". W zależności od rozdzielczości generowanych scen, która wpływa na ilość szczegółów oraz od innych dodatkowych parametrów (HDR, cieniowanie, przezroczystość), procesor graficzny jest obciążany w różnym stopniu. O wydajności bardzo dużo powiedzą nam różnego rodzaju benchmarki (programy do testowania wydajności), np. 3dmark 11. Kolejny sposób to sprawdzenie jak szybko karta generuje poszczególne klatki w grach.

Jak sprawdzić ilość klatek?

Większość osób kupuje kartę graficzną z myślą o grach. Komfortowe granie możliwe jest wtedy, gdy karta wyświetli w ciągu sekundy nie mniej niż 25 klatek. Jedną z popularniejszych aplikacji, która umożliwia sprawdzenie tego parametru jest Fraps , który możemy pozyskać na licencji Shareware. Dodatkowo w Internecie jest wiele gotowych testów, które pokazują jak konkretne modele karty spisują się z danymi grami (maksymalna, minimalna oraz średnia ilość klatek / sekundę).

Fraps - Post Apocalyptic Mayhem

Ilość klatek w grze Post Apocalyptic Mayhem zmierzona programem Fraps

Jeden GPU różni producenci

Produkcja kart przebiega w dosyć specyficzny sposób. Firmy NVIDIA oraz ATI wytwarzają „jedynie” procesory graficzne oraz obwody drukowane (płytka PCB). Natomiast pozostałe komponenty oraz ich parametry pozostają w gestii zewnętrznych firm, np. Asus, Gainward, Gigabyte, Palit. Dlatego na rynku spotkamy układy z tym samym procesorem graficznym, np. GTX780, które będą się różnić taktowaniem GPU, taktowaniem pamięci oraz jej pojemnością, a także zastosowanym chłodzeniem – różnice te nie są jednak duże, bo każdy producent spotka się z tymi samymi ograniczeniami narzuconymi przez ten samy GPU. Przykład poniżej dla GTX780:

ModelTaktowanie GPUTaktowanie pamięciPojemność pamięciChłodzenie
Asus STRIX-GTX780-OC-6GD5889 MHz 6008 MHz 6144 MBaktywne
Gigabyte GV-N780OC-3GD900 MHz6008 MHz 3072 MBaktywne
Palit NE5X780T10FBJ1033 MHz 6200 MHz 3072 MBaktywne

Czym są shadery?

Podstawową metodą w grafice 3D, mającą na celu pokazanie możliwie realistycznych scen jest teksturowanie. Proces ten polega na nakładaniu na trójwymiarowe obiekty tekstur (obrazy bitmapowe). Jednak oddawany w ten sposób realizm na swoje ograniczenia. Dlatego też, aby generowany obraz był jeszcze bardziej realistyczny opracowano tak zwane shadery (cienie).

Shaderami nazywamy niewielkie programy komputerowe, które mają za zadanie określać właściwości wierzchołków oraz pikseli. Układy graficzne z shaderami, to po prostu karty graficzne sprzętowo wspierające obsługę shaderów.

Cieniowanie umożliwia zdecydowanie bardziej zaawansowane modelowanie materiału oraz oświetlenie obiektu niż to ma miejsce w zwykłym teksturowaniu. Jednym z pierwszych desktopowych układów graficznych ze wsparciem dla shaderów był GeForce 3, który został wypuszczony na rynek na początku 2001.

Efekty dzięki cieniowaniu

Oświetlenie HDR

Technika pozwalająca na rendering świata z bardzo realistycznym oświetleniem przy wykorzystaniu szerszej jasności oświetlenia, niż ma to miejsce normalnie. Przykładem może być efekt oślepiania podczas patrzenia na Słońce.

efekt hdr w grze  Half-Life 2

Efekt HDR w grze Half-Life 2: Lost Coast

Źródło www.pl.wikipedia.com

Mapa przemieszczeń

Teksturę nakłada się na siatkę wielokątów, a teksele (najmniejsze punkty tekstury) wyznaczają odległość na jaką wierzchołki siatki mają być przemieszczone.

pokazano tutaj mapę przemieszczeń

Mapa przemieszczeń

Źródło www.en.wikipedia.com

Refrakcja

Shadery umożliwiają tutaj bardzo realistyczne pokazanie refrakcji (zjawisko załamania fali, kiedy przechodzi ona przez dwa ośrodki, np. powietrze – woda).

Zaszumienie obrazu, jego rozmycie, zmiana kolorów

Ponadto, przy wykorzystaniu technologii cieniowania sprzętowego, możliwe są do uzyskania takie efekty jak: zmiana kolorów poszczególnych pikseli, rozmycie obrazu czy także jego zaszumienie.

Rodzaje cieniowania

  • Pixel Shader (cieniowanie pikseli)
  • Vertex Shader (cieniowanie wierzchołkowe)
  • Geometry Shader (cieniowanie geometryczne)
  • Stream Processors / Unified shader (pełnią funkcję zarówno cieniowania pikseli jak i cieniowania wierzchołków)

Cieniowanie pikseli (Pixel Shader)

Jednostka ta ma za zadanie wyliczanie kolorów poszczególnych pikseli. W jaki sposób to robi? Dzięki sterowaniu kolorem pikseli za pomocą specjalnie do tego celu napisanych programów (shaderów). Na chwilę obecną większość zaawansowanych efektów graficznych może być wykonana właśnie dzięki tym niewielkim programom przypisanym do konkretnego piksela.

Wersje cieniowania pikseli

Od początku powstania pierwszego, sprzętowo wspieranego cieniowania pikseli upłynęło już kilkanaście lat. Od tego momentu powstało już kilka, a dokładniej 5 wersji Pixel Shader. Obecnie najnowsza z nich, to wersja 5.0, którą wspiera biblioteka DirectX 11 oraz OpenGL 4.1.

Cieniowanie wierzchołkowe

Ten rodzaj cieniowania odpowiada za przetwarzanie wierzchołków wielokątów. Dokładniej chodzi tutaj o transformowanie położenia takiego wierzchołka z przestrzeni 3D do współrzędnych w przestrzeni 2D. Vertex Shader operuje na takich atrybutach wierzchołka jak: współrzędne tekstur, kolory oraz położenie. Cieniowanie wierzchołkowe nie daje jednak możliwości tworzenia nowych wierzchołków. Zakończenie etapu cieniowania wierzchołkowego jest początkiem dla kolejnego procesou, tj. albo cieniowania geometrycznego, albo rasteryzacji.

Wersje cieniowania wierzchołków

Tutaj podobnie jak w przypadku cieniowania pikseli mamy do czynienia z 5 generacjami Vertex Shader. Ostatnia z nich, to 5.0. Wersję tą wspierają DirectX 11 oraz OpenGL 4.1.

Cieniowanie geometryczne

Z tą technologią karty graficzne, a dokładniej ich GPU, potrafią usuwać bądź dodawać wierzchołki do siatki wierzchołków. Konkretniej, cieniowanie wierzchołków wykorzystywane jest do tworzenia proceduralnego obiektów geometrycznych, a także do powiększania objętościowych detali w przypadku istniejącej już siatki wierzchołków. Wsparcie dla tej technologii rozpoczęło się od wersji 10 DirectX oraz od wersji 3.1 biblioteki OpenGL.

Stream Processors / Unified shader

Od momentu wydania biblioteki DirectX w wersji 10 zniknął podział na cieniowanie pikseli oraz oraz cieniowanie wierzchołkowe. Obecnie GPU wyposaża się w jednolite jednostki, które w zależności od potrzeb wykonują obliczenia związane z cieniowaniem wierzchołkowym lub cieniowaniem pikseli. nVidia jednostki te nazywa Unified Shaders, a ATI/AMD zwie je Stream Processors.

Inne technologie

Współczesne karty graficzne wspierają wiele technologii, które zwiększają realizm generowanej grafiki:

  • PhysX - technologia pozwalająca na dokładne odwzorowanie zachowań obiektów na wzór świata fizycznego. Umożliwia określenie skutków oddziaływań pomiędzy obiektami poprzez wcześniejsze zdefiniowanie ich prędkości, masy oraz przyspieszenia. Technologia ta bierze pod uwagę również np. grawitację
  • GPGPU - umożliwia wykorzystanie kart graficznych w zupełnie nowym obszarze. Otóż dzięki GPGPU układ graficzny może być wykorzystywany do przeprowadzania skomplikowanych obliczeń (przede wszystkim równoległych). Co ciekawe wiele obecnie produkowanych superkomputerów działa w oparciu o GPU obsługujące GPGPU.
  • Full Scene Anti-Aliasing - technologia pozwalająca na wygładzenie krawędzi (pozbywanie się charakterystycznych schodków)
    Porównanie - bez antyaliasingu oraz z antyaliasingiem

    Porównanie - bez antyaliasingu oraz z antyaliasingiem

  • Efekty cząsteczkowe - umożliwiają odwzorowanie takich zjawisk, jak np.: deszcz, śnieg, pył oraz dym
  • Filtrowanie anizotropowe - poprawia jakość obiektów znajdujących się w znacznej odległości od obserwatora (kamery) – zwłaszcza tych umieszczonych pod niewielkimi kątami

Karta dedykowana czy zintegrowana?

Grafika zintegrowana to ta na stałe związana z płytą główną (coraz rzadsze rozwiązanie) lub procesorem - większość procesorów na rynku wyposażonych jest w takie rozwiązanie.

Z kolei grafika dedykowana jest oferowano w postaci zewnętrznego modułu, który wpinamy w specjalne gniazdo na płycie głównej (PCI Express). W razie konieczności taką kartę możemy wymienić na inną – trzeba jednak wziąć pod uwagę kilka dodatkowych czynników, takich jak: wersja złącza PCI-E, moc zasilacza oraz wydajność pozostałych podzespołów, a zwłaszcza procesora.

Różnica nie sprowadza się tutaj bynajmniej tylko do rodzaju połączenia (na stała lub modułowe), ale również, a może przede wszystkim, do wydajności. Karty dedykowany dysponują zwykle zdecydowanie większą mocą obliczeniową, dlatego przystosowane są do uruchamiania gier komputerowych, przetwarzania animacji 3D lub renderingu. Natomiast grafika dedykowana z racji mniejszej wydajności nie poradzi sobie z takimi zastosowaniami. Jednak znakomicie sprawdzi się w typowo domowych zastosowaniach – Internet, filmy HD, programy biurowe, obróbka grafiki 2D oraz proste gry.

Pamięć wideo

Przechowuje szeroko pojęte dane na temat obrabianego obrazu.

Pojemność pamięci

Pojemność pamięci jest istotna, ale niektórzy przeceniają ten parametr. Jej duża ilość wymagana jest w sytuacji, gdy będziemy przetwarzać grafikę w w dużych rozdzielczościach (gry, obróbka grafiki, renderowanie).

Rodzaj pamięci

Obecnie w kartach graficznych wykorzystujemy 5 rodzajów pamięci. Jednak tak naprawdę, to obecnie w grę wchodzą układy tylko z pamięcią GDDR. Z rodzajem pamięci łączą się takie parametry jak szybkość taktowania oraz przepustowość. Im te parametry będą wyższe tym lepiej.

Typ pamięciCzęstotliwość taktowania (MHz)Przepustowość pamięci (GB/s)
DDRod 200 do 400od 1.6 do 3.2
DDR2od 400 do 1066od 3.2 do 8.5
DDR3od 700 do 2000od 6.4 do 12.8
GDDR4od 1600 do 3200od 12.8 do 25.6
GDDR5od 3500 do ?od 28 do ?

Szyna pamięci

Szerokość szyny pamięci jest istotna i wpływa bezpośrednio na szybkość przesyłania danych w układzie graficznym. Szerokość szyny pamięci wyrażamy w bitach. Obecnie minimum to 256 bitów. Najwydajniejsze układy posiadają szynę nawet 512 bitową.

Kilka kart w jednym komputerze

Czy możliwe jest umieszczenie w komputerze nie jednaj, a kilku kart? Okazuje się, że tak. NVIDIA technologię tą nazywa SLI, natomiast AMD/ATI zwie ją CrossFire (CrossFireX).

W zależności od wersji SLI (CrossFire) możemy połączyć 2, 3 lub 4 karty graficzne. Musimy jednak dysponować odpowiednią płytą główną.

Wbrew pozorom rozwiązanie to jest dosyć stare, bo zaprezentowano je już w 1998 roku (połączono dwie karty Voodoo 2). Mimo tego pomysł ten zniknął na kilka lat, by pojawić się znowu w 2004 roku pod nazwą 2-Way SLI.

Współpraca kilku układów graficznych oznacza bardzo duży przyrost wydajności.

Rodzaje chłodzenia

Karta graficzna, to bardzo skomplikowane układy wytwarzające dużo ciepła podczas swojej pracy - głównie chodzi tutaj o sam procesor (GPU) oraz pamięć. Dlatego niezwykle ważne jest odpowiednie chłodzenie układu, zwłaszcza gdy w przyszłości myślimy o przetaktowaniu karty graficznej (zwiększenie częstotliwości zegara GPU lub/i pamięci).

Aktywne

Ostatnio w dużej mierze mamy do czynienia z chłodzeniem aktywny. Działa ono w ten sposób, iż bezpośrednio na GPU montuje się radiator, a na nim wentylator. GPU oddaje część ciepła radiatorowi, ten ogrzewa powietrze znajdujące wokół niego, a wentylator "wysysa" to powietrze na zewnątrz. Tak więc w przypadku chłodzenia aktywnego występuje zarówno radiator jak i wentylator. Plus tej metody, to duża wydajność chłodzenia. Minusem natomiast możliwa głośna praca takiego układu.

Pasywne

W chłodzeniu pasywnym mamy do czynienia z samym radiatorem, który przejmuje część ciepła z GPU, a dzięki stosunkowo dużej powierzchni oddaje go do otoczenie. Między procesorem, a radiatorem zwykle znajduje się tzw. pasta termoprzewodząca, która ułatwia oprowadzanie ciepła z procesora. Rozwiązanie to nie powoduje wydzielania hałasu. Minus natomiast, to mała efektywność. Ten typ chłodzenia sprawdzał się w układach o obniżonym taktowaniu.

Chłodzenie wodą

Spotykanym również rozwiązaniem jest chłodzenie za pomocą wody. Rozwiązanie to jest bardzo wydajne, a ponadto nie wydziela żadnego hałasu (czasami niewielkie syczenie pompy). Do chłodzenia wodą zwykle stosujemy następujące elementy: zbiornik wyrównawczy (rezerwuar), blok wodny (zwykle miedziany lub aluminiowy, który montujemy na samym procesorze graficznym i doprowadzamy dwa węże - jeden odprowadzający, a drugi doprowadzający wodę), chłodnicę oraz pompę. Ten typ chłodzenia jest najdroższym, ale najbardziej efektywnym wariantem - stosuje się go praktycznie tylko w przypadku stosowania overclockingu (przetaktowania).

Moc zasilacza

Współczesne karty graficzne, to obok procesorów podzespoły komputera pobierające najwięcej mocy. Dlatego szczególnie istotnym jest dobór zasilacza, który będzie w stanie wytworzyć odpowiednią ilość mocy. W specyfikacjach karty zwykle podaje się jej zapotrzebowanie na moc.

Rodzaje złącz

Obecnie każde desktopowe układy graficzne wyposaża się w wiele rodzajów złącz, które umożliwiają komunikację z różnymi urządzeniami – poza monitorami mogą to być telewizory, kamery, projektory itd.

ZłączeUwagiZdjęcie
DVI
DVI-I
Przysyłany jest tym łączem zarówno sygnał cyfrowy, jak i również analogowy. Dlatego oprócz monitorów, które przetwarzają sygnał cyfrowy (LCD), możemy podłączyć również monitor analogowy (trzeba tylko zastosować specjalną przejściówkę na złącze D-Sub).
Schemat DVI-I (single link i dual link)
DVI-D
Złączem tym mamy możliwość przesłania tylko i wyłączenie sygnały cyfrowego, a więc podłączymy za jego pomocą tylko monitor przetwarzający sygnał cyfrowo (LCD). Czasami tym złączem możemy przesłać również dźwięk, jednak jest to niezgodne ze standardem (wykorzystamy wtedy wolne piny).
Schemat DVI-D (single link i dual link)
DVI-A
Ten rodzaj złącza daje możliwość przesłania tylko sygnału analogowego. Podłączymy więc do niego np. monitor kineskopowy.
Schemat DVI-A
D-Sub (DE-15F)Wykorzystywane jest do łączenia karty z monitorem analogowym (CRT). Również wykorzystywane do łączenia starszych paneli LCDZłącze d-sub stosowane w karcie graficznej (również jako VGA)
S-VideoZa pomocą tego złącza możemy podłączyć telewizor do naszego komputera. Przesyła ono odseparowany sygnał luminancji (jasność) oraz chrominancji (kolory). Zwykle występuje jako wtyczka typu mini-DIN z czterema pinami, ale spotykane są również 7 pinowe wtyczki S-Video. Często złącze opisane jest jako TV Outs-video w grafie
VIVOGniazdo to montuje się w niektórych kartach graficznych. Przy wykorzystaniu tego złącza możliwe jest przesyłanie sygnału wizji zarówno z komputera jak i do komputera. Zwykle spotykamy je w postaci 9 pinowego gniazda miniDIN, do którego dołączono rozgałęźnik. Ten interfejs znajdziemy w kartach z "górnej półki". Zwykle obsługuje takie standardy jak: S-Video, komponentowe oraz kompozytowe - na wyjściu. Natomiast na wejściu mamy do czynienia zwykle ze standardami: S-Video oraz kompozytowym. Obsługa obrazu wideo na wejściu wymaga specjalnego oprogramowania. Podstawowymi zastosowaniami dla tego łącza są:
  • Poprzez podłączenie odtwarzacza DVD do komputera, możemy wykonać zapasową kopię multimediów (filmy, muzyka)
  • Oglądanie filmów, muzyki, zdjęć z odtwarzacza DVD, kamery lub magnetowidu
  • Można podłączyć konsole do gier do komputera
złącze VIVO
Composite (RCA)Popularnie zwane jest cinchami. Przesyłany jest nim tzw. sygnał zespolony. Umożliwia podłączenie telewizora (sygnał jest analogowy). Standard powoli wypieranyWejście composite
Gniazdo zasilania typu MolexStosowane w kartach z interfejsem AGP (praktycznie wyszedł z użycia – spotykany w starych kartach).Złącze typu molex

Najlepsze opinie ↑

+9[9]
MArcin 11 lat temu
Dyskusje PC a konsola to nie są fajne tematy :) Ja mam od ponad 2 lat procesor AMD PHENOM II 955 i do dziś nie potrzebuje lepszego a gram w gry typu BF 3 itp.Ale to zależy od konfiguracji PC bo moja karta grafiki już przewyższa konsole a mam GF 560 GTX. Do tego PS3 nie ma dokładnego wygładzania krawędzi pomimo, że w systemie znajduje się taka opcja. Wiem bo mam PS3 i często porównuję grafikę. Zresztą w internecie porównawczych filmików jest od cholery.
Oczywiście minusem PC są.. twórcy gier. Gdyby tylko optymalizacja była bardzo dobra to tak naprawdę nie trzeba by było kupować coraz lepszych kart graficznych. No ale przecież NVIDIA i AMD muszą z czegoś żyć :) To samo tyczy się programów. Adobe premiere pro CS 6 renderuje mi dany film np 6 minut a ten sam filmik program CYBERLINK POWER DIRECTOR renderuje mi 2 minuty, oczywiście ta sama rozdzielczość i format.
http://www.wykop.pl/link/1210233/nowa-era-grafiki-komputerowej-jakosc-fotograficzna-w-czasie-rzeczywistym/
Odpowiedz
+1[3]
Madagaskar 11 lat temu
Wydajna grafika to podstawa, jeżeli myślimy o grach komputerowych. Szkoda jednak, że wymagania gier tak szybko rosną. Tak naprawdę, to sprzęt kupiony dzisiaj, i to nawet w kontekście całego zestawu komputerowego, nie radzi sobie już z wymagającymi aplikacjami po upływie około 2 lat. Dlatego też do gier polecałbym raczej konsolę. Sam posiadam średnio wydajny komputer do internetu, za który dałem około 1 tyś. zł, a do gier używam konsoli. Wbrew pozorom, to bardziej oszczędne podejście, niż ciągłe dokupywanie poszczególnych podzespołów, bo obraz "klatkuje".

I nie dajcie sobie wmówić w sklepie, że tylko super wypasiony zestaw poradzi sobie z dzisiejszymi aplikacjami. Obecnie dostępne zestawy z niższej półki doskonale dadzą sobie radę z Internetem, aplikacjami biurowymi, czy filmami.
Odpowiedz
+3[3]
Manitu 11 lat temu
Pomiędzy poszczególnymi premierami Sony PlayStation upływało około 6 lat, a jak wiadomo w świecie nowych technologii to przepaść. PS 3 np. ukazała się w Europie w 2007 roku. Powiedz mi jak wyglądają gry tworzone dla sprzętu sprzed 6 lat? Czy jest w nich tak dużo detali jak, w tych obecnie tworzonych dla PC? Powiem tak, wykorzystywanie komputera do gier ma jak najbardziej sens. Co prawda wymaga to wymiany co jakiś czas podzespołów (2 - 3 lata),a zwłaszcza karty graficznej, ale będziesz dzięki temu cieszył się zdecydowanie większą ilością efektów wizualnych w grach.
Odpowiedz

Dodaj opinię o poradniku


Wyślij
Anuluj
Informujemy, iż wprowadzone przez Ciebie dane osobowe w powyższym formularzu komentarza będą wykorzystywane tylko w celu publikacji Twojej wypowiedzi na niniejszej stronie. Więcej informacji w polityce prywatności.