Jak zmieniały się chłodzenia kart graficznych na przestrzeni lat?

Rozwój metod chłodzenia do GPU to często pomijany aspekt w opowieściach o kartach graficznych. Gdyby jednak nie rozwój sposobów na odprowadzanie temperatury, dzisiejsze GPU wyglądałyby całkiem inaczej.

tech
Kamil Cuber30 października 2024
4

W obecnych czasach, kiedy myślimy o chłodzeniu kart graficznych mamy zazwyczaj na myśli standardowy układ wyposażony w radiator oraz 2 lub 3 wentylatory. Jednak nie zawsze tak było. Początkowo karty nie posiadały żadnej formy aktywnego chłodzenia, a nawet nie były wyposażone w radiator. Dodatkowo, jak w przypadku rozwoju każdego rodzaju produktów, technologia zaliczyła kilka ślepych uliczek. Warto jednak zacząć od początku.

Decydując się na zakup karty graficznej większość graczy bierze pod uwagę jej specyfikację. Nie ma się co dziwić, to właśnie od tego może zależeć jej wydajność. Część osób sprawdza także producenta. Niektórzy z nich oferują przy zakupie różne promocje lub mogą zapewniać dłuższą gwarancję na sprzedawane podzespoły. Niewiele jednak osób sprawdza karty graficzne pod kątem chłodzenia. A może być to kluczowa kwestia dla stabilności pracy układu. Przez lata producenci testowali wiele różnych rozwiązań. Jak w przypadku wszelkich wynalazków, tak również chłodzenia przeszły długą drogę ewolucji, od prostych pasywnych radiatorów, po modele chłodzone cieczą lub ciekłym azotem. Dzisiaj chciałbym zapoznać Was z ich interesującą historią. Zacznijmy więc od początku.

Pierwsze akceleratory graficzne i radiatory

Za pierwszą kartę, zwaną wtedy akceleratorem graficznym, uznaje się układ VooDoo (później znany jako VooDoo 1) przygotowany przez firmę 3Dfx. Pozwalał on na generowanie grafiki 3D i wymagał połączenia z dodatkowym chipem zajmującym się obsługą obrazów 2D. Niemniej jak na swoje czasy oferował niesamowite osiągi dla zwykłego użytkownika.

Co może Was zaskoczyć na samym początku VooDoo nie posiadał żadnego chłodzenia. Układ ten nie generował olbrzymich ilości ciepła, więc mógł bezpiecznie pracować bez niego. Tyle, że inni producenci kart nie pozostali bierni. Niektóre modele zostały później wyposażone w radiatory, pasywne elementy służące do odprowadzania ciepła. Przykładem tego może być choćby VillageTronic MacMagic VooDoo 8MB. Takie rozwiązanie było już od dawna znane. Niestety obecnie ciężko ustalić kto mógł jako pierwszy je zastosować na akceleratorze graficznym.

Jedna z najładniejszych kart VooDoo, VillageTronic MacMagic VooDoo 8MB. Źródło: Vogons. - Jak zmieniały się chłodzenia kart graficznych na przestrzeni lat? - wiadomość - 2024-10-30
Jedna z najładniejszych kart VooDoo, VillageTronic MacMagic VooDoo 8MB. Źródło: Vogons.

Wracając do samych radiatorów. Najczęściej przyjmowały one formę bloków, na których powierzchni znajdowały się piny lub tak zwane żebra. Taka konstrukcja zwiększa powierzchnię radiatora, co znacznie usprawnia wymianę cieplną. Najczęściej wykonane były one z metalu lub stopu.

Co ciekawe na samym początku nie były one w żaden sposób dokręcane do akceleratorów. Zamiast tego producenci decydowali się na znacznie prostsze rozwiązanie i przyklejali bezpośrednio radiator do procesora, a dzięki temu że były one dość małe, to ryzyko odpadnięcia było niewielkie.

Warto przy tym wspomnieć, że choć obecnie na rynku kart królują jedynie trzy firmy (Nvidia, AMD oraz Intel), tak w początkowej fazie rozwoju było ich znacznie więcej. Niestety przedsiębiorstwa często bankrutowały lub były przejmowane przez większych graczy na rynku. Dobrym tego przykładem jest firma ATI, która została przejęta przez AMD. Obecnie kojarzone z „czerwonymi” układy z serii Radeon, zostały przez nich „odziedziczone”. Ciężko więc ustalić, które układy jako pierwsze posiadały poszczególne rozwiązania.

Chłodzenia aktywne

Wraz z rozwojem akceleratorów graficznych szybko się okazało, że pasywne chłodzenia są niewystarczające. Dlatego producenci zaczęli coraz częściej korzystać z wentylatorów. Podobnie jak w przypadku radiatorów, na początku były one niewielkie. Najczęściej montowano je tuż nad chłodzeniem pasywnym, które dzięki dodatkowemu ruchowi powietrza mogło znacznie lepiej rozpraszać ciepło. Przez dłuższy czas takie rozwiązanie było wystarczające, choć producenci eksperymentowali nad innymi konstrukcjami.

Chłodzenia blow-out

Powolna ewolucja rozpoczęła się dopiero w 2003 roku kiedy to na rynku zadebiutował FX 5800 Ultra. Karta ta jak na swoje lata oferowała dość średnią wydajność. Dodatkowo jak możemy dowiedzieć się z recenzji, to jej wadą były wysokie temperatury. Do ich obniżenia, konieczne więc było wykorzystanie odpowiedniego chłodzenia. Wtedy to duża część producentów postawiła na nowe rozwiązanie, konstrukcje typu blow-out (blower). Takie chłodzenia pozwalały na wydmuchiwanie poza obudowę nagrzanego powietrza. Wcześniej mogło ono pozostawać w środku komputera, jeśli użytkownik nie korzystał z dodatkowych wentylatorów. Wartą uwagi konstrukcją jest GeForce FX 5800 Ultra stworzony przez Nvidię, którego chłodzenie było dość wyjątkowe.

Referencyjny RX 5800 Ultra. Źródło: Anand.
Referencyjny RX 5800 Ultra. Źródło: Anand.

Jak możemy zauważyć na powyższym zdjęciu omawiany model posiada dwa wyprowadzenia na bok karty. Dzięki temu powietrze było pobierane spoza obudowy i w taki sam sposób wypychane. Niestety takie rozwiązanie nie wypadło zbyt dobrze. Według recenzji pomimo mocnego jak na tamte czasy chłodzenia, karta wciąż mocno się grzała. Dodatkowo cały układ generował bardzo duży hałas. Według portalu Anand mogło być to nawet 77 dB, czyli poziom głośności przypisywany pobytowi w wypełnionej restauracji lub darcie papieru w naszym pobliżu.

Wczesne eksperymenty

Choć rynek powoli szedł powoli w kierunku znanych nam dobrze ochłodzeń, jednak niektórzy producenci obierali inne kierunki rozwoju. W wyniku ich prac powstawały dość… nietypowe modele, które niestety najczęściej odchodziły w zapomnienie lub znajdowały się na listach najbardziej paskudnych kart. Dobrym tego przykładem może być model GeForce FX 5900 przygotowany przez MSI. Ta masywna karta posiadała dwa potężne radiatory oraz wentylatory. Co zaskakujące nie były one standardowo zamontowane na przodzie karty, ale zamiast tego firma postanowiła jeden z nich przenieść na jej tył. Z dostępnych opisów możemy dowiedzieć się, że taka konstrukcja mogła powodować kilka problemów. Do najważniejszych możemy zaliczyć utrudniony montaż w niektórych obudowach. Należy zaznaczyć, że karta świetnie radziła sobie z odprowadzaniem ciepła i dodatkowo nie generowała zbyt dużo hałasu.

Warto również wspomnieć o konstrukcjach wyposażonych w kilka wentylatorów. Choć obecnie są one standardem, tak kiedyś nie wszyscy producenci stosowali takie rozwiązania. Największym jego minusem jest wysoki koszt. Zazwyczaj dużo bardziej opłaca się zamontować pojedynczy układ chłodzenia. Dodatkowo kilka wentylatorów może być bardziej awaryjne. Ciekawymi modelami kart, które korzystały z kilku wentylatorów może pochwalić się firma Albatron, niestety producent ten dość szybko porzucił produkcję podzespołów komputerowych. Niektóre z nich może zobaczyć poniżej:

FX 5700 Ultra oraz FX 5950 Ultra przygotowane przez firmę Albatron. Źródło: Guru3D. - Jak zmieniały się chłodzenia kart graficznych na przestrzeni lat? - wiadomość - 2024-10-30
FX 5700 Ultra oraz FX 5950 Ultra przygotowane przez firmę Albatron. Źródło: Guru3D.

Ewolucja radiatorów

Wcześniej omówiłem jak rozwijały się wentylatory w kartach graficznych. Jednak nie tylko one przeszły swoją ewolucję. Tak samo było w przypadku radiatorów. Choć mogłoby się wydawać, że jest to dość prosty element, który nie ma zbyt wielu opcji rozwoju. To jednak producentom udało się go znacznie ulepszyć. Jedną z pierwszych dużych zmian dotyczyła konstrukcji żeber. Początkowo wykonywano je w formie stożków, co dobrze widać na przykładzie karty Voodoo 3 2000 PCI. Z biegiem lat producenci postawili na podłużne żebra. W takim przypadku zmniejszała się powierzchnia wymiany cieplnej. W zmian dużo łatwiej było przez nie przepuszczać powietrze.

Ciepłowody

Duży wpływ na rozwój radiatorów miała nieistniejąca już firma ABIT, która jako jedna z pierwszych wykorzystała ciepłowody w ramach systemu Outside Thermal Exhaust System (OTES). Możecie się zastanawiać, po co w ogóle dodawać je do chłodzenia skoro same metale dobrze sobie radzą z przewodzeniem ciepła? Otóż pozwalają one na odsunięcie radiatora od gpu, co daje więcej możliwości. Same ciepłowody są wykonywane z metalu, a w ich środku może znajdować się amoniak, aceton, woda, eter dietylowy lub jakiś rodzaj chlorofluorowęglowodoru (CFC). Pod wpływem ciepła ciecz odparowuje i przelatuje przez rurkę. Po drodze ciepło jest oddawane, a gaz skrapla się i wraca z powrotem. Dzięki temu możliwe jest łatwe przenoszenie ciepła z jednego punktu do drugiego. Dodatkowo proces ten można w teorii powtarzać w nieskończoność ze względu na szczelność rurek. Poniżej możecie zobaczyć FX-a 5900 produkowanego przez firmę ABIT wyposażonego w system OTES:

Jedna z pierwszych kart korzystających z ciepłowodów. Źródło: Reddit. - Jak zmieniały się chłodzenia kart graficznych na przestrzeni lat? - wiadomość - 2024-10-30
Jedna z pierwszych kart korzystających z ciepłowodów. Źródło: Reddit.

Ciepłowody pozwoliły także na budowę bardziej wymyślnych ochłodzeń. Dobrym tego przykładem jest model EAX1300 Pro Silent od Asusa. Został on wyposażony przez producenta w dość nietypowe rozwiązanie, a mianowicie składane chłodzenie pasywne. Ciepło w tym układzie było przekazywane właśnie przez ciepłowód poprowadzony z boku karty.

EAX1300 ze składanym chłodzeniem pasywnym. Źródło: Wikipedia. - Jak zmieniały się chłodzenia kart graficznych na przestrzeni lat? - wiadomość - 2024-10-30
EAX1300 ze składanym chłodzeniem pasywnym. Źródło: Wikipedia.

Chłodzenia wodne

Mogłoby się wydawać, że chłodzenia wodne są dość nowym wynalazkiem. W końcu kiedyś układy generowały znacznie mniej ciepła. Jednak jest to mylne wrażenie. Niestety obecnie ciężko jest znaleźć informacje jaka firma jako pierwsza zastosowała chłodzenie wodne na karcie graficznej. Osobiście udało mi się dotrzeć do jednego modelu, który swoją premierę miał w… 2004 roku. Dokładniej chodzi o kartę CoolFX Powerpack! Ultra/2600 przygotowaną przez firmę Gainward. Model ten został wyposażony w naprawdę potężny blok wody, które znakomicie radził sobie z odprowadzaniem ciepła. Jednak takie rozwiązanie nie rozpowszechniło się ze względu na cenę. Według dostępnych informacji karta miała być dostępna za około 4 tysiące złotych, co na tamte czasy było astronomiczną kwotą.

Jedno z pierwszych chłodzeń wodnych przygotowane przez firmę Gainward. Źródło: Hexus.
Jedno z pierwszych chłodzeń wodnych przygotowane przez firmę Gainward. Źródło: Hexus.

Już dwa lata później firmie Sapphire udało się stworzyć podobne rozwiązanie jednak o wiele tańsze. W modelu Radeon X1900 XTX Toxic wykorzystali oni chłodnicę podłączoną do osobnego chłodzenia znajdującego się w osobnym slocie PCIe. Można powiedzieć, że to jeden z prekursorów współczesnych modeli AiO.

Karta przygotowana przez Sapphire. Źródło: Gaming Nexus.
Karta przygotowana przez Sapphire. Źródło: Gaming Nexus.

Pasjonaci i producenci niestandardowych metod chłodzenia

Wspominając historię sposób chłodzenia kart graficznych nie można zapomnieć o zwykłych użytkownikach. Choć obecnie na rynku ciężko znaleźć niestandardowe układy, to wcześniej było to dość popularne. Gracze często sami modyfikowali posiadane karty, aby wycisnąć z nich jak najwięcej. Niektóre firmy także dostrzegły okazję i zaczęły oferować własne modele. Często były one o wiele wydajniejsze niż standardowe chłodzenia co mogło kusić entuzjastów podkręcania podzespołów. Jednym z przedsiębiorstw, które posiadał w swojej ofercie układy do chłodzenia GPU był Zalman. Poniżej możecie zobaczyć model VF3000F dopasowany pod GTX-a 580.

Chłodzenie VF3000F przygotowane przez firmę Zalman. Źródło: Techgage. - Jak zmieniały się chłodzenia kart graficznych na przestrzeni lat? - wiadomość - 2024-10-30
Chłodzenie VF3000F przygotowane przez firmę Zalman. Źródło: Techgage.

Czemu jednak obecnie nie są one tak popularne? Przyczyn może być wiele. Na pewno na ich popularność wpłynął fakt, że producenci kart sami zaczęli pracować na nowymi metodami obniżania temperatur. Najwięksi giganci na rynku mają obecnie w swojej ofercie wiele kart o całkowicie odmiennej konstrukcji chłodzenia. Dodatkowo budowa kart stawała się coraz bardziej skomplikowana i mogły różnić się umiejscowieniem niektórych elementów. Co na pewno nie ułatwiało projektowania niestandardowych układów. Z tego samego powodu również gracze mogli mieć problemy z wymianą chłodzenia. Nie można też zapomnieć o gwarancji, która w przypadku demontażu oryginalnego układu po prostu przestaje obowiązywać.

Komora parowa

Kolejny przełom nastąpił dopiero w 2006 roku. Wtedy to firma Sapphire postanowiła odejść od stosowanych do tej pory ciepłowodów. W modelu HD 3870 ATOMIC przedsiębiorstwo po raz pierwszy zastosowało rewolucyjne rozwiązanie – komorę parową. Wcześniej były one montowane na chłodzeniach CPU. Możecie się jednak zastanawiać czym w ogóle jest komora parowa? W dużym uproszczeniu można ją porównać do płaskiego ciepłowodu. Jest to metalowy element, ze znajdującymi się w środku kanałami, wypełniony cieczą. Tak samo jak w przypadku ciepłowodu w trakcie nagrzewania następuje odparowanie płynu, który po drodze do chłodniejszego miejsca skrapla się i opada. Największą różnicą w tym przypadku robi kształt.

Do zamontowania ciepłowodu na chłodzeniu zazwyczaj konieczna jest podstawa, która utrudnia wymianę cieplną. W przypadku komory parowej, przylega ona bezpośrednio do GPU. Dzięki temu można uzyskać dużo lepsze rezultaty oraz zmniejszyć różnice temperatur w poszczególnych punktach chłodzenia.

Rewolucyjny HD 3870 ATOMIC od firmy Sapphire. Źródło: Techpowerup. - Jak zmieniały się chłodzenia kart graficznych na przestrzeni lat? - wiadomość - 2024-10-30
Rewolucyjny HD 3870 ATOMIC od firmy Sapphire. Źródło: Techpowerup.

Dalszy rozwój

Po wprowadzeniu komory parowej przez dłuższy czas nie następował żaden przełom. Jednak nie oznacza to, że chłodzenia komputerowe stały w miejscu. Producenci nadal rozwijali swoje rozwiązania. Do największych zmian możemy zaliczyć powiększenie się radiatorów. Choć nie pokrywały one jeszcze całej powierzchni karty, to jednak zajmowały znaczną ich część. W przypadku najmocniejszych modeli firmy zauważyły także konieczność dodatkowego chłodzenia pamięci VRAM oraz układu zasilania. Dlatego w nowszych kartach możemy zauważyć zamontowane nad nimi radiatory.

Chłodzenia blow-out

W przypadku chłodnic typu blow-out największą zmianą było umiejscowienie wentylatora. W pierwszych konstrukcjach znajdował się on najczęściej tuż nad procesorem graficznym. W późniejszych modelach producenci coraz chętniej umieszczali go z prawej strony karty. Dzięki temu powietrze mogło przepływać nad większą ilością elementów.

Chłodzenia klasyczne (open-air)

Oprócz blow-out na popularności zyskiwał także inny rodzaj chłodzenia typu open-air, który obecnie jest uznawany jako standardowy. Składał się on z jednego dużego radiatora nad którym znajdowały się wentylatory. Ich liczba była zależna od modelu karty.

Różnice pomiędzy tymi chłodnicami oraz ich wady i zalety dobrze opisał Linus Tech Tips w jednym ze swoich materiałów, który możecie obejrzeć poniżej:

Backplate

Firmy zaczęły także dostrzegać, że gracze coraz częściej przy zakupie karty biorą pod uwagę jej wygląd. Dlatego producenci zaczęli montować elementy, które mogłyby zakryć niektóre elementy. Jednym z najpopularniejszych stał się tzw. backplate czyli płytka zasłaniająca rewers karty. Zwykle pełni ona funkcje jedynie estetyczną oraz ochronną, choć mogą być od tego wyjątki. Jeśli backplate zostanie wykonany z aluminium lub innego materiału dobrze przewodzącego ciepło, to po dodaniu termopadów, może się on zamienić w prosty radiator. I choć nie jest to rozwiązanie idealne, to w niektórych przypadkach może on obniżyć temperaturę karty o kilka stopni. Niestety, nie należy oczekiwać niesamowitych różnic.

Backplate z dołączonymi termopadami. Źródło: Tech Lipton. - Jak zmieniały się chłodzenia kart graficznych na przestrzeni lat? - wiadomość - 2024-10-30
Backplate z dołączonymi termopadami. Źródło: Tech Lipton.

Chłodzenia eksperymentalne

Poza wymienionymi metodami chłodzenia pojawiały się także na rynku wynalazki, które choć nie podbiły serc graczy to, pozwoliły na budowę naprawdę ciekawych komputerów. Można do nich zaliczyć radiatory montowane w taki sposób, że wychodziły poza kartę graficzną. W produkcji takich modeli specjalizowała się firma Thermalright. W swojej ofercie miała między innymi chłodzenie Spitfire, które było umieszczone prostopadle względem karty. Co warto zaznaczyć, było to rozwiązanie w pełni pasywne.

Chłodzenie Spitfire przygotowane przez firmę Thermalright. Źródło: Thermalright. - Jak zmieniały się chłodzenia kart graficznych na przestrzeni lat? - wiadomość - 2024-10-30
Chłodzenie Spitfire przygotowane przez firmę Thermalright. Źródło: Thermalright.

Równie ciekawie prezentuje się model VRM R1 montowany na pamięciach VRAM.

Chłodzenie VRM R1 przygotowane przez firmę Thermalright. Źródło: Thermalright. - Jak zmieniały się chłodzenia kart graficznych na przestrzeni lat? - wiadomość - 2024-10-30
Chłodzenie VRM R1 przygotowane przez firmę Thermalright. Źródło: Thermalright.

Dwa lata temu użytkownik Reddita znany pod pseudonimem WinterkeepDA pochwalił się swoim komputerem opartym o pasywne chłodzenia. Jednym z nich było wspomniane Spitfire. Możemy więc zobaczyć, jak w praktyce prezentowało się takie rozwiązanie.

Komputer przygotowany przez WinterkeepDA. Źródło: Reddit. - Jak zmieniały się chłodzenia kart graficznych na przestrzeni lat? - wiadomość - 2024-10-30
Komputer przygotowany przez WinterkeepDA. Źródło: Reddit.

Karty z podwójnym układem graficznym

W 2005 roku na twórców chłodnic czekało spore wyzwanie. Wtedy to na rynku zadebiutowała jedna z pierwszych kart wyposażona w dwa rdzenie Gigabyte 3D1. Było więc to tylko kwestią czasu, gdy pojawią się kolejne modele korzystające z tego rozwiązania. Posiadanie dwóch rdzeni graficznych w teorii mogło zaoferować duże możliwości. Taki układ powodował też wiele problemów. Jednym z nich było konieczność zamontowania chłodzenia obejmującego wszystkie elementy. Początkowo producenci chętnie korzystanie z układów typu blow-out. Choć w tym przypadku powietrze musiało schłodzić dwa układy położone obok siebie, co mogło skutkować wzrostem temperatur na jednym z nich. Dlatego trochę później pojawiło się rozwiązanie charakterystyczne dla kart z dwoma rdzeniami. Eksperci opracowali układ w którym pojedynczy radiator znajdujący się pośrodku karty kierował powietrze na dwa radiatory znajdujące się po jego bokach. Przykładem takiej konstrukcji może być Gainward Single PCB GTX 295.

Zdjęcie przedstawiające system chłodzenia karty z dwoma rdzeniami. Źródło: Bit-tech.net - Jak zmieniały się chłodzenia kart graficznych na przestrzeni lat? - wiadomość - 2024-10-30
Zdjęcie przedstawiające system chłodzenia karty z dwoma rdzeniami. Źródło: Bit-tech.net

To jednak nie koniec tej historii. Oprócz kart na których od razu zainstalowane były dwa rdzenie pojawiały się także modele, które składały się z dwóch połączonych ze sobą układów. Przykładem tego może być choćby NVIDIA GeForce 7950 GX2. Jak można się domyślić taki układ musiał posiadać odpowiednio dopasowane chłodzenie, którego największym ograniczeniem była odległość między kartami.

GeForce 7950 GX2 składający się z dwóch osobnych układów. Źródło: VideoCardz. - Jak zmieniały się chłodzenia kart graficznych na przestrzeni lat? - wiadomość - 2024-10-30
GeForce 7950 GX2 składający się z dwóch osobnych układów. Źródło: VideoCardz.

Powolny upadek klasycznych metod blow-out

W kolejnych latach chłodzenia nie zmieniały się zbytnio. Producenci tworzyli swoje własne układy, które powoli wypierały niestandardowe modele z rynku. Jednak rozwój kart graficznych ciągle trwał. Nowe układy pobierały znacznie więcej prądu i emitowały równie dużo ciepła. Wtedy też okazało się, że układy typu blow-out nie są w stanie dorównać konkurencji. Dlatego też producenci coraz rzadziej decydowali się na ich montowanie. Niestety nie można dokładnie określić kiedy tego rodzaju chłodzenia zostały ostatecznie uznane za przestarzałe. Jeśli jednak musiałbym wskazać konkretną datę, to byłby to 2017 rok. Wtedy to Nvidia po raz ostatni wypuściła serię kart wyposażonych w chłodzenie blow-out. Dokładniej chodzi o GTX-y 1000 w wersji Founders Edition.

GTX 1080 Ti w wersji FE. Źródło: Nvidia. - Jak zmieniały się chłodzenia kart graficznych na przestrzeni lat? - wiadomość - 2024-10-30
GTX 1080 Ti w wersji FE. Źródło: Nvidia.

Rok później dowiedzieliśmy się, że firma rezygnuje z tego typu rozwiązań, na rzecz bardziej otwartych układów. Choć trzeba zaznaczyć, że nowe chłodzenia od Nvidii wykorzystywały część technologii z poprzedniego systemu.

Współczesne chłodzenia

Omówiłem już dużą część historii, jak zmieniały się systemy chłodzenia, co wpływało na ich rozwój oraz zaprezentowałem kilka ciekawych modeli. W końcu nadszedł czas na omówienie współczesnych układów. Niestety obecnie na rynku możemy zaobserwować pewną stagnację. Chłodzenia od różnych producentów są obecnie bardzo podobne i korzystają z tych samych technologii co kilka lat temu. Nie ma się przy tym co dziwić, gdyż obecnie trudno jest wymyślić jakieś nowe rozwiązanie gwarantujące poprawę w odprowadzaniu ciepła. Obecnie firmy najczęściej montują zestaw open-air na które składa się jeden duży radiator pokrywający całą powierzchnię karty oraz wentylatory, których liczba wacha się od 1 do 3. Oczywiście wciąż w użyciu są także ciepłowody i komory parowe. Największą zmianą jaką można zauważyć jest ich rozmiar. Wcześniej karty zajmowały zazwyczaj jeden lub dwa sloty. Obecnie nikogo nie zdziwi jeśli nowy układ będzie zajmował 3. Oczywiście zwiększenie wymiarów mocno wpłynęło na wagę kart. Dlatego coraz częściej producenci sprzętu decydują się na montowanie wzmocnionych gniazd oraz dodawanie specjalnych podpórek zabezpieczających układ.

Jest pewien wyjątek, a dokładniej chłodzenia firmy Nvidia. W modelach z serii RTX 3000 producent zastosował układ w teorii łączący zalety rozwiązań typu blow-out oraz open-air. Konstrukcja składa się z dwóch wentylatorów z których jeden wydmuchuje ciepłe powietrze na zewnątrz, drugi natomiast kieruje je w stronę procesora.

System chłodzenia RTX-ów 3000. Źródło: YouTube | Optimum. - Jak zmieniały się chłodzenia kart graficznych na przestrzeni lat? - wiadomość - 2024-10-30
System chłodzenia RTX-ów 3000. Źródło: YouTube | Optimum.

Oprócz nich pojawiły się jeszcze chłodzenia wykorzystujące korzystające z ciekłego azotu. Jednym z nich jest REAKTOR GPU. Takie rozwiązanie jest skierowane jedynie dla osób zainteresowanych ekstremalnym podkręcaniem, więc nigdy nie podbije komputerów zwykłych graczy.

Obecnie ciężko stwierdzić co może się zmienić w przypadku chłodnic GPU. Najprostszym rozwiązaniem byłoby ich dalsze powiększanie. Jednak nie można tego robić bez końca. Innym możliwością jest stosowanie chłodnic wodnych. Niestety wciąż są one dość drogie i dużo bardziej awaryjne od układów powietrznych.

POWIĄZANE TEMATY: tech komputer

Kamil Cuber

Kamil Cuber

Z GRYOnline.pl związał się w 2022 roku, jest autorem tekstów o tematyce sprzętowej. Swoją przygodę z pisaniem rozpoczynał jeszcze w gimnazjum, biorąc udział w konkursach organizowanych przez producentów z branży elektronicznej. Następnie przy okazji zakupu nowego komputera zainteresował się sprzętem, stopniowo coraz lepiej poznając rynek komputerowy. Zagorzały fan komputerów i gier single-player, choć nie odrzuci też zaproszenia do gry w szachy oraz Foxhole’a.

PlayStation 5 Pro - ulepszone gry. Lista tytułów oznaczonych jako PS5 Pro Enhanced

PlayStation 5 Pro - ulepszone gry. Lista tytułów oznaczonych jako PS5 Pro Enhanced

PS5 Pro vs. Xbox Series X - porównujemy specyfikacje konsol Sony i Microsoftu

PS5 Pro vs. Xbox Series X - porównujemy specyfikacje konsol Sony i Microsoftu

To było kiedyś popularne w smartfonach. Teraz te trendy są pieśnią przeszłości

To było kiedyś popularne w smartfonach. Teraz te trendy są pieśnią przeszłości

Prosta kombinacja klawiszy pozwala uruchamiać programy znacznie szybciej, jako administrator

Prosta kombinacja klawiszy pozwala uruchamiać programy znacznie szybciej, jako administrator

iOS 18: 11 funkcji, które warto szybko wyłączyć

iOS 18: 11 funkcji, które warto szybko wyłączyć