Zgłoś błąd
X
Zanim wyślesz zgłoszenie, upewnij się że przyczyną problemów nie jest dodatek blokujący reklamy.
Błędy w spisie treści artykułu zgłaszaj jako "błąd w TREŚCI".
Typ zgłoszenia
Treść zgłoszenia
Twój email (opcjonalnie)
Nie wypełniaj tego pola
Załóż konto
EnglishDeutschукраїнськийFrançaisEspañol中国

PurePC.pl skończyło 18 lat, a my odpalamy wehikuł czasu i przypominamy rozwój laptopów do gier w tym czasie

Damian Marusiak | 29-06-2024 12:00 |

PurePC.pl skończyło 18 lat, a my odpalamy wehikuł czasu i przypominamy rozwój laptopów do gier w tym czasiePurePC.pl niedawno skończyło 18 lat, a w naszej branży jest to niczym wieczność. Przez ten okres czasu byliśmy świadkami setek premier produktowych, zarówno na rynku procesorów, kart graficznych, pamięci, dysków czy notebooków. W tym wpisie skupie się na tej ostatniej grupie, wszak to właśnie o laptopach najwięcej piszę na łamach PurePC.pl. Choć pierwsze laptopy do gier zaczęły pojawiać się w okolicach 2005 roku (mowa o takich rasowych notebookach, których już design z daleka krzyczał, że to jest sprzęt do gier), to dopiero w kolejnych latach zaczęto mocniej interesować się tym rynkiem. Duży wpływ na to, jak dzisiaj wyglądają laptopy do gier, ma firma NVIDIA. Tak naprawdę to premiery kolejnych generacji "Zielonych" napędzają rynek przenośnych komputerów i pokazują, że nadal można wiele tutaj zrobić.

Autor: Damian Marusiak

WidowPC Sting 917X2. Nazwa nawiązująca do jadowitego pająka - Czarnej Wdowy - stała się głównym elementem promującym protoplastę dzisiejszych laptopów do gier. Jego rynkowy debiut miał miejsce w 2005 roku, a więc chwilę przed transformacją Tweak.pl w PurePC.pl. Mimo faktu, że nie jest to obecnie tak dobrze znana marka jak ASUS, MSI czy Acer, to nasza Czarna Wdowa laptopowa również mogła pochwalić się obecnością mobilnego układu graficznego od NVIDII. Dokładnie to model GeForce Go 7800 GTX. Choć nazwa chipu brzmi poważnie, to jego specyfikacja na tle dzisiejszych konstrukcji może wywołać uśmiech politowania. Co ciekawe, NVIDIA już wtedy korzystała z fabryk TSMC. GeForce Go 780 GTX, oparty na architekturze Curie (tak, w 2005 roku wyborem nazwy architektury była Maria Skłodowska-Curie, wybitna uczona w dziedzinach fizyki doświadczalnej oraz chemii fizycznej, równocześnie dwukrotna laureatka Nagrody Nobla z fizyki oraz chemii), wyprodukowany został w procesie technologicznym 110 nm, oferując przy tym 302 miliony tranzystorów na powierzchni 333 mm². Budowa w kontekście jednostek obliczeniowych również była nieco inna, ponieważ układy oparte na architekturze Curie nie posiadały jeszcze rdzeni CUDA. Mieliśmy natomiast klasyczne ROP-y, TMU czy Vertex Shadery (w liczbie 8). Całości dopełniało 512 MB pamięci GDDR3 na 256-bitowej magistrali pamięci. Dzisiaj na takim układzie byłoby wręcz niemożliwe pogranie nawet w gry z okresu premiery laptopa WidowPC Sting 917X2, chyba że w antycznej rozdzielczości 640 x 480 pikseli, do jakiej się od początku nadawała.

PurePC.pl skończyło 18 lat i w tym czasie rynek laptopów do gier zmienił się nie do poznania. Przypominamy jak rozwijała się ta gałąź naszej branży.

PurePC.pl skończyło 18 lat, a my odpalamy wehikuł czasu i przypominamy rozwój laptopów do gier w tym czasie [nc1]

Dell Alienware 17 - Test wydajnego laptopa z GeForce GTX 980M

Test laptopa ASUS G752VY - Wydajna bestia z GeForce GTX 980M

Następcą architektury Curie była Tesla i tutaj flagowym, mobilnym układem graficznym był GeForce 8800M GTX, który zadebiutował w listopadzie 2007 roku (sama architektura Tesla pojawiła się jednak w 2006 roku w kontekście desktopowych kart graficznych - to właśnie wtedy narodził się portal PurePC.pl, a gracze pomału przygotowywali się na nadejście graficznego mesjasza wśród gier komputerowych - Crysisa). Sam miałem również do czynienia bliżej z tą generacją, ale niestety nie w kontekście GeForce 8800M GTX, a dużo, dużo... duuuużo słabszego GeForce 8400M GS. Jak sięgam pamięcią, ówcześnie jako 16-latek korzystałem z jednego z modeli laptopów HP Pavilion. Nie mogę jednak powiedzieć, abym był specjalnie zadowolony z możliwości mobilnego GeForce 8400M GS. Wyposażony w układ G86S Tesla, posiadał na pokładzie ekstremalnie skromną liczbę jednostek obliczeniowych (16 rdzeni / 4 ROP-y / 8 TMU) oraz zaledwie 256 MB pamięci DDR2 na 64-bitowej szynie. Nawet gry wychodzące w tamtym okresie czasu działały często bardzo słabo w rozdzielczości 800 x 600. O Crysis, który zadebiutował kilka miesięcy później, nie mogłem nawet marzyć. Dało się jednak jako tako zagrać w pierwszego Wiedźmina, ale druga część była już barierą nie do przeskoczenia dla tak wybitnego układu graficznego (w końcu to poziom niewiele wyższy od GeForce 210).

PurePC.pl skończyło 18 lat, a my odpalamy wehikuł czasu i przypominamy rozwój laptopów do gier w tym czasie [nc1]
WidowPC Sting 917X2 z GeForce Go 7800 GTX uznawany jest za faktycznego protoplastę dzisiejszych laptopów do gier. Nie dla osób z arachnofobią!

Test Hyperbook X77DM-G - Desktopowy GeForce GTX 980 w laptopie

Test MSI GT72S Dragon Edition - smoczy atak GeForce GTX 980

Na zupełnie innym poziomie (choć i tak dalekim od desktopowego GeForce 8800 GTX, w tamtych czasach desktopowe karty i mobilne układy dzieliły przede wszystkim podobne nazwy, ale to wszystko) był flagowy przedstawiciel architektury Tesla dla notebooków - GeForce 8800M GTX z rdzeniem Tesla G92 (co ciekawe, wyprodukowany w innym procesie bo TSMC 65 nm w porównaniu do chipu G86S z GeForce 8400M GS, z którego korzystałem - tam była to litografia TSMC 80 nm). Nowa, znacznie niższa litografia to duży wzrost efektywności energetycznej topowego układu Tesla, przy zachowaniu tego samego współczynnika TDP - 65 W. Mimo wszystko to był już ten typu mobilnego GPU, który pozwalał na grę w Crysis w momencie jego premiery w 2007 roku - wprawdzie przy niższych detalach i najlepiej w rozdzielczości nie wyższej niż HD, ale już się dało. Choć mobilny GeForce 8800M GTX odbiegał specyfikacją i wydajnością od desktopowego odpowiednika (96 rdzeni kontra 128 / 16 ROP kontra 24 / 512 MB pamięci GDDR3 na 256-bitowej szynie kontra 768 MB GDDR3 na 384-bitowej magistrali), to już w 2007 roku było widać całkiem spory skok możliwości mobilnych GPU w laptopach. Na tyle mocny, by móc odpalić legendarnego już Crysisa, co na układach sprzed dwóch lat wcześniej było to w zasadzie niemożliwe.

PurePC.pl skończyło 18 lat, a my odpalamy wehikuł czasu i przypominamy rozwój laptopów do gier w tym czasie [nc1]
NVIDIA GeForce 8800M GTX w formacie MXM - w zamierzchłych czasach wielkich i grubych laptopów do gier, MXM był znacznie popularniejszym formatem dla mobilnych GPU

Premiera GeForce GTX 1060 w laptopach - Test Hyperbook MS-16L1

Desktopy vs laptopy XTREEM - Test GeForce GTX 1060, 1070 i 1080

Na następcę Tesli trzeba było jeszcze trochę poczekać, wobec czego w 2008 roku NVIDIA zdecydowała się na wprowadzenie odświeżonych układów Tesla pod postacią rodziny GeForce 9M. Flagowy układ dla laptopów - GeForce 9800M GTX, był nieco bardziej dopakowaną wersją GeForce 8800M GTX - nadal z mniejszą liczbą jednostek obliczeniowych niż desktopowy GeForce 8800 GTX (choć dystans się zmniejszył: 112 rdzeni kontra 128 rdzeni), ale za to z większą ilością pamięci - 1 GB GDDR3, a więc dwukrotnie więcej w porównaniu do GeForce 8800M GTX. W tamtych czasach NVIDIA również chętniej spoglądała na temat SLI, co wykorzystywali także producenci laptopów. Przykładowo Dell XPS M1730 o konkretnych rozmiarach, mógł posiadać nawet dwa układy GeForce 9800M GTX w SLI, dając dostęp do 2x 1 GB pamięci GDDR3. SLI w notebookach był spotykany jeszcze w kolejnych latach, aż do czasów architektury Pascal, a więc do roku 2016 / 2017. Dopiero po tym czasie i NVIDIA i producenci laptopów zrezygnowali ze wsparcia dla konfiguracji Multi-GPU.

PurePC.pl skończyło 18 lat, a my odpalamy wehikuł czasu i przypominamy rozwój laptopów do gier w tym czasie [nc1]
Dell XPS M1730 - wielki, ciężki i wydajny. Mógł zaoferować dwa układy NVIDIA GeForce 9800M GTX, działające w ramach SLI

Test MSI GT75VR 7RF - potwór z kartą NVIDIA GeForce GTX 1080

Test ASUS ROG G703GI - Kolos z Core i9-8950HK i GeForce GTX 1080

Z architekturą Tesla, NVIDIA nie potrafiła się w laptopach rozstać jeszcze przez bardzo długi czas. Rok 2009 to wprowadzenie równolegle dwóch serii produktowych - GeForce 100 oraz GeForce 200. W obu przypadkach dalej wykorzystywano architekturę Tesla, jednak GeForce 100 to były zdecydowanie słabsze (pozbawione układów z serii GeForce GTX, a pozostawione same GeForce G, GT lub GTS) i wyłącznie lutowane do płyt głównych chipy. W przypadku GeForce 200 do dyspozycji oddawano już mocniejszych przedstawicieli. Flagowym modelem był tutaj GeForce GTX 285M. Wprawdzie oparty na architekturze Tesla, ale ponownie w niższej litografii bo TSMC 55 nm, co zresztą przełożyło się także na mniejszy rozmiar układu G92B - 260 mm² zamiast około 330 mm². Z większą liczbą rdzeni (128), 1 GB pamięci GDDR3, zegarem rdzenia na poziomie 600 MHz i z TDP 75 W, był już przygotowany na ogrywanie gier z roku 2010 i starszych w rozdzielczości 1366 x 768 - wyższe rozdziałki powodowały jednak najczęściej zbyt mocne krztuszenie się układu Tesla, a tym samym należało spodziewać się mocnego spadku wydajności.

PurePC.pl skończyło 18 lat, a my odpalamy wehikuł czasu i przypominamy rozwój laptopów do gier w tym czasie [nc1]
Wiedźmin 2: Zabójcy Królów debiutował w 2011 roku i potrzebował czegoś zdecydowanie mocniejszego do poprawnego działania w laptopach niż wysłużonej już solidnie architektury Tesla od NVIDII - rozwiązaniem miała być architektura Fermi

Test Dream Machines RX2070 - RTX 2070 wydajniejszy od GTX 1080?

Test Dream Machines RX2080S - Laptop z Core i9-10900K i RTX 2080S

W 2010 roku NVIDIA ponownie postawiła na dwie serie produktowe - jedna z nich to GeForce 300M, gdzie w większości przypadków zdecydowano się wykorzystać usprawnioną architekturę, określaną jako Tesla 2.0. Pojawiły się tutaj dwa pierwsze, mobilne układy graficzne, wykorzystujące pamięć VRAM typu GDDR5 o efektownej szybkości 3.2 Gbps dla GeForce GTS 350M (przy magistrali 128-bitowej przekładało się to na przepustowość 50,56 GB/s) lub 3.6 Gbps dla GeForce GTS 360M (ta sama magistrala, ale przepustowość to już 57,6 GB/s). Druga seria produktowa to już faktycznie nowa generacja GeForce 400M (GeForce GT 400M oraz GeForce GTX 400M), którą oparto o mityczną wręcz architekturę Fermi. Przez entuzjastów PC doskonale znaną, chociażby ze względu na olbrzymie (jak na tamte czasy) rozmiary systemów chłodzenia w desktopowych kartach graficznych i grzejące się i tak chipy, na których dosłownie można było smażyć jajeczka. W laptopach doczekaliśmy się natomiast kolosów pokroju GeForce GTX 480M z rdzeniem GF100 o rozmiarze blisko 550 mm² - jak widać kiedyś się dało takie monstra umieszczać do laptopów, ciekawe dlaczego dzisiaj NVIDIA nie decyduje się na podobne kroki :).

PurePC.pl skończyło 18 lat, a my odpalamy wehikuł czasu i przypominamy rozwój laptopów do gier w tym czasie [nc1]
ATI Mobility Radeon HD 5870 - jak widać mobilne Radeony w zamierzchłych czasach także nie stroniły od standardu MXM w notebookach gamingowych. W późniejszych latach marka Radeon w laptopach mocno osłabła, a obecnie jest już praktycznie niewidoczna (nie licząc zintegrowanych układów graficznych, w których AMD radzi sobie bardzo dobrze)

Test MSI Titan GT77 - Topowy laptop do gier z Intel Core i9-12900HX, NVIDIA GeForce RTX 3080 Ti oraz wsparciem dla SSD PCIe 5.0

Test Hyperbook Liquid V17 chłodzonego powietrzem i wodą. Intel Core i9-12900H i GeForce RTX 3080 Ti mają idealne warunki

Mobilny GeForce GTX 480M oferował już 352 rdzenie CUDA, co było znaczącym skokiem względem wcześniejszych rozwiązań. Otrzymał także 2 GB pamięci, aczkolwiek mimo niskiego zegara rdzenia (425 MHz), współczynnik TDP poszybował już do 100 W. Architektura Fermi była jednak dla NVIDII bardzo ważna, bowiem jej nowa, ujednolicona budowa miała bezpośredni wpływ na projekt kolejnych generacji GPU, a także jako pierwsza wprowadziła pełne wsparcie dla API DirectX 11. W laptopach generacja GeForce 400M była jednak w dalszym ciągu o kilkadziesiąt procent słabsza od tego, co oferowano w desktopowych kartach graficznych. A co z samymi notebookami? Mowa w końcu o okresie 2010 roku - w tym czasie otrzymaliśmy takie urządzenia jak Clevo W880CU czy Deviltech Fragbook DTX, również bazujący na kadłubkach Clevo. Duże firmy tj. ASUS, MSI czy Alienware, w tamtych czasach dużo częściej korzystali z rozwiązań ATI / AMD Radeon, tak jak na przykład ATI Mobility Radeon HD 5870. W późniejszych latach, już po przejęciu ATI przez AMD, mobilne Radeony z roku na rok były coraz mniej atrakcyjnym wyborem, co NVIDIA skrzętnie wykorzystywała poprzez wrzucanie naprawdę sporej liczby mobilnych GPU, coraz mocniej zalewając rynek laptopów do gier.

PurePC.pl skończyło 18 lat, a my odpalamy wehikuł czasu i przypominamy rozwój laptopów do gier w tym czasie [nc1]
NVIDIA GeForce GTX 480M w standardzie MXM - jak widać architektura Fermi w postaci olbrzymich chipów dotarła również do równie wielkich laptopów do gier

Test MSI GS66 Stealth - notebook do gier i pracy z kartą graficzną NVIDIA GeForce RTX 3080 Laptop GPU i ekranem WQHD 240 Hz

Test ASUS ROG Strix SCAR 17 2021 - topowy laptop do gier z AMD Ryzen 9 5900HX oraz kartą NVIDIA GeForce RTX 3080

Kolejną generacją, która przyniosła nie tylko spory wzrost wydajności, ale również pozwoliła nieco zbliżyć się mobilnym układom do desktopowych odpowiedników (ale tylko nieco, nadal trzeba było liczyć się z około 40% przewagą klasycznych kart) była seria NVIDIA GeForce GTX 600, oparta na architekturze Kepler. Tutaj na chwilę zatrzymam się na nieco słabszym modelu GPU, z którego sam korzystałem w laptopie Lenovo Y580. Tego notebooka chyba nie trzeba przedstawiać, bowiem w czasie jego obecności na rynku był to jeden z najpopularniejszych laptopów do gier w Polsce. Przesiadłem się na niego w 2013 roku, po tym jak HP Pavilion z GeForce 8400M GS wyzionął już całkowicie ducha (tak, tak długo korzystałem z tego stareńkiego układu NVIDII). Lenovo Y580 posiadał układ NVIDIA GeForce GTX 660M i choć nie był on w żadnym wypadku odpowiednikiem GeForce GTX 660 (szalenie popularnego na rynku PC), to jednak skok wydajności po przejściu z GeForce 8400M GS był dla mnie przepotężny (nawiasem mówiąc Lenovo Y580 nadal leży u mnie w mieszkaniu i chyba nadal działa).

PurePC.pl skończyło 18 lat, a my odpalamy wehikuł czasu i przypominamy rozwój laptopów do gier w tym czasie [nc1]
Lenovo Y580 z GeForce GTX 660M swego czasu był bestsellerem w Polsce, jeśli chodzi o rynek laptopów do gier

NVIDIA GeForce RTX 4090, RTX 4080, RTX 4070, RTX 4060, RTX 4050 - specyfikacja układów graficznych Ada Lovelace dla laptopów

Test NVIDIA GeForce RTX 4090 Laptop GPU w Razer Blade 16 - Mocna premiera architektury Ada Lovelace w notebookach

Na GeForce GTX 660M w końcu mogłem pograć na prawie-maksymalnych ustawieniach graficznych w Wiedźmina 2 (oczywiście oprócz ubersamplingu - tutaj wspomnę, że planuję osobny test tej gry, bowiem okazuje się, że Wiedźmin 2 w 4K z dodatkiem ubersamplingu potrafi wymęczyć taką kartę jak GeForce RTX 4080). Pudełko z grą miałem kupione już na premierę, a więc w 2011 roku, ale dopiero dwa lata później mogłem faktycznie pograć w ten tytuł. GeForce GTX 660M pozwolił mi zresztą w miarę komfortowo pograć także w Wiedźmina 3: Dziki Gon na średnich ustawieniach graficznych i w rozdzielczości 1366 x 768 pikseli. Seria GeForce GTX 600M ponownie otrzymała solidnego kopa w temacie efektywności energetycznej, bowiem NVIDIA przeszła na znacznie niższy proces technologiczny TSMC 28 nm. Warto przypomnieć, że chip napędzający GeForce GTX 660M był naprawdę malutki - rdzeń GK107 (N13E-GE-A2) miał powierzchnię zaledwie 118 mm², zachowując jednocześnie 1,27 miliarda tranzystorów. Posiadał także 384 procesory CUDA, 16 ROP-ów, 32 TMU i 2 GB pamięci GDDR5 (już o efektywnej szybkości 5 Gbps, więc także ze znacznym wzrostem względem Fermi) na 128-bitowej szynie. Współczynnik TDP wynosił zaledwie 50 W.

PurePC.pl skończyło 18 lat, a my odpalamy wehikuł czasu i przypominamy rozwój laptopów do gier w tym czasie [nc1]

Test NVIDIA GeForce RTX 4080 Laptop GPU w ASUS ROG Strix SCAR 16 - Wydajność niewiele niższa od GeForce RTX 4090 Laptop

Test MSI Titan GT77 HX 13V - Topowy notebook do gier z NVIDIA GeForce RTX 4090 Laptop GPU oraz Intel Core i9-13980HX

Prawdziwym monstrum wśród mobilnych układów graficznych był jednak flagowy przedstawiciel serii GeForce GTX 600M - GeForce GTX 680M, oferujący znacznie więcej jednostek obliczeniowych w porównaniu chociażby do generacji Fermi (GeForce GTX 400M oraz GeForce GTX 500M) i wcześniejszych. Tutaj do dyspozycji oddano już 1344 procesory CUDA, 32 ROP-y i 112 jednostek TMU. Całości dopełniały aż 4 GB (wtedy to było coś konkretnego) pamięci GDDR5 na 256-bitowej szynie. Oparty na rdzeniu Kepler GK104, charakteryzował się powierzchnią 294 mm² (a więc i tak znacznie mniej niż blisko 550 mm² z GeForce GTX 480M w generacji Fermi), przy jednoczesnym upchnięciu ponad 3,5 miliarda tranzystorów. Współczynnik TDP pozostał na poziomie 100 W, tak jak przy GeForce GTX 480M, jednak wzrost wydajności był nawet kilkudziesięcioprocentowy. GeForce GTX 680M w czasach swojego debiutu (2012 rok) pozwalał na komfortową grę w rozdzielczości 1600 x 900 pikseli. Co ciekawe, desktopowy model GeForce GTX 680 posiadał na początku 2 GB pamięci, a dopiero po kilku miesiącach od debiutu zaczęły pojawiać się warianty z 4 GB VRAM.

PurePC.pl skończyło 18 lat, a my odpalamy wehikuł czasu i przypominamy rozwój laptopów do gier w tym czasie [nc1]

Test Dream Machines RX4090-17PL25 - Topowy notebook z NVIDIA GeForce RTX 4090 Laptop GPU i Intel Core i9-13900HX

Test Hyperbook V17 Liquid z NVIDIA GeForce RTX 4090 Laptop GPU. Chłodzenie wodne w tym laptopie do gier daje radę

Architektura Kepler w laptopach była potem odświeżona i tak w 2013 roku otrzymaliśmy układy NVIDIA GeForce GTX 700M, gdzie flagowy przedstawiciel - GeForce GTX 780M - oferował taką samą liczbę jednostek obliczeniowych (1536 CUDA / 32 ROP / 128 TMU) co desktopowy GeForce GTX 680. Z drugiej strony w desktopach NVIDIA mocniej cisnęła w owe odświeżenie Keplera, dzięki czemu dostaliśmy np. GeForce GTX 780 z 2304 CUDA / 48 ROP / 192 TMU oraz GeForce GTX 780 Ti z 2880 CUDA / 48 ROP / 240 TMU, o pierwszych GTX Titan nie wspominając (tutaj najpewniej więcej powie Sebastian w swoim materiale). Okres 2014 roku to natomiast w laptopach moment, gdy NVIDIA dość swobodnie mieszała dwie różne architektury - Kepler i Maxwell - w ramach serii GeForce GTX 800M. O ile np. GeForce GTX 860M operował na mocno przyciętym rdzeniu Maxwell (GM107 z raptem 640 procesorami CUDA), tak GeForce GTX 880M to tylko lekkie odświeżenie Kepler GK104 z nadal 1536 rdzeniami CUDA, podobnie jak w GeForce GTX 780M. Największą różnicą było wprowadzenie w tym modelu 8 GB pamięci GDDR6 na 256-bitowej magistrali, a więc dwukrotnie więcej w porównaniu do GeForce GTX 780M. Z kolei już GeForce GTX 870M posiadał tylko 3 GB na 192-bitowej szynie. Różnica była więc olbrzymia.

PurePC.pl skończyło 18 lat, a my odpalamy wehikuł czasu i przypominamy rozwój laptopów do gier w tym czasie [nc1]
Czasy GeForce GTX 980 okazały się dla laptopów przełomowe, bowiem to właśnie tutaj NVIDIA po raz pierwszy w ramach tej samej generacji niemalże zrównała ze sobą specyfikację desktopowego oraz mobilnego układu graficznego

Test Dream Machines RG4070-17PL31 - Notebook do gier z Intel Core i9-14900HX oraz NVIDIA GeForce RTX 4070

Test Lenovo Yoga Pro 9i - flagowy, multimedialny notebook z GeForce RTX 4070. Laptop do pracy i do rozrywki

Pierwszy przełom na rynku mobilnych układów graficznych nastąpił w 2015 roku. Niemal rok po wydaniu desktopowej karty graficznej GeForce GTX 980, NVIDIA zdecydowała się wprowadzić praktycznie taki sam chip do notebooków. Tym samym w ramach jednej, wspólnej generacji Maxwell, pojawił się układ w laptopach, praktycznie nie odbiegający specyfikacją od klasycznej karty graficznej. Był to zarazem pierwszy moment, w którym udowodniono, że w notebookach możemy także liczyć na wysoką wydajność w grach czy aplikacjach, gdzie GPU można było wykorzystać. GeForce GTX 980 Mobile posiadał chip GM204 (Maxwell 2.0) o powierzchni 398 mm² (wyprodukowany ponownie w 28 nm TSMC) z 2048 procesorami CUDA, 64 ROP-ami, 128 jednostkami TMU i 8 GB pamięci GDDR5 (7 Gbps, a więc tak samo szybkie jak w desktopowym modelu GeForce GTX 980) na 256-bitowej magistrali pamięci. Jedyna różnica to nieco niższe taktowanie rdzenia - 1064 MHz bazowo kontra 1127 MHz w desktopie oraz 1140 MHz w GPU Boost kontra 1216 MHz w klasycznej karcie graficznej. TDP obniżono ze 165 W (GeForce GTX 980 Desktop) do 150 W (GeForce GTX 980 Mobile).

PurePC.pl skończyło 18 lat, a my odpalamy wehikuł czasu i przypominamy rozwój laptopów do gier w tym czasie [nc1]

PurePC.pl skończyło 18 lat, a my odpalamy wehikuł czasu i przypominamy rozwój laptopów do gier w tym czasie [nc1]
MSI GT72S Dragon Edition z GeForce GTX 980 - gamingowego sznytu nie można mu było odmówić

Test MSI Bravo 15 - Laptop do gier z AMD Ryzen 7 7735HS i GeForce RTX 4060, który nie kosztuje majątku

Test NVIDIA GeForce RTX 4060 Laptop GPU kontra AMD Radeon RX 7600S w notebookach ASUS TUF Gaming

Mobilny GeForce GTX 980 to był również jeden z pierwszych układów graficznych w laptopach, które już testowałem w redakcji PurePC.pl. Były to wakacje 2016 roku, niedługo po moim dołączeniu do zespołu, a że od czegoś bazę wyników musieliśmy zacząć budować, to trafiło akurat na serię GeForce GTX 900M, na czele z GeForce GTX 980. Przetestowaliśmy wówczas dwa notebooki na tym układzie - Hyperbook X77DM-G oraz MSI GT72S Dragon Edition - i w obu przypadkach testowane wówczas gry działały płynnie w rozdzielczości Full HD na wysokich, bardzo wysokich lub najwyższych detalach, w zależności od tego jak bardzo dana gra była wymagająca. Assassin's Creed Syndicate działał bardzo dobrze w wysokich detalach, ale już Battlefield 4 czy DOOM perfekcyjnie wykorzystywały możliwości GPU w ultra detalach. Wiedźmin 3: Dziki Gon był płynny na wysokich detalach w Full HD - Uber wciąż był zbyt mocnym obciążeniem nawet dla GeForce GTX 980. Aby temu zaradzić, NVIDIA opracowywała nową generację. Taką, która w notebookach kompletnie zdeklasowała konkurencję i wystrzeliła z efektywnością energetyczną na poziom dotychczas niespotykany w laptopach. Mowa oczywiście o architekturze Pascal i serii GeForce GTX 1000, której premiera w notebookach odbyła się w sierpniu 2016 roku, a więc raptem 3 miesiące po moim dołączeniu do PurePC.pl.

PurePC.pl skończyło 18 lat, a my odpalamy wehikuł czasu i przypominamy rozwój laptopów do gier w tym czasie [nc1]
NVIDIA GeForce GTX 1060 w laptopach, czyli moment gdy średnia półka oferowała wydajność topu poprzedniej generacji. W notebookach taki skok był wcześniej niespotykany

Test MSI Cyborg 15 - Jeden z najtańszych laptopów do gier wyposażonych w układ graficzny NVIDIA GeForce RTX 4050

Wraz z generacją NVIDIA GeForce GTX 1000, rynek laptopów przeszedł olbrzymią metamorfozę, stając się ważną częścią gamingowego rynku dla NVIDII. Tutaj nastąpił prawdziwy boom na tego typu urządzenia - pojawiło się znacznie więcej zróżnicowanych notebooków, zarówno tych o bardziej agresywnym wyglądzie jak również takich mocniej stonowanych pod kątem wizualnym. Notebooki z GeForce GTX 1060 wiodły prym popularności, bowiem ich ceny nie wystrzeliły jeszcze wtedy w kosmos, a w wielu grach naprawdę otrzymaliśmy wydajność w grach na poziomie topowych sprzętów z GeForce GTX 980, których koszt dotychczas był nawet dwukrotnie wyższy. Architektura Pascal w połączeniu z nowym, efektywnym energetycznie procesem technologicznym TSMC 16 nm (ten z kolei pozwolił na zaoferowanie znacznie wyższych zegarów rdzenia w porównaniu z generacją Maxwell), spowodowała że praktycznie cała seria GeForce GTX 1000 w laptopach to były te same układy co w desktopach - różnice w wydajności zwykle nie przekraczały 10%. W przypadku GeForce GTX 1060, nawet w Wiedźminie 3: Dziki Gon mogliśmy w miarę komfortowo grać w wysokich ustawieniach graficznych w Full HD, co na poprzedniku - GeForce GTX 960M - było nie do zrealizowania.

PurePC.pl skończyło 18 lat, a my odpalamy wehikuł czasu i przypominamy rozwój laptopów do gier w tym czasie [nc1]
Mobilny GeForce GTX 1080 nie został nawet pozbawiony pamięci GDDR5X o znacznie wyższej przepustowości względem klasycznych GDDR5

GeForce GTX 1060 to oczywiście nie jedyny układ Pascal, jaki NVIDIA wprowadziła do laptopów. Były jeszcze dwa mocniejsze modele - GeForce GTX 1070 oraz GeForce GTX 1080, przy czym ten pierwszy oferował nawet nieco więcej jednostek obliczeniowych niż desktopowy odpowiednik (1920 rdzeni CUDA w desktopie kontra 2048 rdzeni CUDA w laptopie), jednak finalna wydajność była podobna przez wzgląd na nieco nieco niższe zegary rdzenia w notebookach. Z kolei GeForce GTX 1080 w laptopie posiadał pełny rdzeń Pascal GP104 z 2560 rdzeniami CUDA oraz 8 GB pamięci GDDR5X (10 Gbps), co przekładało się na bardzo wysoką (jak na te czasy w laptopach) przepustowość rzędu 320 GB/s. Zdarzały się nawet notebooki z dwoma układami graficznymi NVIDIA GeForce GTX 1080... Myślę, że każdy Czytelnik PurePC.pl doskonale zna chociażby tak nietypowy model laptopa jak Acer Predator 21X z zakrzywionym, 21-calowym wyświetlaczem i o wadze 8.5 kilograma... Niespełna rok po premierze pierwszych układów Pascal w laptopach, NVIDIA wprowadziła dodatkowe modele, po raz pierwszy sygnowane dopiskiem Max-Q Design. Inicjatywa miała zachęcić do przygotowywania smuklejszych i lżejszych laptopów do gier i pracy. Same układy GeForce GTX 1080 Max-Q Design czy GeForce GTX 1070 Max-Q Design odznaczały się przede wszystkim niższymi zegarami rdzenia, co bezpośrednio wpływało na niższe TDP (90 W zamiast 120 W dla GeForce GTX 1070 oraz 110 W zamiast 150 W dla GeForce GTX 1080), ale i na trochę niższą wydajność w grach. Max-Q doczekało się kilku generacji, w których dodawano kolejne funkcjonalności. W końcu został całkowicie zintegrowany z GPU i przestał być wymiernym wskaźnikiem sugerującym konkretny współczynnik TDP. Mówiąc jeszcze prościej - zarówno układ o TDP 50 W jak i taki o mocy do 175 W ma w sobie zintegrowane wszystkie funkcjonalności Max-Q. Obecnie jest to m.in. Dynamic Boost, Whisper Mode, Battery Boost czy Advanced Optimus.

PurePC.pl skończyło 18 lat, a my odpalamy wehikuł czasu i przypominamy rozwój laptopów do gier w tym czasie [nc1]
W 2017 roku NVIDIA wprowadziła inicjatywę Max-Q Design, a więc pomysł na smukłe i lekkie laptopy do gier. Może i były lżejsze, ale przynajmniej były mniej wydajne i równie drogie :)

Rok 2018 przyniósł nam kolejną generację układów graficznych - Turing, jednak w laptopach pojawiły się one na początku 2019 roku. Turing dla NVIDII był równie ważnym produktem, choć z innych powodów. To właśnie tutaj zdecydowano się na rebrand marki, odchodząc od GeForce GTX i wprowadzając serię produktową znaną jako GeForce RTX. Było to związane z tym, że układy GeForce RTX 2000 wprowadziły hardware'ową akcelerację Ray Tracingu (śledzenia promieni) w czasie rzeczywistym. Pierwsze gry zaczęły oferować obsługę RT, a wraz ze śledzeniem promieni, NVIDIA zaczęła coraz mocniej wchodzić na grunt sztucznej inteligencji wraz z premierą techniki DLSS (pierwszą generację może jednak przemilczmy przez wzgląd na jakość obrazu względem natywnej rozdzielczości). W laptopach układy GeForce RTX 2000 (te bez dopisku Max-Q Design) ponownie oferowały taką samą specyfikację co w desktopach, aczkolwiek różnice w zegarach były wyższe, ponieważ nie zdecydowano się na przejście na kompletnie nowy proces technologiczny, zamiast tego otrzymaliśmy usprawnione 16 nm od TSMC, tutaj nazywane marketingowo 12 nm. Była to również pierwsza generacja mobilnych GPU, w których wykorzystano pamięć VRAM typu GDDR6 - te są wykorzystywane aż do serii GeForce RTX 4000 z generacji Ada Lovelace.

PurePC.pl skończyło 18 lat, a my odpalamy wehikuł czasu i przypominamy rozwój laptopów do gier w tym czasie [nc1]

PurePC.pl skończyło 18 lat, a my odpalamy wehikuł czasu i przypominamy rozwój laptopów do gier w tym czasie [nc1]
NVIDIA GeForce RTX 2000 w laptopach była ostatnią generacją, wykorzystującą standard MXM w niektórych modelach laptopów. Model wyżej to GeForce RTX 2070 Mobile

Wraz z postępującą coraz mocniej miniaturyzacją oraz odchudzaniem notebooków do gier, doczekaliśmy się (niestety) czasów, gdy seria GeForce RTX 2000 w laptopach była ostatnią, wspierającą format MXM w niektórych laptopach. Kolejne generacje były już wyłącznie lutowane w płyty główne, oczywiście dalej w wielu przypadkach stawiając na bardzo smukłe (czasami zbyt szczupłe) konstrukcje. Sama wydajność oczywiście poszła w górę, choć tak dużego skoku jak przy przejściu z Maxwell na Pascal już nie uświadczyliśmy. Przykładowo GeForce RTX 2070 w laptopie w większości przypadków wypadał trochę lepiej od GeForce GTX 1080, ale zdarzały się też gry, gdzie ten drugi nadal był wydajniejszy. Oczywiście tam, gdzie można było włączyć Ray Tracing, tam układy GeForce RTX 2000 były znacznie wydajniejsze od GeForce GTX 1000, choć to nadal nie był poziom, który by satysfakcjonował graczy. Z kolei pierwsza generacja DLSS w zdecydowanej większości przypadków bardzo mocno szkodziła jakości obrazu - ten był po prostu rozmyty i często pozbawiony wielu szczegółów. Dopiero DLSS 2 mocno poprawił ten aspekt, choć i tak poprawki i zmiany są regularnie wprowadzane, a obecnie mamy już DLSS w wersji 3.7 i wszystko wskazuje na to, że zbliżamy się pomału do momentu zapowiedzi DLSS 4. W przypadku generacji Turing w laptopach, najlepiej prezentowały się układy GeForce RTX 2080 oraz GeForce RTX 2080 SUPER, w których skok wydajności był odczuwalny względem GeForce GTX 1080. Warto jeszcze wspomnieć, że architektura Turing to nie były wyłącznie układy GeForce RTX 2000, ale również kilka modeli GeForce GTX 16, w których nie znajdziemy rdzeni RT ani Tensor (te pierwsze służą do akceleracji obliczeń Ray Tracingu, a drugie wspomagają działanie DLSS). Były to zatem bardziej klasyczne układy, tj. GeForce GTX 1660 Ti, GeForce GTX 1650 Ti czy GeForce GTX 1650 Mobile. Były to ostatnie modele GeForce GTX w laptopach, tym samym wraz z wygaszeniem architektury Turing, śmiercią naturalną umarł także branding GeForce GTX.

PurePC.pl skończyło 18 lat, a my odpalamy wehikuł czasu i przypominamy rozwój laptopów do gier w tym czasie [nc1]
Laptopy z GeForce RTX 2080 SUPER jeszcze potrafiły zaskoczyć rozmiarami i rozbudowanymi systemami chłodzenia. Tutaj Dream Machines RX2080S z dwoma wentylatorami, czterema radiatorami oraz łącznie dziesięcioma ciepłowodami

W 2021 roku przyszła pora na premierę architektury Ampere w notebookach w postaci układów GeForce RTX 3000. Zaszły tutaj kolejne spore zmiany, które jednak nie odbiły się echem zachwytu wśród użytkowników przenośnych komputerów. Z perspektywy czasu była to jedna z mniej udanych generacji, bowiem wzrost wydajności często był niewielki względem Turinga, natomiast zamiast tego otrzymaliśmy dopiski "Laptop GPU", ponowne mocne odbieganie specyfikacją pomiędzy desktopowymi i mobilnymi odpowiednikami oraz prawdziwy bałagan nazywany współczynnikiem TGP, który mógł być inny nawet w dwóch podobnych laptopach i który bezpośrednio wpływał na wydajność. O ile przy Pascalu i Turingu udało się zachować względnie podobną wydajność i niemal identyczną specyfikację w kontekście chociażby liczby jednostek obliczeniowych czy pamięci, tak przy generacji GeForce RTX 3000 Laptop GPU wszystko zaczęło wracać do dawnych, mrocznych czasów. GeForce RTX 3080 Laptop GPU nie miał nic wspólnego z desktopowym odpowiednikiem, podobnie było w przypadku GeForce RTX 3070 Laptop GPU. Nawet wydany w 2022 roku flagowiec - GeForce RTX 3080 Ti Laptop GPU - nadal nie zbliżał się specyfikacją do desktopowego GeForce RTX 3080. Różnice w wydajności były spore na niekorzyść laptopów, a do tego proces technologiczny Samsung 8 nm, w którym produkowane były chipy Ampere, nie grzeszył zbyt dobrą efektywnością energetyczną. Koniec końców generacja ta nie była tak ciekawa jak wcześniejsze, a bronił się przede wszystkim GeForce RTX 3060 Laptop GPU, który faktycznie możliwościami był zbliżony do desktopowego odpowiednika, tj. GeForce RTX 3060.

PurePC.pl skończyło 18 lat, a my odpalamy wehikuł czasu i przypominamy rozwój laptopów do gier w tym czasie [nc1]
Na zdjęciu mobilny chip NVIDIA GeForce RTX 3080 Laptop GPU. Począwszy od generacji Ampere, w laptopach zrezygnowano całkowicie z mobilnych GPU w formatach MXM. Wszystko jest już tylko lutowane na płyty główne

To właśnie tutaj Max-Q zostało zintegrowane z resztą specyfikacji układów graficznych w laptopach i nie był już umieszczany obok nazw poszczególnych GPU. Wszystkie mobilne chipy Ampere - od GeForce RTX 3050 o mocy 40 W aż po GeForce RTX 3080 Ti o mocy 175 W - posiadały te same funkcjonalności Max-Q Design. Takimi technikami są chociażby Dynamic Boost (dynamiczne przekierowanie części mocy z budżetu energetycznego laptopa do układu graficznego, co mogło podnieść nieco TGP i zwiększyć wydajność), Whisper Mode (dostosowanie głośności systemu chłodzenia do danej wydajności) czy Advanced Optimus (możliwość przełączania się pomiędzy trybami iGPU + dGPU oraz samym dGPU bez konieczności ponownego uruchamiania laptopów). Nowe funkcje zawsze na plus, jednak w przypadku generacji Ampere brakowało przede wszystkim zauważalnego skoku w stosunku wydajności do poboru mocy (perf/wat) i ogólnej efektywności energetycznej. Potrzebny był przede wszystkim znacznie bardziej dopracowany proces technologiczny...

PurePC.pl skończyło 18 lat, a my odpalamy wehikuł czasu i przypominamy rozwój laptopów do gier w tym czasie [nc1]
NVIDIA GeForce RTX 3080 Ti Laptop GPU (po lewej) oferował znacznie większy chip GA103, ale nie przekładało się na to na znacznie wyższą wydajność względem GA104 i GeForce RTX 3080 Laptop GPU. Generacja Ampere nie była przesadnie udana, ale jednocześnie nie było dla niej realnej konkurencji ze strony AMD

Tym samym płynnie przechodzimy do najnowszej (jeszcze) generacji Ada Lovelace pod postacią serii GeForce RTX 4000 Laptop GPU. Dopisek pozostał bez zmian, podobnie jak lawirowanie specyfikacją. Wprowadzono przykładowo nową nazwę dla flagowego układu GPU - GeForce RTX 4090 Laptop GPU - którego specyfikacja była jednak bliższa desktopowej karcie GeForce RTX 4080 (tyle że zamiast pamięci GDDR6X nadal mieliśmy do czynienia z GDDR6). Nie da się jednak ukryć, że w przypadku dwóch najmocniejszych GPU obecnej serii produktowej - GeForce RTX 4080 Laptop GPU oraz GeForce RTX 4090 Laptop GPU - faktycznie czuć, że mamy do czynienia z czymś wyraźnie szybszym. Bardzo duży wzrost wydajności względem topowych układów Ampere w połączeniu z nowym procesem technologicznym TSMC 5 nm (tutaj określanym jako TSMC 4N, czyli niestandardowa forma 5 nm przygotowana z myślą o NVIDII) dał świetny efekt końcowy. Zdecydowanie gorzej wypada pod tym względem GeForce RTX 4070 Laptop GPU czy GeForce RTX 4060 Laptop GPU. Choć są wydajniejsze od poprzedników, to często różnice są wręcz marginalne. Niestety, ale ich specyfikacje zostały mocno poobcinane względem poprzedników z generacji Ampere i tutaj jest to mocno odczuwalne. Dopiero GeForce RTX 4080 Laptop GPU ma więcej jednostek obliczeniowych niż poprzednik (7424 rdzenie CUDA w porównaniu do 6144 w GeForce RTX 3080 Laptop GPU) i podobnie wygląda sprawa w przypadku GeForce RTX 4090 Laptop GPU (9728 rdzeni CUDA w porównaniu do 7424 w GeForce RTX 3080 Ti Laptop GPU).

PurePC.pl skończyło 18 lat, a my odpalamy wehikuł czasu i przypominamy rozwój laptopów do gier w tym czasie [nc1]
Obecny flagowiec w laptopach - NVIDIA GeForce RTX 4090 Laptop GPU. Chip AD103, który go napędza, jest mniejszy niż GA103 z GeForce RTX 3080 Ti Laptop GPU, a wydajność jest znacznie wyższa w grach i programach. Usprawniona architektura i kompletnie nowy proces technologiczny zrobiły przysłowiową robotę w tym wypadku

Układy NVIDIA GeForce RTX 4000 Laptop GPU otrzymały również obsługę nowej wersji DLSS z technologią Frame Generation, napędzaną przez akcelerator Optical Flow, będący częścią Tensorów 4. generacji. Zadaniem akceleratora Optical Flow jest przekazywanie danych o ruchu pikseli z kolejnych klatek do sieci neuronowej DLSS, generując kolejne klatki na układzie GPU, co ma wpływać na zauważalne zwiększenie wydajności w scenariuszach, gdzie to procesor odgrywa istotną rolę. Pomiędzy dwie istniejące klatki umieszczana jest dodatkowa, trzecia klatka. W wielu grach efekty są obecnie bardziej niż zadowalające, zwłaszcza w notebookach, w których z racji mniejszych ekranów, ewentualne artefakty będą mniej widoczne niż na znacznie większych ekranach. Ogólnie rzecz biorąc, generacja Ada Lovelace w laptopach jest tylko połowicznie udana, głównie za sprawą udanych GeForce RTX 4080 Laptop GPU i GeForce RTX 4090 Laptop GPU. Tymczasem mamy połowę 2024 roku - od premiery architektury Ada Lovelace w notebookach minęło już 1,5 roku i pomału zbliżamy się do debiutu kolejnej generacji Blackwell (GeForce RTX 5000 Laptop GPU). Premiery spodziewamy się na początku 2025 roku. Obecnie jednak trudno przewidzieć różnice w wydajności. Proces technologiczny będzie w niewielkim stopniu usprawniony, przez co współczynnik perf/wat z pewnością nie będzie tak wysoki jak przy premierze Ada Lovelace. Rynek laptopów to obecnie nadal przede wszystkim smukłe konstrukcje, co wymusza także cięcia w limitach mocy. Czy Blackwell będzie bardziej udany niż Ampere i Ada Lovelace w laptopach, przekonamy się w przyszłym roku.

Bądź na bieżąco - obserwuj PurePC.pl na Google News
Zgłoś błąd
Liczba komentarzy: 41

Komentarze:

x Wydawca serwisu PurePC.pl informuje, że na swoich stronach www stosuje pliki cookies (tzw. ciasteczka). Kliknij zgadzam się, aby ta informacja nie pojawiała się więcej. Kliknij polityka cookies, aby dowiedzieć się więcej, w tym jak zarządzać plikami cookies za pośrednictwem swojej przeglądarki.