Blog użytkownika Brolin

Brolin Brolin 29.11.2019, 15:03
Co przyniesie dziewiąta generacja konsol, cz.1
1072V

Co przyniesie dziewiąta generacja konsol, cz.1

Albo raczej czego nie przyniesie. Bo naprzód pójdzie, wbrew pozorom ale też prawie jak zwykle, bardzo niewiele. Następne konsole zbliżają się nieubłaganie, a pod wieloma względami gry jak stały w miejscu, tak stać będą. O co chodzi, dlaczego tak jest i czy kiedyś będzie lepiej?

Co przyniesie dziewiąta generacja konsol, cz.2

Niniejszy blog starałem się pisać jak najbardziej rzetelnie i popełniać jak najmniej błędów merytorycznych. Jeśli jakieś znajdą się to śmiało można mi je wytykać w komentarzach, będę poprawiał. Wszystkie oszacowania procentowe są czysto subiektywne i mogę się co do nich mylić.

Być może nie każdy zdaje sobie z tego sprawę ale gry to sztuka. Artystyczna oczywiście też ale ja nie o tym. Mówię tutaj o ich tworzeniu i funkcjonowaniu jako byt cyfrowy. Sztuka, bo jak inaczej nazwać ustawiczny dylemat na co przeznaczyć moc urządzenia aby tytuł był nie tylko piękny ale i oferował nowatorską lub choćby ciekawą mechanikę i bogaty świat. Jak oszukać uczestnika zabawy aby uwierzył, że na ekranie dzieje się coś znacznie bardziej realistycznego niż jest w rzeczywistości. Sprawić, że jak ciachniemy wroga mieczem to aby wrażenie było takie, że ten naprawdę nim dostał. A nie, że miecz ledwie przeniknął zbitek polygonów a bezduszny system kolizji wykrył, że należy odpalić skrypt generujący tryśnięcie krwi. Niekoniecznie z miejsca trafienia. Albo jak przekonać, że kiedy pada deszcz to te krople naprawdę rozbijają się o podłoże, tworzą kałuże i spływają po dachach, murkach, osadzają się na powierzchniach. Podczas gdy każde z tych zjawisk to zupełnie odrębne efekty. Nie mające na siebie absolutnie żadnego fizycznego wpływu a odpalane wyłącznie w odpowiednim, zsynchronizowanym czasie, tworząc w ten sposób przekonującą iluzję. 

Powoływanie do życia wirtualnych światów to prawdziwa sztuka, głównie wyboru

Dobry kod idealnie miesza dostępne zasoby i sztuczki, czasami wręcz ocierające się o magię, aby tworzyć spektakl będący nośnikiem i dla oka i dla gameplayu, i dla fabuły. Wciąż jest to jednak i będzie bardzo, bardzo długo, sztuka wyboru, kombinacji i oszukiwania. Poniżej opiszę różne składowe gry, które podlegają tej zasadzie, objaśnię co jest potrzebne aby zyskały nową jakość i czy stanie się to na kolejnej generacji. 

Fotorealistyczna grafika

W tytułach największego kalibru to właśnie najczęściej grafikę wybiera się jako najważniejszą i to na nią idzie najwięcej mocy obliczeniowej. Wiadomo, co ładne to przyciąga a to jest najważniejsze. Pierwsze na co zwraca się uwagę i co robi efekt wow to właśnie wizualia. Zwykle wystarczy dosłownie ułamek sekundy, jeden rzut okiem, dlatego są tak istotne. Wszystko inne automatycznie przez to jednak traci. Bo choć procesor nie odpowiada bezpośrednio za wyświetlaną grafikę, o to stara się osobna karta czy chip w APU, tak już za obróbkę dużej ilości geometrii i przygotowanie sceny do wyrenderowania tak. A to jest obciążenie. 

Niewiarygodny poziom szczegółowości i detali możliwy w Unreal Engine 4

Na podium tego w jakim kierunku będą szły gry wciąż więc stać będzie dążenie do fotorealizmu. Lecz i tak droga jeszcze daleka i na 100% nie doczekamy jej końca na PS5 czy nowym Xboxie. Stwierdzenie niby oczywiste i trywialne ale wielu napala się na taki skok. Sprowadzam na ziemię, można o tym zapomnieć. Mniejsze produkcje, o niewielkich obszarach działania, jak np. P.T. czy w stylu Until Dawn, z dużą ilością mroku, oczywiście będą zbliżać się szybciej do wymarzonej granicy. Wielkie sandboxy z potężnym obszarem rysowania, znacznie wolniej. Chyba, że będą tak puste jak Death Stranding. Wtedy oczywiście o to łatwiej. 

Czy takie postaci zobaczymy na next-genach? Parę produkcji może się do tego zbliżyć

Za ciekawostkę niech posłuży fakt jak wygląda fotorealizm w branży filmowej. Niestety jestem trochę do tyłu i nie wiem w szczegółach jak jest obecnie ale jeszcze jakieś 10-15 lat temu, wyrenderowanie nawet jednej klatki skomplikowanej pod względem efektów sceny, zajmować mogło nawet kilka dni. I to nie na jednym hi-endowym komputerze... ale powiedzmy 85% farmy renderingu, czyli wielu połączonych ze sobą tylko w tym jednym celu sprzętach. Tyle zabierały choćby sceny z Devastatorem w Transformers 2 z 2009 roku. W ILM czyli jednym z największych i najbardziej prestiżowych studiów od komputerowych efektów specjalnych we filmach. Biorąc pod uwagę jak relatywnie niewielki postęp dokonał się w mocy obliczeniowej komputerów, można spokojnie zakładać, że choć czasy renderingu poszły do przodu, to i tak wciąż są bardzo długie i wymagające.

72 godziny renderingu jednej klatki formatu IMAX i w sumie 7 miesięcy badań nad symulacją zachowań bloków piramidy

Tworzyło się więc i wciąż tworzy tzw. prewizualizacje czyli komputerowe, uproszczone wersje scenografii i samych scen. Bez tekstur, oświetlenia, na prostych modelach i z podstawową animacją. Po dopracowaniu, dopiero coś takiego renderuje się. Tworzenia w czasie rzeczywistym na wizualnie gotowym środowisku wciąż jeszcze nie ma więc tym bardziej szybko nie doczekamy jej w grach. 

Spokojnie można po prostu przestać czekać na hiper realizm, może to zająć nawet 2-3 kolejne generacje. 

Szansa na zmianę/zastosowanie: 5-10%

Sztuczna inteligencja

Zależna w bardzo dużym stopniu od procesora, nie spodziewajcie się fajerwerków. Nie bez powodu nie pojawiają się żadne konkrety ani nawet plotki na ten temat apropo nowych sprzętów.

Szansa na zmianę: będzie jak obecnie, czasem lepiej, czasem gorzej

Włosy i futerka
Duża ilość animowanych obiektów
Destrukcja otoczenia, fizyka

Wszystkie 3 rzeczy w jednym podpunkcie. Dlaczego? Bo nie ruszą szczególnie z miejsca i pozostaną na poziomie bardzo obecnym do zbliżonego. Przede wszystkim każde z nich bardzo zależy od procesora, który jak już wiemy, nie podoła. Oczywiście mamy wyjątki z przeszłości, które każdą z którejś z w.w. składowych miały na bardzo zadowalającym czy nawet zapierającym dech poziomie ale one tylko potwierdzają regułę. 

Na konsolach, ze względu na użytą technologię, chyba tylko Tomb Raider miał nowoczesnymi metodami zrobione włosy. Nawet Uncharted 4 robił je jeszcze nieco starszymi sztuczkami. Na PC jest Nvidia HairWorks. Wykorzystywana częściej bo np. w Wiedźmin 3 czy Metro Exodus. Problem jest tylko taki, że włączona potrafi obniżyć ilość wyświetlanych klatek na sekundę nawet o 30%. Czyli np. z 60 robi się 40. Głupie włosy jednej postaci! A co dopiero mówić gdy na ekranie miałaby pojawić się np. wataha wilków. Wszystkie musiałyby być chyba wyleniałe aby dało się grać.


Takie rzeczy tylko na demach technicznych. I aż strach pomyśleć jakie bugi będą z nimi związane znając Frostbite

O ile w ogóle pojawiła by się wataha a nie jak to zwykle max trzy, cztery osobniki. Bo duża ilość animowanych, poruszanych sztuczną inteligencją i dobrze wyglądających modeli to problem równie wielki. To dlatego hordy w Days Gone robią tak piorunujące wrażenie. To wciąż jedna z nielicznych gier tpp mająca tylu wyświetlanych przeciwników na ekranie naraz. Nie wiem co zrobiło Bend Studio aby to osiągnąć ale musieli napracować się naprawdę niemało zwłaszcza, że grafice również nie można nic zarzucić. Dużo przeciwników pojawia się czasem jeszcze w dungeon-crawlerach ale to jest inny kaliber produkcji a dodatkowo na konsolach najczęściej łapią one solidne dropy animacji.

Ogromne ilości przeciwników na ekranie nadal będą rzadkością...

No i destrukcja otoczenia, której ostatnim, flagowym przedstawicielem ale i potwierdzeniem powyższych tez jest Control. Rozpierducha bywa solidna, kto nie widział niech nadrabia. Co z tego skoro nawet Xbox One X nie jest w stanie płynnie jej pociągnąć? Control posiada ponadto bardzo prostą, w porównaniu do obecnych standardów, grafikę i geometrię. Strach pomyśleć co by było, gdyby taka destrukcja pojawiła się w naprawdę topowej graficznie grze. W ponowne obiecanki dotyczące mocy obliczeniowej z chmury nie warto zbytnio wierzyć. Były i na początku poprzedniej generacji a co z tego wyszło dobrze wiemy.

...podobnie jak zaawansowana destrukcja otoczenia...

...a co dopiero coś takiego

Szansa na zmianę/zastosowanie: będzie jak obecnie, będą też wyjątki

Symulowanie efektów ognia, wody, deszczu itp.

Temu zagadnieniu postanowiłem poświęcić osobny podpunkt. Tu też niewiele się zmieni bo zarżnięto by procesory, sam temat jest jednak bardzo ciekawy.

"Najprostsze" do zrobienia są chmury i te stoją obecnie na bardzo wysokim poziomie. Dzięki technologii wolumetrycznej są obiektami trójwymiarowymi a nie jak dawniej, bitmapą. Do tego można generować je proceduralnie tworząc unikalne i wyjątkowe kształty. Driveclub i Horizon zawdzięczają im wiele wdzięku. Jako jedyne też, można uznać je za prawdziwą, liczoną w czasie rzeczywistym symulację. A zaawansowane narzędzia do ich tworzenia są powszechnie dostępne w silnikach do gier. Do chmur zakwalifikować można częściowo także mgły, efekty pary, dymu itp. Częściowo, bo ich emisja i roznoszenie się w pomieszczeniach zamkniętych i przy natrafianiu na przeszkody, nadal nie została nigdzie poprawnie zaimplementowana. Praktycznie zawsze widać jak obłok przenika lub jest odcinany w zderzeniu z tym to co mu na drodze. Ze względu na spore wymagania dotyczące liczenia kolizji i przekształceń aby temu zapobiec, jeszcze długo tak będzie.

Chmurom więcej właściwie nie potrzeba, już teraz niczego im nie brakuje

Deszcz również został już całkiem nieźle dopracowany ale jest już sztuczką. To wyłącznie zbiór dobrze zrobionych, np. polygonów udających krople deszczu. Ich rozbijanie się o podłoże to osobne animacje. Lanie się po postaciach, dachach czy ścianach to shadery. Zbieranie się wody w kałużach to sam nie wiem ;) W każdym razie o symulacji moglibyśmy mówić, gdyby każda z tych składowych była od siebie zależna i prowadziła do naturalnych, poddatnych fizyce zachowań wody. Czyli każda kropla musiałaby być osobnym obiektem fizycznym. Są oczywiście drobne wyjątki, choćby Driveclub i woda zbierająca się i ściągana przez wycieraczki na szybach, przelewająca się z boku na bok przy skręcaniu auta itd. Przypuszczam, że tu już rzeczywiście może wchodzić w grę symulacja, choć tylko niewielkiego obszaru i mimo wszystko uproszczona.

Infamous: Second Son, jeden z lepiej wykonanych deszczy w grach, wraz z wzbierającymi kałużami

Woda będąca częścią dużych zbiorników, jak np. morza, wizualnie jest już bardzo dobra. Nawet Assassins Creed 4 Black Flag robi pod tym względem spore wrażenie. Ale ponownie, symulowany jest w zasadzie jedynie wizualny jej aspekt, fale, tafla, piana itp, natomiast nie są symulowane właściwości płynu. I właśnie dlatego w grach nie ma scen, w których pomieszczenia czy obszary są dynamicznie zalewane. Dynamika wypełniającej przestrzeń wody jest bowiem niesamowicie procesożerna i rzadko kiedy ktoś podejmuje się tego zadania a jak już to za pomocą wysublimowanych sztuczek. Uncharted 3 udanie zatapia w ten sposób statek, przewracając go na bok w czasie rzeczywistym. W jednej z sekwencji pokazuje, jak pomieszczenie zaczyna zalewać woda po czym obraca się ono o 90 stopni z realistycznymi tego konsekwencjami. Jest też Hydrophobia Prophecy, w dużej mierze oparta na zabawie z życiodajną cieczą. Poza tym? No właśnie.

Symulacja rozlewającej się wody. Czas renderingu zaledwie 200... godzin

Ze śniegiem bywa różnie, na pewno wykroczyliśmy ponad same tylko jego opady i zostawiane na nim ślady stóp. Pierwsze zmiany poczynił Lost Planet i był to prawdziwy powiew nowej generacji w czasach Xbox 360. Pamiętacie to? Chłopek chodząc zapadał się w białym puchu a wraz z kolejnymi krokami podrzucał w górę jego kawałki. Obecnie najbardziej zaawansowany sposób zostawiania śladów wykorzystywany jest w God of War i RDR 2. I znowu, nie symulacja a uproszczona technika deformacji terenu. Wizualnie jest jednak naprawdę nieźle i prawdopodobnie będzie ona coraz bardziej powszechna. Pochodne śniegu jak np. łamiąca się kra lodowa to konkretne, dodatkowe wyzwanie. O czym można było przekonać się na ostatnim trailerze TLoU 2 kiedy to Digital Foundry nie posiadali się z radości na widok, jak koniki ładnie ją rozbijały.

Deformacja śniegu, względnie prosta zasada działania a satysfakcjonujące efekty

Na koniec zostawiłem sobie ogień czyli mój ulubiony żywioł. Moim zdaniem najtrudniejszy do zasymulowania. W ilu bowiem grach widzieliście jak w czasie rzeczywistym roznosi się on, zajmując kolejne przestrzenie i umieszczone w nich graty? Osmalając je, stopniowo, na różne sposoby niszcząc, ostatecznie spopielając? Oskryptowane sekwencje nie liczą się. Tak jak choćby w najnowszym Modern Warfare, gdzie choć ogień wygląda pięknie, to wszystkie palące się obiekty to z góry przygotowana sekwencja. I palić będą się w nieskończoność bo tak zrobiona została scena, nie zgasną. Jedynie Far Cry wybijał się pod tym względem. Można było podpalić tam trawę i ona naprawdę była pochłaniana kolejnymi falami płomieni. To jednak była zaledwie trawa, żadne domki czy inne obiekty. 

Piękne ale "martwe" widowisko, w pełni z góry przeliczone i zainscenizowane skryptami

A przepraszam, jest jeszcze wiatr ale w tym temacie nie mam wystarczającej wiedzy więc niestety muszę pominąć :D Pokazano ostatnio jakieś demo technologiczne niezłej wichury na UE4 ale wiadomo jak to z taki pokazówkami jest, rzadko kiedy oddają to co realnie później implementuje się w grach.

Kolejne demo techniczne a więc trudno brać je na poważnie

Jak więc widać symulacji, które robiłyby bez wątpienia największe wrażenie, bo są niezaplanowane i spontaniczne, prawie na pewno nie doczekamy. Będą tylko coraz ładniejsze skrypty. 

Szansa na zmianę: 0.5%, będzie tylko ładniej. Bardzo okazjonalnie pojawi się nowa technika do jakiegoś żywiołu

 

W następnym odcinku 

Dlaczego światy w grach tylko udają, że żyją, czemu znikają efekty naszych wandalizmów, jak się robi nowoczesny facial mocap i wiele więcej.

Tagi: fotorealistyczna grafika fotorealizm Next-Gen playstation 5 xbox scarlett

Oceń notkę
+ +31 -

Oceń profil
+ +26 -
Brolin
Ranking: 1043 Poziom: 42
PD: 10087
REPUTACJA: 2975