Diit.cz - Novinky a informace o hardware, software a internetu

Diskuse k Až +67 % výkonu s novými ovladači pro Radeony v The Last of Us a Forza Horizon 5

Další zabugované hry musely být opraveny skrz ovladače..

+1
+4
-1
Je komentář přínosný?

Otázka, nakolik to byla chyba ve hře, nebo jenom vynechání optimalizace něčeho, co už dávno mělo fungovat a tudíž spíše nebyly vyladěné ovladače. A to by mě třeba určitě zajímalo.
Těžko nazvat něco chybou, když to není napsané nejlepším možným způsobem a někdo časem najde lepší způsob a funkčnost výrazně zrychlí.
Jako chybu lze jednoznačně označit něco, co buď nefuguje podle specifikace, nebo zhorší stávající stav bez jiného přínosu.

+1
-1
-1
Je komentář přínosný?

Linux a Blender tom bola výraznejšia oprava chyby pri kompilácii shaderov a tým zrýchlenie tejto činnosti 2 788%, čím prestal byť nepoužiteľým predsa len kompilácia 251 s je iná ako 9 sekundová a to existuje možnosť 16 minútovej kompilácie (oproti 20 s na nvidia-i)

25.7. 2023
https://www.phoronix.com/news/AMD-Mesa-Faster-Blender-Shader

Holt chyby treba opraviť

+1
+1
-1
Je komentář přínosný?

Pisete "Holt chyby treba opraviť", ale preferovany zdejsi termin je "zrani ovladacu jako vino". Viz vinova ilustaracni bukkake fotka

+1
-5
-1
Je komentář přínosný?

IMO mícháte (s Petrem) dohromady ovladače od AMD a chybu v MESA, za kterou podle mě AMD nemůže. Dost fail jako.

+1
+7
-1
Je komentář přínosný?

Mesa NIR som prehliadol, myslel som na iný kompilátor shader=ov a sćie ACO od Valve
https://www.phoronix.com/news/RadeonSI-ACO-Mono-Merged

+1
+2
-1
Je komentář přínosný?

Ale pořád je to práce jiného subjektu, než AMD. tudíž ve vztahu ke údržbě ovladačů firmou AMD celkem irelevantní. Myslím si. :)

+1
+3
-1
Je komentář přínosný?

V prípade ACO AMD platí niečo Valve a tuším sú tam ľudia z Pensando-a, ktorí spolupracujú

+1
0
-1
Je komentář přínosný?

v konecnom dosledku (ci po opraveni chyb, alebo vyladeni driverov) nove radeony rx 7900xtx davaju vo forza horizon 5 160-206 fps vs genialna a nicim neprekonana ada lovelace tj. rtx 4080 95-160fps.
https://youtu.be/doa_6o9TiEA?t=1482
chcelo by to trosku vina aj pre nvidie

+1
+6
-1
Je komentář přínosný?

u NV je vše už dávno na 110% a výkon přinese nový model s novým 12VHPWR konektorem. A kdo to nechápe, toho Huang upálí na hranici se Serverní Koreou! Halelujááá!!!

+1
+7
-1
Je komentář přínosný?

"vs genialna a nicim neprekonana ada lovelace tj. rtx 4080" .. kromě rtx 4090, že ;-)

+1
-1
-1
Je komentář přínosný?

jasne, topiaci sa aj rtx 4090tky chyta :)
1700+€ kariet. Mozno ze tie davaju take fps ako rx7900xtx v tej hre...snad

+1
+1
-1
Je komentář přínosný?

Ale furt rtx 4080 překonává, že?

+1
-1
-1
Je komentář přínosný?

https://youtu.be/0Wc5YTIIjXU?t=283
nasiel som test s r7 5800x3D
nie je to ziadna vyhra, aj ked das nejakych 20fps k dobru co v priemere je tam rozdiel v cpu 5800x3d vs 7700x
a este jeden test:
https://www.youtube.com/watch?v=TB43Gntofyc
160-190fps na 1440p ryzen 7 7700x a rtx 4090

to nove amd vino drti neskutocne aj 4090tky

+1
+3
-1
Je komentář přínosný?

To chce mírnou dávku fandovství toto tvrzení, ale ok. V pár AMD friendly hrách vyhrává 7900xtx. Gratulki.

+1
0
-1
Je komentář přínosný?

dakujem za gratulky, hned je zivot krajsi :)
btw preco je forza AMD friendly hra?

+1
0
-1
Je komentář přínosný?

Primárně vychází na xbox. Hrál jsem ji na xbox one S a pozitivně mě překvapilo, jak taková stará konzole udělá tak pěknou grafiku.

+1
0
-1
Je komentář přínosný?

btw teraz pozeram review na remnant II
https://www.techpowerup.com/review/remnant-2-benchmark-test-performance-...
4090 vs 7900xtx v 1080 rozdiel 7fps, v 1440p rozdiel 7fps a v 4K <1fps

+1
0
-1
Je komentář přínosný?

Určitě jo. Nejsem fanda ani kupující snob-endu, mířím jen na vyšší mainstream. Ale pozor na cherry picking.

Z Vašeho článku " "we designed the game with upscaling in mind (DLSS/FSR/XeSS)." To me that sounds like a lame excuse as to why performance sucks. "

+1
0
-1
Je komentář přínosný?

s tym nic nespravime, preto si myslim ze vsetky tie upscallingy su cestou do pekla

+1
+1
-1
Je komentář přínosný?

Upscalingy nevím, zatím jsem zkoušel jen chvíli DLSS2 a ve Farcry FSR a to FSR jsem vypnout musel to byl shit. DLSS2 jsem puštěné mít musel, protože portal RTX bez toho běžel pomale. Ale zato byl krásnej :-)

Nicméně moc malý vzorek her, na kterém jsem to zkoušel. Proto ani neříkám, co je lepší.

U nových her bez full pathtracingu to ale zní jako výmluva, vybodli jsme se na optimalizace.

+1
-1
-1
Je komentář přínosný?

na HWU testovali dlss a fsr, jasně vyšlo, že dlss je lepší skoro ve všech testovacích scénáří než fsr, max. někde bylo fsr na stejno

úspora výkonu byla stejná

+1
-1
-1
Je komentář přínosný?

https://www.youtube.com/watch?v=CZmTqEJPSeE a tu mas chlapika, ktory sa to snazil analyzovat a vo 1440p a vyssom rozliseni tvrdi, ze je tam rozdiel na urovni chcenia verit

+1
+3
-1
Je komentář přínosný?

aha díky za tip

+1
0
-1
Je komentář přínosný?

Najskor by som si pozrel co je za nastroj autor videa pouzil na testovanie a co presne robi. Nie brat nekriticky hocico len preto, lebo zasa ty chces verit, ze rozdiely medzi FSR a DLSS neuvidis. Odcitujem jeden komentar pod videom:

"There is still issues with this method of testing. First of all, if the native image is using TAA, it will actually introduce more ghosting compared to No TAA or DLAA/DLSS, so it can't really be a good metric for objective image quality, because the native image itself isn't really good either, and this method only compares how similar image is compared to the reference footage, not rather if it is better. The second issue if the native image has no TAA, if DLSS anti-aliased the image, it will be significantly less similar to the native image with no anti-aliasing, but it wouldn't necessarily look worst than the native image, since the native image is arguably worst looking due to the lack of anti-aliasing. So yeah this is still not a valid way to compare, I will say the most valid way to compare will be against a native image with 2X SSAA, in another word, if you're comparing at 4K, you use a prerendered 8K footage, and downscaling it to 4K, to have perfect anti aliasing without ghosting, this way the reference footage will be closer to what the game will look like with anti aliasing, but without the ghosting, this way you are actually comparing an image that is objectively the best quality, instead of just being native TAA or no AA."

Sam autor videa pod tym komentarom napisal, ze:

"stated in the vid that this method is flawed and can be refined. Super sampling is entirely possible. As for ghosting, the vmaf output isn't detecting ghosting or artifacts due to ghosting."

HWU je tu vzdy brane ako nejaky svaty gral ked ich vysledky su pozitivne ku AMD alebo za nieco kritizuju NVIDIu. Ked si ale dovolia tvrdit ze nieco od NV je lepsie, tak si hned najdeme nieco ine, pretoze to urcite nie je mozne.

+1
0
-1
Je komentář přínosný?

Dokonalejší systém srovnání video výstupu ještě nikdo do praxe nezavedl. Ale jsem si jistý, že i kdyby ano, stále bude dost odpůrců patrně z obou táborů. Což je komické, když si uvědomíme že vizuální porovnávání statických snímků je taky odsuzováno. Můj názor je ten, že někteří prostě takové srovnání ani nechtějí a tyto metody budou používat, aby nakrmili své monitory s vysokou obnovovací frekvencí, i kdyby to reálný přínos nemělo. Protože jak tam bylo uvedeno, generování mezisnímků potřebuje dva rendery a z nich teprve dopočítá ty navíc. Takže logicky se zvětšuje zpoždění o jeden render a to dopočítané a s tím se nic dělat nedá. Dopočítávání do plného rozlišení je jiná kategorie, ta reálný přínos má, byť opět stojí nějaký výpočetní čas. Nemůžu si pomoct, ale kdyby tranzistory, které tyto věci pořítají byly rozděleny mezi render a raytracing, bylo by to užitečnější, byť by počet snímků za sekundu tolik nenarostl.

+1
0
-1
Je komentář přínosný?

Tu ide ale o to vyhodnocovanie a interpretaciu vysledku. Ked si ako zaklad (original) zoberiete 4K bez antialiasingu a k tomu vystup z DLSS a FSR, tak DLSS bude mat z principu vacsiu odchylku od originalu ako FSR, pretoze ono ten obraz aj vyhladi. Ale FSR z toho porovnania vide uspesnejsie pretoze sa bude viac podobat originalu. Ale nebude krajsi vyhladeny obraz ako je v originale alebo na vystupe z FSR? Proste FSR aj DLSS obraz rekonstruuju a mozu dopocitavat detaily, ktore v originale neboli (ako to robi DLSS s tym AA). Dalsi taky priklad je aj v tom komentari k videu co som zapisal vyssie pri native+TAA, kde pri tejto kombinacii je vystup z DLSS dokonca lepsi. Proste len strojovo merat odchylky nie je podla mna lepsi pristup a len to samotne nestaci.
Okrem toho vykon grafickych kariet nerastie extra rychlo a tento narast sa este postupne spomaluje, kedze je cim dalej tazsie prechadzat na nove vyrobne procesy. Preto podla mna vobec nie je na skodu mat a rozvijat technologie ako FSR/DLSS/XeSS. Je to dalsia moznost ako posuvat grafiku hier dopredu. Pretoze aj tieto technologie sa budu zlepsovat a moze Vam byt jedno, ze nerenderujete obraz v native ked vystup bude v native a bude sa Vam pacit.
Tiez si nemyslim, ze tych tranzistorov je na to pouzitych nejak vela. Myslim si, ze realne by FPS nestupli ani zdaleka o tolko ako ich mame mat moznost teraz (a to vobec nehovorim o FG). DLSS a spol predsa neriesi polka GPU cipu ale len mala cast z neho.

+1
0
-1
Je komentář přínosný?

A proč jsem asi psal o porovnávání statických snímků? Originál opravdu může být 8k. Ale nebude to srovnávat SW nýbrž několik párů lidských očí a samozřejmě formou slepého testu.

"Okrem toho vykon grafickych kariet nerastie extra rychlo a tento narast sa este postupne spomaluje." A právě proto by se mělo víc zaměřovat na rasterizaci a raytracing než na něco, co si část obrazu i celé snímky domýšlí. Mimochodem té navýšené latenci jste se hezky vyhnul. Ale už z principu tam je. Protože obraz, který už by mohl být poslaný na monitor se musí poslat až po dopočítaném meziobrazu. Tam to logicky zkrátit nejde.

+1
+1
-1
Je komentář přínosný?

Staticke snimky nestacia. Je treba vidiet aj to, aky je obraz v pohybe. Kde mozete vidiet preblikavanie textur, alias a blikanie tenkych linii ako droty a podobne. Taketo chyby sa najdu vo vsetkych tychto technologiach, ale zrovnavat treba na viacerych vzorkach hier. HWU to urobilo v 26 hrach.

DLSS a ani FSR si nic nedomysla. Ani FG. Vsetky data su pocitane z viacerych vstupnych zdrojov. Tam nie je nieco len tak ad hoc. A latencii som sa nevyhol. Ta je kompenzovana Reflexom a byva vacsinou mensia ako bez DLSS a Refllexu. Ak dokazete hrat danu hru bez NV technologii DLSS a Reflexu, nemal by byt problem ani s FG, ktory zasa na oplatku zlepsi plynulost obrazu.

BTW ak viete ako funguje pocitacova grafika a rendering, tak viete, ze sa vsetko "fake-uje" resp. aproximuje. Je to normalba vec. Tym, ze usetrite par tranzistorov na DLSS si nijak nepomozete. AMD nema ziadne specialne jadra na pociranie AI v hernych grafikach a ma snad lepsi vykon ako NV?

+1
0
-1
Je komentář přínosný?

Takže DLSS čeká na dva snímky, aby z nich dopočítal ten mezi nimi a latence je nižší než bez? Jakým kouzlem. Pokud nějaký snímek neexistuje, musí se na něj čekat a až z toho se dopočítává mezisnímek, tak to nějakou chvíli trvá. Takže latence mezi reakcí hráče a obrazovým výstupem nemůže být kratší. Leda že by Reflex nějak zkrátil potřebný počet úkonů, vynechat nic nemůže tak jedině tím, že by něco místo sériově provedl paralelně.

Nvidia moc Reflex nevysvětluje.

+1
0
-1
Je komentář přínosný?

NVIDIA reflex vysvetluje:

https://www.nvidia.com/en-us/geforce/news/reflex-low-latency-platform/

Takze reflexom sa celkova latencia znizi a potom zasa zvysi ak je pouzity FG. Vacsinou mate ale stale latenciu nizsiu alebo rovnu ako bola v native bez reflexu a FG.

Vybrat si teda mozete ci chcete nizku latenciu alebo plynulejsi framerate, ktory ale stale moze mat latenciu nizsiu nez v zaklade.

+1
-1
-1
Je komentář přínosný?

A hádejte, co je pro herní zážitek důležitější, zda plynulost a nebo vysoké framerate. Pořád a to se týká prakticky všech herních testů, se výsledky zaměřují primárně na maxima a v lepším případě průměrná FPS. Ale minima a právě tu plynulost měří málokdo. Asi ty výsledky v grafu nejsou tak hezké, ale jsou důležité.

+1
+1
-1
Je komentář přínosný?

V poriadku. V hrach kde je FG je vzdy aj Reflex. Kludne mozete pouzit iba Reflex a znizit odozvu na minimum. Inak predpokladam, ze hravate hry aj bez tychto technologii. Tak si predstavte, ze by ste mohli v tych hrach mat plynulejsi framerate a stale lepsiu odozvu, nez na aku ste zvyknuty. Je fajn ked si ludia mozu vybrat. :-)

+1
-1
-1
Je komentář přínosný?

Reflex určitě ne, už několik posledních PC výhradně AMD+AMD, něco kvůli výhodnosti a něco protože AMD víc než 20 let fandím.

+1
0
-1
Je komentář přínosný?

Ja som to mal AMD + NVIDIA a aj Intel + NVIDIA. NVIDIA dlhodobo taha pocitacovu grafiku v hrach dopredu a ponuka navyse k tomu zodpovedajuce ficury. Ja proste fandim pokroku v grafike (to ale neznamena, ze hratelnost a zabava su tym u mna upozadene).

+1
-1
-1
Je komentář přínosný?

Nvidia vznikla tak, že odešlo několik inženýrů ze Silicon Graphics a založili svou firmu. Potom když měli první Quadro a to se následně do nejnižšířady SGI začalo montovat. Byli draví a šlo jim to, ale co mi vadí, jejich obchodní politika, kdy si s Intelem v řadě věcí můžou podat ruce. A protože se v IT pohybuji celkem dlouho, vím své. Nvidia musí tlačit na DLSS, protože s vývojem čipletů začali pozdě. Velké monolity jsou prostě drahé a to se časem bude projevovat stále víc. Takže není tolik prostoru na navyšování hrobého výkonu, totéž řeší AMD. Jen s tím rozdílem, že s čiplety už mají zkušenosti.

+1
0
-1
Je komentář přínosný?

Neviem o tom, ze by DLSS nejak suviselo s cipletmi. Vzniklo ako dvojicka k raytracingu z pochopitelnych dovodov.

+1
-1
-1
Je komentář přínosný?

Když chybí hrubý výkon, musí to nahnat přes DLSS. Nezlobte se na mne, ale fakt mám někdy pocit, že někteří fanoušci Nvidie občas nechápou souvislosti a možná záměrně.

+1
+1
-1
Je komentář přínosný?

Nevidim, ze by NV chybal vykon oproti konkurencii. Vy snad hej? Praveze vdaka FSR/DLSS viete ziskat vykon navyse. Nie chybajuci v porovnani s konkurenciou. A s cipletmi to nema nic spolocne (DLSS vzniklo davno predtym ako vysla prva cipletova GPU od AMD). Kym AMD nevyda hernu GPU s viac ako jednym grafickym cipletom, tak si NVIDIA stale vystaci s monolitom. Vykonovo si tymto AMD nepomoze. Pomoze si vo vyrobnych nakladoch, ale o tych sa teraz nebavime. A nehnevajte sa na mna Vy, ale fandovia AMD by si nemali domyslat suvislosti tam, kde nie su, aby to nedopadlo ako s Honzom Stachom, kde tie tzv. suvislosti su skor zboznym prianim ci snom ich autora. NVIDIA aj bez DLSS nezaostava vo vykone za konkurenciou. A su to prave oni, kto ma v poslednych niekolko generaciach najvykonnejsiu hernu GPU na trhu.

+1
0
-1
Je komentář přínosný?

Takže konstruktéři nevidí roky dopředu... AMD v době kdy začali vyvíjet ZEN, už věděli, že jednou stejný přístup uplatní i grafik. Šlo jen o to, jak to udělat. A samozřejmě že jde o náklady. Ale i o to, že chiplety umožňují udělat i architekturu s takovou plochou křemíku, kterou monolit už neumožňuje. Takže umožňují dosáhnout většího výkonu.

+1
0
-1
Je komentář přínosný?

To nad cim myslia konstrukteri tychto firiem nevieme. Su to len Vase dohady. Cim by si NV pomohla proti viac grafickym cipletom prave s DLSS? Ved AMD by aj tak odskocilo s FSR. Tieto technologie nie su o chybajucom vykone voci konkurencii. Ale o vykone navyse pre raytracing ci graficky narocne hry. Mam pocit, ze Vy predpokladate, ze NV sa uz roky dopredu boji AMD ze nebude stihat a preto uz s predstihom vymysla barlicky typu DLSS. Ak sa ale dostanu do situacie, ze AMD bude mat viac grafickych cipletov v jednej hernej GPU a oni stale monolit, tak im DLSS nepomoze.

+1
0
-1
Je komentář přínosný?

Vývoj SW může trvat kratší dobu než HW. Ale pokud jsou k tomu v čipu přímo určené jednotky, tak to bude určitě několik let. Takže plán to být musel.

+1
0
-1
Je komentář přínosný?

Plan to bol podla mna kvoli raytracingu. A tiez celkovo vykon GPU nestupa tak rychlo a casto ako v minulosti. Ale nie je to nahrada pre pripad, ze by niekto vyraznejsie nestihal v HW vykone.

+1
0
-1
Je komentář přínosný?

To jsem ani takto nenapsal. Už kvůli tomu, že vývoj technologie chvíli trvá a tedy není možné reagovat dost rychle, vždy tam bude minimálně 1-2 generace prodleva. Věděli, že výkonový posun už není možný tak jako dřív a přišli s jiným nápadem. Možná za rok dva už bude obraz tak kvalitní, že v tom nebude rozdíl, ale zatím o tom přesvědčený nejsem. Taky proto žádné DLSS v profi segmentu není a ty obvody využívají jinak.

+1
0
-1
Je komentář přínosný?

4090kari koušou klávesnice :D

+1
+2
-1
Je komentář přínosný?

Jiná cenová liga.

+1
0
-1
Je komentář přínosný?

To máte tak, když musíte měnit architekturu GPU každé 2-3 roky podle toho, jak marketing píská. Za tu dobu tomu programátoři teprve začnou rozumět na vyšší úrovni a najednou konec, učte se novou, protože je potřeba nová nálepka na krabici. V CPU světě tak extrémní plýtvání lidskou prací není.

+1
-2
-1
Je komentář přínosný?

To si úplně nemyslím.
1)ta architektura se nemění tak zásadně. Je to spíš evoluce než revoluce.
2)na jedné straně ty rozdíly dokáží lehce eliminovat ovladače a má straně druhé function api.

Jako jo, vždy se to trochu ladí a neškodilo by počkat ještě půl roku. To ano. Ale že by se musel člověk vyloženě učit znova, to ne. Bavíme-li se tedy o programátorech aplikaci/her. Od toho slouží knihovny jako directx nebo vulkan .

+1
0
-1
Je komentář přínosný?

btw včera vyšel remnant 2 s tím, že je to první větší UE5 titul a dopadlo to pro grafické karty katastrofálně, vývojáři řekli, že v podstatě počítají že lidi budou používat DLSS, FSR nebo XeSS:
"Pokud si chcete zahrát na nativní FullHD s Ultra detaily, budete potřebovat alespoň RTX 3080."
"RTX 4090 - V nativním 1440p okolo 70 FPS, ve 4K pak přibližně 40 snímků za sekundu."

takže lidi zase tahaj za kratší konec, místo aby dlss sloužilo lidem s horším hw užít si lepší vyzuál tak vývojáři dlss využijí k neoptimalizaci

+1
+2
-1
Je komentář přínosný?

Na UE5 už dávno běží Fortnite, a když tam pozapínáš všechny ty volovinky (ty které všichni vypínají aby měli 900fps) taky to vypadá luxusně a je to náročné.
Čím víc grafiku posunuješ k dokonalosti, tak geometrickou řadou stoupají nároky na HW při minimálním reálném (postřehnutelném) rozdílu v obraze.

Tohle ví moc dobře třeba Nintendo :)

+1
+3
-1
Je komentář přínosný?

fortnite se nedá moc považovat za bernou minci, 1) to musí běhat na každým šrotu a 2) to dělá přímo výrobce toho enginu
takže tohle je 1. vlašťovka jak budou vypadat ue5 hry samozřejmě je to jejich rozhodnutí využít upscaling místo optimalizace nebo zlepšní vizuálu těžko říct, team remnanta je celkem malý, ale díky ue5 budou i tyhle menší teamy dělat vizuálně pěkné ale asi dost náročné hry

+1
+1
-1
Je komentář přínosný?

toto si zasluzi review bombing...popripade skusit zapnut hru na high nie ultra :)

+1
-1
-1
Je komentář přínosný?

To není tak strašné. Lidi nejsou úplné ovce a zatím bude stačit, když si uvědomí, že každá hra (většina) nemusí mít vysoké fps. Vždycky povolí nejslabší článek řetězce a tím jsou 100+ Hz monitory a raytracing.

+1
+2
-1
Je komentář přínosný?

tam je problém, že z jedný strany máš drahý grafiky s ojebávkama typu malá vram nebo 10% generační nárůst a z druhý strany ti jde šlendrián herních vývojářů

když si všimneš tak mezi low a ultra takové vizuální rozdíly nejsou a ani fps není ani poloviční rozdíl mezi low a ultra, takže to vypadá že udělali jednu verzi a low detaily oškubali jenom v particle efektech a nasvícení

+1
+2
-1
Je komentář přínosný?

Přijde mi, že graficky to tedy moc úžasně nevypadá.

Tohle je docela dobrý příklad: https://www.techpowerup.com/review/remnant-2-benchmark-test-performance-...

+1
0
-1
Je komentář přínosný?

když to porovnám s HL2
https://www.gamespot.com/a/uploads/original/gamespot/images/2004/screen0...

tak až na ty textury to takový rozdíl není, je to smutný kam vývoj směřuje, možnosti tvorby her jsou mnohem lepší, ale že by to přidávalo na kvalitě to se říct nedá

stejně jako se prý ohradili někteří vývojáři na Balders gate 3, že ať lidi nepočítaj že je to novej standard rpg a že oni takové prostředky nemaj bla bla bla a že je to nefér, wtf

+1
+2
-1
Je komentář přínosný?

Pro psaní komentářů se, prosím, přihlaste nebo registrujte.