Diit.cz - Novinky a informace o hardware, software a internetu

Diskuse k O kolik je Polaris efektivnější než předchozí architektury GCN?

Neslo by provest srovnani architektur NVidia a AMD, aby bylo jasne videt o kolik lepsi je architektura GCN? Aby proste kazdy i mistni fans NVidie pochopili, ze zatimco na Radeonu jedete na nejnovejsi a spickove architekture, na GeForce jedete na zastartalem krapu a nova architektura prijde nejdriv za rok s Volta.

+1
+6
-1
Je komentář přínosný?

Hehe. To je dobrý vtip. Skôr by si z takého testu musel niečo pochopiť ty. Nebol si to zrovna ty, kto tvrdil, že NVIDIA necháva výpočty cez ovládač vykonávať na CPU na rozdiel od AMD, ktoré ich vykonáva na GPU? Už len kvôi tomuto by som na tvojom mieste radšej pomlčal.

+1
-3
-1
Je komentář přínosný?

A ako by si predstavoval ten test? Aby bol objektivny. Lebo urcite je kazda technologia v niecom velmi silna a v niecom zaostava. tak ako urobit zaver co je lepsie? Lebo testy su tu, mas internet plny roznych hernych testov ci sysntetickych a aj tak su stale hadky co je lepsie. Ono stara technologia nemusi byt zla len preto ze je stara. To by bol velmi zjednoduseny pohlad na vec.

+1
+3
-1
Je komentář přínosný?

Redmax by to samozrejme porovnával cez features v ktorých je silný Radeon. Pretože to je jediná správna a "objektívna" cesta. :-)

+1
-3
-1
Je komentář přínosný?

ty testy tady dávno jsou a jmenuje se to FPS, tudíž pokud nějaká karta má prostě víc FPS než druhá tak je asi výkonější ne? Zbytek tě trápit nemusí.

+1
0
-1
Je komentář přínosný?

Tu sme sa ale bavili o efektivite architektúr a nie o samotnom absolútnom výkone. A ani s tými FPS to nie je také jednoduché. Pre solídne porovnanie je treba zohľadniť viacero aspektov ako energetickú efektivitu, cenu, podporované technológie a pod.

+1
-1
-1
Je komentář přínosný?

Ufff. To je jako porovnávat hrušky s jablkama. Obojí je ovoce (grafické karty), ale každé chutná jinak a taky podle toho si je lidi kupují.

+1
+3
-1
Je komentář přínosný?

Nikoliv, jedno (AMD) je moderni technologie optimalizovana pro mnohovlaknove pouziti, NVidia je zastarala technologie, ktera nema v modernich grafikach co delat, proto take NVidia bude architekturu ve Volta vyznamne prepracovavat.

+1
-1
-1
Je komentář přínosný?

Na to bych moc nesázel., že Volta bude něco úplně jiného.

+1
+4
-1
Je komentář přínosný?

Grafiky od NV sú tiež optimalizované pre viacvláknové používanie ty experte. K čomu by na grafických kartách boli tisícky shader procesorov, keby mala GPU spracovávať úlohy sekvenčne. Je mi jasné, že sa bavíš o AS kde ide o paralené spracovávanie rôznych typov úloh a nie úloh samotných, ktoré samozrejme bežia multivláknovo a bežia na GPU (áno aj compute úlohy skompilované pre compute shader bežia na grafickej karte oboch výrobcov čipov a nie na CPU). Máš len popletené informácie, ktoré si si prečítal na nete. To, že má NVIDIA menej edektívne poriešené AS neznamená, že jej aktuálna architektúra je zastaralá. Pamätám si dobu tesne pred príchodom DX11. Vtedy bola ako najväčší marketingový ťahák pre toto API používaná teselácia. Aj vtedy sa našli "experti", ktorí tvrdili, že ju bude NVIDIA emulovať na CPU. Čo bol čistý nonsence. Rovnako ako to čo tvrdíš teraz ty. To je ako keby so tvrdil, že kvôli nížšiemu výkonu v teselácii je architektúra AMD grafík zastaralý krám. Čo je samozrejme hovadina rovnako ako tvoje terajšie tvrdenia.

"proto take NVidia bude architekturu ve Volta vyznamne prepracovavat"

Pamätáš si aj časy pred GCN? Že malo AMD inú architektúru čipov? A je ti jasné, že ju čaom prepracuje aj AMD a že GCN s nami nebude večne? A keď k tomu prepracovávaniu príde bude to znamenať, že vtedy ešte aktuálna architektúra bude zastaralá? Nečepráš ty náhodou informácie iba z DDworld-u?

+1
-4
-1
Je komentář přínosný?

mírně OT: tak zrovna na GCN bych si docela vsadil, že minimálně těch 5-6 let tu s námi ještě bude. Vývoj a vylepšování architektury - to určitě ano, ale AMD se dobrovolně nepřipraví o velkou výhodu stejné architektury v PC a konzolích.

ad výkon v teselaci: nejsem si úplně jistý, zda je to opravdu realita, zda to není tak, že od určitého teselačního faktoru nvidie "nepodvádí" a teselaci fyzicky už neprovede (podobně jako to "optimalizovalo" AMD v nedávné době).

+1
+1
-1
Je komentář přínosný?

Čo sa týka GCN by som asi vsadil na to isté čo ty už len kvôli konzolám. To inak teoreticky môže byť časom AMD aj na škodu ak ich to bude nútiť zostávať dlhšie na jednej architektúre než bude treba.

ad teselácia: Vzhľadom na to, že NVIDIA teseláciu s vysokým faktorom viackrát využila proti konkurencii, tak by som skôr tipoval, že oni ju naozaj vykonajú. Ak by to tak neurobili, dalo by sa to ľahko zmerať tým, že by od určitého faktoru bol dopad na výkon minimálny aj pri jeho zdvojnásobení (trebárs z 32 na 64). Vtedy by som aj ja tipoval tebou spomínanú "optimalizáciu".

+1
-1
-1
Je komentář přínosný?

A proto je nvidia výkonnější, má nižší spotřebu, větší market share, lepší podpora v linuxu(Optimus) a má více peněz? wut?

+1
-3
-1
Je komentář přínosný?

>nVidia ma vacsim marketshare, ale ked sa udrzi trend, tak len do konca roku 2016

AMD Takes Graphics Share From Nvidia For The Fourth Consecutive Quarter

Now sitting at 34.2% of the graphics market AMD has nearly doubled its share in 12 months, which was down to as low as 18% in the same time last year.

Vendor Discrete GPU Share Q4 2015 Discrete GPU Share Q1 2016 Discrete GPU Share Q2 2016
AMD 26.2% 29.4% (+3.2) 34.2% (+4.2)
Nvidia 73.8% 70.6% (-3.2) 65.8% (-4.2)

Vendor Desktop GPU Share Q4 2015 Desktop GPU Share Q1 2016 Desktop GPU Share Q2 2016
AMD 20.9% 22.7% (+1.8) 29.9% (+7.2)
Nvidia 79.1% 77.3% (-1.8) 70.1% (-7.2)

http://wccftech.com/amd-takes-graphics-share-nvidia-fourth-consecutive-q...

> lepší podpora v linuxu(Optimus)

to su starwe informacie

RadeonSI Performance Improvement For DRI PRIME Offloading
Written by Michael Larabel in Mesa on 18 August 2016 at 03:58 PM EDT.
With glxgears as a lightweight test, the SDMA support with DRI PRIME offloading was 44% faster.
http://phoronix.com/scan.php?page=news_item&px=RadeonSI-DRI-PRIME-Faster

A prime je univerzalny, nie len Nvidia +intel ako Optimus.
Prime zvladne vsteko z uvedenho a este viac
AMD+AMD
Intel+AMD
AMD+nVidia
intel+AMD+nVidia
Intel+nVidia

+1
+2
-1
Je komentář přínosný?

Muzete porovnat podobne velke cipy na stejne fregvenci, ale to bude nevyhoda pro nvidia. Nebo na maximalni mozne. Tam se ukazuje nvidia je lepsi pod DX11 a mirne se zhorsi pod novymi API.
Srovnani architektur je velky orisek, lisi se v mnoha ohledech, maji obe rozdilne podpory feature setu v ruznem stupni. Da se rici, ze kazda z architektur se hodi pro neco trosku jineho a kazda ma vyhody a nevyhody v ruznych rozdilnych oblastech.
Nemyslim si ale, ze by nvidia mela nejak vyrazne horsi architekturu, kdyz tedy porovname pascal vs polaris.

+1
+2
-1
Je komentář přínosný?

Netřeba, každému normálnímu člověku je jasné, že nvidia je lepší, AMD tu je jen tak jako do počtu aby neplakal antimonopolní úřad.

+1
+1
-1
Je komentář přínosný?

Hádam že zámerne tam nieje ani zmienka o RX480, pretože pri nej by to porovnanie dopadlo trocha inak, že? :D

+1
-12
-1
Je komentář přínosný?

Nejsi ty tak trošku dementní ?

+1
+10
-1
Je komentář přínosný?

Hadam ze zamerne tam nieje ani zmienka o RX480, pretoze je to jedina karta od AMD, ktora ma 2304 stream-procesorov, a tym padom by ju nemali ako objektivne porovnavat s inymi kartami.

+1
+8
-1
Je komentář přínosný?

ve zdroji z kterého se čerpá RX 480 pro zajímavost je, už z principu byste měli na ten zdroj kliknout

+1
+1
-1
Je komentář přínosný?

V tom je práve vtip. Má o 12,5% viac SP, vyššie takty, a pritom výkon veľmi blízko RX470. To znamená že vo výkone na shader je na tom horšie ako staré GCN.

+1
-1
-1
Je komentář přínosný?

To asi ne.. 480 ma problem jinde a to je datova propustnost. Ve spouste her ji brzdi ta 256 bitova sbernice a ty rychlejsi pameti a optimalizace to oproti minule generaci nestaci kompenzovat. Proto ma taky rychlost pameti tak velky vliv na jeji vykon ve spouste her.

+1
+1
-1
Je komentář přínosný?

To je nezmysel, Nvidia si s 256bit vystačí aj na 1070/1080, ktoré sú výkonom niekde úplne inde.

Takže Polarisu by nepomohlo ani keby tam bola 512bit zbernica (Hawai) alebo dokonca HBM. Však si ešte pamätáme ako dopadlo Fiji, priepustnosť obrovská ale výkon nikde.

+1
-2
-1
Je komentář přínosný?

No to prave nesmysl neni :))
Najdete si testy na webu, kde prave porovnavaji narust vykonu s vyssi frekvenci pameti pro 480ku. Nekdy ten narust byl temer linearni v nekterych hrach.
Co se tyce Fiji..tam byl jiny problem, ze mela malo ROP..to se rozebiralo i tady na Diit v nejakych clancich. A co se tyce NV, to nemuzete porovnavat..jednak je to jina architektura a jednak jsou evidentne jejich algorytmy pro praci s pameti lepe optimalizovane (nez u AMD) a dokazi pracovat nad uzsi sbernici nez u AMD. To bylo preci dobre zname uz i u Maxwellu.

+1
+2
-1
Je komentář přínosný?

Ak by ste si to trochu naštudovali, zistili by ste že grafiky od AMD vykresľujú celý obraz súčasne zatiaľ čo nVidia po častiach (povedané zjednodušene). V podstate nVidia využíva to čo sa používa v mobilných grafikách.
Tým se docielené že nVidia na rovnaký obraz potrebuje menšiu dátovú priepustnosť, lebo jednotlivé fragmenty obrazu tam idú nepretržite, kdežto pri AMD sa stáva že časť zbernice je využívaná neefektívne

+1
-2
-1
Je komentář přínosný?

"Tým se docielené že nVidia na rovnaký obraz potrebuje menšiu dátovú priepustnosť, lebo jednotlivé fragmenty obrazu tam idú nepretržite, kdežto pri AMD sa stáva že časť zbernice je využívaná neefektívne"

Keby to bolo opačne a neefektívne by využívali zbernicu grafiky od NV, niekto vyššie (Redmarx) by určite tvrdil, že je to preto, lebo je architektúra týchto kariet zastaralý křáp. :-)

+1
-2
-1
Je komentář přínosný?

Zajímavý test, díky. Nicméně vzbuzuje dojem, že za mezigenerační rozdíly ve výkonu mohou jen rozdíly ve stream procesorech, což není pravda. Ty čipy se navzájem liší dalšímy architektonickými změnamy (komprese, velikosti cache atd.) a features a sw výbavou (což je v článku zmíněbo :) Navíc není úplně jasné, zda použité hry nějak nedetekují čipy na úrovni if generace x then kus kódu pro x. (můžou tam být nějaký compatibility patche) Tady by to chtělo vytvořit nějaký jednoduchý benchmark, který by vždy počítal jednu a tu samou věc (vykreslování a nasvícení trojúhelníků ?)

+1
+1
-1
Je komentář přínosný?

Zajímavý test, chtělo by to něco podobného pro Nvidii. Každopádně v průměru o 18 % větší nárůst mezi Polaris a GCN1 není zase takové terno, zvlášť když si vezmete, že Radeon R9 280X je přeznačený Radeon HD 7970 z roku 2012.

+1
-1
-1
Je komentář přínosný?

Taky si myslím, dokonce mi přijde, že je méně efektivní, je třeba vzít v potaz výhody nového výrobního procesoru, které u nvidia dokázali udělat skok o proti staré generaci v efektivitě o mnohem výraznějších 40 %. Polaris mě hodně zklamal, čekal jsem víc.... Jako výkon R290 v tak malé kartě se slušným TDP... více méně ale jen dotáhli efektivitu staré GTX980 a to je prostě hodně málo...

Začíná to připomínat scénář v CPU segmentu AMD vs Intel. Jako jo AMD vydá nový procesor, který dohnal výkonem a efektivitou procesor, který drtil jeho starou generaci, jenže intel už je zase o několik generací dál a tak prostě strmě ztrácí trh.... nechápu jejich myšlení, že při vývoji nového produktu míří na současný produkt konkurence a vůbec nepočítají s tím že v době kdy produkt dají na trh už bude trh zase úplně někde jinde....

+1
-7
-1
Je komentář přínosný?

ty jsi vůbec nepochopil co se testovalo ani jak se to testovalo a tudíž máš naprosto zcestnej závěr, nemam ale sílu ti to vysvětlovat, líp než originální článek nebo no-X to stejně asi nedovedu podat takže si nejsem jistej zda to pochopit dovedeš

+1
+5
-1
Je komentář přínosný?

Pochopil jsem ho dobře, šlo tam o výkon architektury při stejných parametrech, já poukazuji že ačkoli to takto vypadá fajn, tak i přes to je architektura vůči konkurenci extrémně neefektivní. Ano můžeš s tím nesouhlasit, můžeš brečet, vztekat se, skákat po hlavě, ale to je prostě holý fakt, který nelze nikterak vyvrátit. Buď ho přijmeš a nebo se zařadíš po boku fanoušků jedné ze značky, kteří po většinou žijí ve vlastní lži...

Ono totiž, když si chceš být jistý které GPU a architektura je nejlepší, můžeš uplatnit zákony fyziky. Tady čísla mluví jasně. Výkon a watt je alfou omegou, protože kdykoli AMD vydá nějaké GPU na GCN architektuře a bude výkonnější než konkurence, tak k tomu bude potřebovat průměrně o 40 % více energie, z toho plyne že když půjdeme do extrému, tak pouhým přidáváním SM bloků a ladění efektivní frekvence, narazí AMD čip mnohem dřív na strop uchladitelnosti než na možnosti zvětšení čipu, krásný příklad byl čip hawai. Nvidia s pascalem bude mít možnost VŽDY mít vyšší výkon než stejný čip od AMD, protože je prostě účinnější :-)
Od dob ATI 9000 a GF4+ je aktuální rozdíl ve výkonu největší v historii obou výrobců, tak špatný poměr výkon watt neměla ani HD2900/3870 o proti tehdejším 8800/9800GTX. Fan boys zdržte se komentářů, statistika prodejů je můj jasný důkaz, jakékoli plky a flame nemá smysl, protože prostě v ruce nic nemáte.

+1
-4
-1
Je komentář přínosný?

nj, trend je taky, ze poslednych par mesiacov amd ukusuje z nvidia kolaca(a to tam nieje este zapocitany polaris)
http://www.hardocp.com/news/2016/08/19/amd_gains_48_market_share_in_q1_2016

+1
+1
-1
Je komentář přínosný?

To se jen vrací slabší jádro fan boys, kteří jsou nyní rozjařený z přehypované RX480. Získali poměrně malá procenta, když vezmu jak rychle ztratily víc jak polovinu svého trhu tak je to stále k pláči.
Po mé serii karet: 9600pro, X1950XT, HD3870, HD5850, HD7950 a nakonec R290 (neskutečný neutišitelný hučák) jsem přešel na GTX 1060 za 7000 vč. DPH a nemůžu si tu kartu vynachválit, protože jediná karta která byla docela tichá a výkonná v radiálním provedení (jiné nekupuji) byla HD3870 a ted až GTX1060. Mám možnost porovnat raidální RX480 a radiální GTX1060 od asus a je to nebe a dudy, výkon je ve většině hrách co hraji mnohem lepší než u RX480, tam kde RX má o něco lepší FPS, výkon GTX1060 stejně stačí, provozní vlastnosti jsou úplně, ale úplně někde jinde. Když AMD za dva roky vydá něco zajímavého tak se zase vrátím, mají ty karty většinou lepší poměr cena výkon i když podle mě RX480 patří mezi jedny z nejhorších karet za ty peníze co AMD kdy nabízelo, GTX1060 má ten poměr lepší (ne ty modely za 10 tisíc fakt v potaz neberu, RX480 i GTX1060 se nechá sehnat s cenovkou kolem 7300 s dph).
Už maxwell mě velmi lákal, ale zprzněnou 970 jsem nehodlal dotovat a GTX980 prostě byla moc drahá, ale GTX1060... to je prostě povedená karta, trefila se přesně do černého. Pascal je velký úspěch a podle mě další výkaz za další qvartál bude AMD zase oslabovat.

+1
-3
-1
Je komentář přínosný?

je to za 1.kvartal 2016, tj este tam polarisy niesu
a co si pamatam, tak gro ludi prave nechcelo kupovat "staru" 300vkou radu, lebo sa na tie polarisy cakalo
takze su to len tvoje dojmy :)
ked citam ten tvoj wall of text>
rozdiel vo vykone 5%, cena cca tiez tolko ale pre teba je 1060 kauf roka a 480 looser roka :)

+1
+2
-1
Je komentář přínosný?

hele ty nefanboyi co jsi se všema raz dva hotovej a zaškatulkovanej, zatímco jsem měl v PC Keplera i Maxwella v podobě GTX660 a GTX960 tak další mainstream generaci se u mě usídlila RX 480 a vysvětlovat ti to nehodlám když to sám nevidíš proč, už z toho tvýho komentáře je zřejmý že je to ztráta času

btw která statistika? tahle? http://www.hardocp.com/news/2016/08/19/amd_gains_48_market_share_in_q1_2016

trend u AMD za poslední dva kvartály je stoupajcí podíl na trhu tak uvidíme jestli jim to vyrdží protože Q1 2016 ještě Polaris neovlivnil, pouze 28nm produkty

+1
+3
-1
Je komentář přínosný?

Hele, ty jsis to hezky zjednodusil. Uplne opomijis neco jako vyrobni proces a jeho efektivitu. Bez zohledneni a porovnani architektur s vyrobnimi procesy obou vyrobcu, tohle nemuzes tvrdit. Co kdyz NV za svou efektivitu vdeci prave lepsi vyladenosti vyroby u TSMC?
To samozrejme neni omluva, ale tak jak stavis argumenty, tak jsi si vybral jen cast a delas z toho zavery..

+1
+2
-1
Je komentář přínosný?

Ale ty výhody přece ten test záměrně smazal. Frekvence byly sníženy/zvýšeny, paměť byla zglajchšaltována. Podstatou toho testu bylo porovnat architektonické změny, bez vlivu nové technologie výroby a šířky pásma paměťové sběrnice. Osobně jen nevím, jak se vyrovnali s kompresí textur, protože ta úplně do architektury nepatří, jen zčásti (jedná se o I/O část čipu, což se úplně nedá vykládat jako "vylepšení core"). Kdybych chtěl být hodně rejpavej, tak si tipnu, že ty nárůsty výkonu jdou právě jen za tou kompresí (a vylepšenou kompresí u GCN4), protože GCN je na šířku pásma docela hladové.

edit: podle mě by optimálním testem byl test v nějakém OpenCL, optimálně s co nejmenším objemem dat, aby se vyloučila, resp. umenšila role transparentní komprese dat.

+1
+1
-1
Je komentář přínosný?

tak to by som chcel vidiet porovnanie maxwell/pascal
na webe som cital, ze pascal je menej efektivny ako maxwell, a vykon dohana len obrovskymi megahertzami

+1
+1
-1
Je komentář přínosný?

To neni mozne, protoze Pascal a Maxwell jedno jest. Pascal je Maxwell prevedeny na nizsi vyrobni technologii, takze musi byt i efektivnejsi.
Problem je, ze to je cele, jinak nic. Zatimco AMD s kazdou novou generaci zlepsuje a vyviji pokrocilejsi techniky, NVidia zustava stale na stejnem, pricemz jiste NVidia udelala na Fermi/Kepler uzasnej naskok, z ktereho zije doted, ale uz to nestaci a Polaris jim to natrel na cele care a to jeste prijde v zime Vega, to bude teprv naklep.
Ja jsem spis fanousek NVidie a uz se nemuzu dockat Volta a jen doufam, ze se NVidia zase posune kam patri, protoze ted je to traga.

+1
+2
-1
Je komentář přínosný?

Jediné co natřel Polaris jsou tvoje trenýrky.... solidní hnědou

+1
-1
-1
Je komentář přínosný?

z nemoderní ocelové šedi na moderní vojenskou šeď )))

+1
0
-1
Je komentář přínosný?

Ještě k tomu mohli změřit spotřebu systému a poměr výkon na watt. Tam by ten odskok měl být o dost vyšší díky novému výrobnímu procesu.

+1
+1
-1
Je komentář přínosný?

taky jsem si rikal, ale nevim jak by jsi to chtel udelat. Ono totiz kazda generace grafik je napeteim nastavena nekam kde beha stabilne a neni to nejnizsi mozne. Takze pokud se recenzenti snazi srovnat vykon a podtaktovavaji / pretaktovavaji tezko u toho muzou sledovat spotrebu. Muselo by k tomu byt jeste i podvoltovani na mimimalni funkcni uroven, ale i tak by to bylo jen takove sranda srovnani protoze nikdo ti nezaruci ze jiny kus grafiky takove napeti zvladne... A to se jeste vubec nebavim a GDDR5 ktere taky zerou docela hodne a tam se napeti meni docela spatne.

+1
+3
-1
Je komentář přínosný?

Pod pojmem efektivita si tedy já (a IMHO i AMD) představuju něco úplně jiného - a sice výkon na watt.

+1
+2
-1
Je komentář přínosný?

To je energetická efektivita, jeden z řady aspektů.

+1
+4
-1
Je komentář přínosný?

skoda ze netestovali aj take hry ako doom3 alebo WoW
aj 3dmark by ma zaujimal :)

+1
+1
-1
Je komentář přínosný?

Taky si říkám proč netestují 3DMark2001 či Turok 2, test je k ničemu.

+1
0
-1
Je komentář přínosný?

Je legrační jak mnoho straníte AMD(a PCTunning nVidii) a navzájem se vase tvrzení troche vylučují.
"Ti co jim grafika vydrží v PC několik let, sáhnout po AMD, už kvůli podpoře rozhraní".....
"Vulkan se ani neohřál a víme co přijde po něm"
NVidia 10xx nabízí ta samá rozhraní a s článkem pro efektivitu mě napadá na co jiného využiju grafiku AMD, když ne na hry,grid a přehrávání videa? Moc toho není.

Aktuálně mám doma např. Sony Vegas, kde je použití nVidie GT 740 dost znát při scrolování a spojování snímků. O kodování aní nemluvě.
A s AMD bych musel používat leda Avidemux a tam je to jen na rekodování.

Taky spotřeba 1060 je o 30W nižší(120W je fajn), méně paměti a vyšší výkon.
Přitom cena na CZC/Alza/Mironet je víceméně obdobná 7500kč.

+1
-5
-1
Je komentář přínosný?

Je to otazka, prave Polaris prinasi VCE a na papire to vypada ohromne, skoro by se chtelo rict, ze to NVidii zaslape do zeme, ale realita muze byt jina. Ja ted kazdopadne zkusim po dlouhe dobe AMD (RX470 nebo RX480) a pockam si na Volta, jestli se NVidia zlepsi a vratim se zpet.

+1
+1
-1
Je komentář přínosný?

VCE je už v GCN1.0, jen umí max. h.264

+1
+1
-1
Je komentář přínosný?

Môžem vedieť čo nevie video čip na NV grafikách oproti VCE a v čom ho VCE zašlapáva do zeme?

+1
-1
-1
Je komentář přínosný?

K první polovině otázky: co třeba dvouprůchodové VBR kódování h.264/h.265?

+1
+1
-1
Je komentář přínosný?

Môže byť. Moja otázka nebola ironická. Pýtal som sa preto, lebo som chcel vedieť ako to s video čipmi na súčasných grafických kartách je pretože som to neodsledoval.

+1
-1
-1
Je komentář přínosný?

fakticky je funkčně aktuální VCE opravdu leader. Ovšem nejsem si jistý, jak je na tom s aplikační podporou, předpokládám, že jje umí určitě použít Raptr, ale zda i nějaké "profi" aplikace, po tom jsem zatím nepátral.

+1
+1
-1
Je komentář přínosný?

To je pro mě užitečné stejně jako SUV s pohonem všech kol do centra Prahy :-)

+1
-1
-1
Je komentář přínosný?

Tam se to hodí na kostky, kopečky, petřín a tak.

+1
0
-1
Je komentář přínosný?

O VCE toho moc nevím, ale pokud ho umí zpracovat 1% zařízení na trhu tak to moc finančně perspektivní pro vývojáře nealtruistu není.

NVidia má docela fajný CUDA shop. Používám odtamtud sice jen dvě aplikace, ale kdyby šlo nulu násobit tak je to 2x vice než od AMD(Open CL formace)

+1
-1
-1
Je komentář přínosný?

Mícháš dohromady jablka a hrušky. Jedna věc je hardwarový obvod pro kódování videa, druhá (a zcela jiná věc) je akcelerace kódování videa s využitím výpočetního potenciálu 3D jádra. Hardwarové kódování nemá s CUDA ani OpenCL nic společného.

+1
+4
-1
Je komentář přínosný?

VCE podporují skoro všechny "videozáznamníky" typu OBS, Action! apod., samozřejmě Raptr (přímo v instalaci Catalystů). Dříve byl k dispozici i klasický VFW kodek, který s novými catalysty už ale nefunguje (pro rozpohybování je třeba mít starou verzi, starší než Cat15.7). Nová verze je bohužel ještě nepoužitelná: https://github.com/jackun/TestAMFVFW

+1
+2
-1
Je komentář přínosný?

OBSko právě nic AMD nepodporuje. Jen CPU, nVidii a QuickSync. Nebo se dívám blbě?

+1
0
-1
Je komentář přínosný?

Ono by clovek mel zohlednit vice veci. Faktoru by melo byt vice: Finance, vykon/cena, hlucnost, konkretni hry, velikost pameti, vykon CPU, Zdroj, atd.. 30-40W rozdil je v desktopu treba zanedbatelny, pokud se nebavime o nejakych mini PC. A podle toho vybrat konkretni model vyrobce.
Treba 3GB verzi bych si dnes uz do desktopu na hrani nekoupil i presto, ze by mi to stejne stacilo ;) a tudiz bych "musel" jit treba do 470ky se 4GB. Kdybych byl ochoten dat do toho vic (coz nejsem), sel bych do 1060 6GB, protoze lip skaluje se slabsim CPU jako je FX. Kdybych mel Intela, zase bych sel do 480. :))

+1
+5
-1
Je komentář přínosný?

JJ. Presne. Každý by si mal vybrať podľa seba aby bol spokojný. Spokojný človek potom nepotrebuje presviedčať iných, že kúpili zle, ak neurobili rovnakú voľbu ako on. :-)

+1
0
-1
Je komentář přínosný?

Z pohledu tepla je 30W docela dost.
Mám pasivní chladič na procesoru a zdroj bez ventilator tak pokud by grafika neměla chladič typu vysavač a rozptylovalo se to do case tak mi to bude vadit(a komponentám taky).

Obě grafiky mají neuvěřitelný pokles spotřeby, oproti předchozí generaci. Ta končila na 275W, zatímco dnešní na 180W.
3x275w a měl bych doma paušál na přímotop.

+1
-1
-1
Je komentář přínosný?

Pro Vase potreby je to evidnentne dobra volba. Ja spis referoval na "beznejsi" sestavy, kde tech plus minus 30W nehraje roli pro bezny provoz.
Co mate za CPU, nejakou T verzi Intelu?

+1
+2
-1
Je komentář přínosný?

Předpokládál bych Raspberry Pi nebo nějaký OSS bullshit.

+1
0
-1
Je komentář přínosný?

S každou další verzí Sony Vegas přišla změna v podpoře - využitelnosti grafické karty. Pro porovnání možností, výkonu, ale také vlastní výstupní kvality mezi CUDA a OpenCL, se příklad (argument) neobejde bez uvedení příslušné verze.

Od Sony Vegas 12 Pro bylo umožněno renderovat pomocí CUDA. Bohužel, rozdíl mezi kvalitou renderu CUDA a CPU deklasuje CUDA a odsouvá podporu na úroveň teorie. Lepších výsledků bylo dosaženo za podpory OpenCL, kvalitou i výkonem.

+1
+1
-1
Je komentář přínosný?

Vie sa či išlo o nedostatok CUDA a teda, že sa to dalo zimplementovať v CUDA aj lepšie alebo či to bol problém konkrétnej implementácie?

+1
-1
-1
Je komentář přínosný?

K tomu nemám teoretické informace, ale to co předenderuji v 3D Maxu nebo dostanu od někoho k další upravě ve format co umí Sony Vegas tak tam mám zapnutu akceleraci CUDA a vypadá to dobře, klientům se to líbí a na levém 24,TN,LCD nevidím rozdíl. Na projektoru jsem to nezkoumal.

Na druhou stranu i6700T Skylake(desktop) to převádí asi jen o 30-40% pomaleji,

+1
-1
-1
Je komentář přínosný?

"Na druhou stranu i6700T Skylake(desktop) to převádí asi jen o 30-40% pomaleji"

V porovnaní voči akej GPU?

+1
-1
-1
Je komentář přínosný?

Nečekaně nV GT740.
Žádný trhač asfaltu.

+1
-1
-1
Je komentář přínosný?

Sony Vegas používá také OpenCL takže i s AMD si můžeš užít "GPU accelerated" práce. Ale co jsem tak četl, tak největší porce práce jde stejně na vrub CPU, takže používat GPU v Sony Vegas nebo Adobe Premiere je spíš pro dobrý pocit.

+1
0
-1
Je komentář přínosný?

Pro render - kvalitu výstupu se uplatní silný procesor, náhledy (render previews), timeline, efekty a celý processing přebírá grafická karta.

+1
+2
-1
Je komentář přínosný?

...

+1
0
-1
Je komentář přínosný?

Porovnanie je to sice pekne ale najefektivnejsi cip od AMD je podla mna Grenada (seria R9 390X). To ci je mozne architektury medzi sebou porovnavat nezalezi od poctu ROPS, CU, TMU, alebo ci to ma delta kompresiu alebo primitive discard accelerator. Najrelevantnejsi argument je pocet tranzistorov. Grenada ma 6.2mld tranzistorov, Polaris ma 5.7mld. To je len o 8.8% viac, ale vykonovy rozdiel je tam zhruba 24% na rovnakej frekvencii v prospech Grenady.

Tiez si myslim ze je nekorektne upravit frekvenciu pamati aby sa vyrovnala priepustnost. Polaris ma lepsiu kompresiu a viac tranzistorov aby zvladal vyssie takty pamati a Grenada ma zase viac tranzistorov kvoli sirsej zbernici. Ak niekto porovnava vykon Zenu a Broadwellu-E tiez u Broadwellu neosadi len 2 kanaly pre RAM zo 4.

+1
0
-1
Je komentář přínosný?

'' Ak niekto porovnava vykon Zenu a Broadwellu-E ''

porozumeni psanymu textu.. teda polopate: tady se neporovnava vykon ale efektivita kera je dana rozdilama v architekture.. aby se to dalo zhodnotit, je treba potlacit rozdily v parametrech.. krom toho petiprocentiho zvyhodneni tahiti to maj nemci dobre..

+1
0
-1
Je komentář přínosný?

Ak porovnavas procesory na 3GHz, tak porovnavas efektivitu architektury. A mozes ju porovnavat aj v zavislosti na pocte tranzistorov, velkosti plochy cipu, poctu CU. Zaujimave je ze CU Grenady je stale rychlejsi nez CU Polarisu, i ked je Polaris kompletne prekopany cip a ma 2x viac cache, discard accelerator, nove GCN atd. RX480 ma 36CU, R9 390X ma 44CU, tj. o 22% viac, no Grenada je rychlejsia o 24% na takt.

+1
0
-1
Je komentář přínosný?

'' CU Grenady je stale rychlejsi nez CU Polarisu ''

no to je nesmysl.. p10 s 36 cu, 32 rop a 256bit je stejne rychlej jako 390 s 40 cu, 64 rop a 512bit.. vypni 390 pulku rop a sbernice a vykon pude do kelu

+1
0
-1
Je komentář přínosný?

To je rovnaky nezmysel ako vypnut i delta kompresiu, polku cache a discard accelerator.

+1
0
-1
Je komentář přínosný?

kdyz nechapes rozdily mezi architekturou a poctama funkcnich jednotek, tak tadle diskuse nema smysl ((:

+1
0
-1
Je komentář přínosný?

To je nezmysel. Pocet ROPS je sucastou architektury rovnako ako pocet KB/MB u cache. AMD u Broadwellu-E 6900K nevyplo 20MB L3 cache aby ho mohlo porovnat so Zenom ktory ma len 8MB L3 cache.
AMD ako dizajner cipu si moze vybrat kde vyuzije svoje tranzistory, ci ich prida do ROPS, tesselatorov, alebo na vacsiu cache a ine optimalizacie.
U Polarisu sa rozhodli pre menej ROPS i ked to bude brzdit to GPU a investovali do inych veci.

+1
0
-1
Je komentář přínosný?

Zajímavé srovnání GPU Polaris s předchozími GCN a Nvidia, zase z trochu jiného úhlu než hraní her.

https://labs.chaosgroup.com/index.php/rendering-rd/blagovest-taskov-look...

+1
0
-1
Je komentář přínosný?

Pro psaní komentářů se, prosím, přihlaste nebo registrujte.