Diit.cz - Novinky a informace o hardware, software a internetu

Diskuse k Test: AMD Radeon HD 6870

Krása. Momentálně se těším na dvě věci:

1) fundovaný komentář teroristy, který nám na benchmarcích z Anandtechu ukáže, proč se tuto kartu nevyplatí kupovat

2) vydání Radeonů řady 69xx

+1
0
-1
Je komentář přínosný?

škoda že v testech chybí přímý konkurent GTX 470 :-(, kdyby chybělo porovnání se všemi ostatními kartami a bylo tam jen porovnání s GTX 470, možná by jste udělali lépe. Ale jinak dobrá recenze, děkujeme

+1
0
-1
Je komentář přínosný?

testovat 470 nemá cenu, doslova za pár týdnů tu máš 570...

+1
0
-1
Je komentář přínosný?

Souhlasím. Tuším však, že 470 asi ani neměla být tím správným konkurentem pro HD6870 (velikost, spotřeba). Výkonnostně a následně i cenou se k této úloze však dostala jako slepý k houslím. Stejně tak i 570 nebude konkurentem pro HD6870, tedy už kvůli nVidii, doufám :)

+1
0
-1
Je komentář přínosný?

jj, chtel jsem odpovedet presne to same. gtx470 ma lepsi vykon, zvlast v teselaci, a je o stovku levnejsi, jenze ma zase vetsi spotrebu

+1
0
-1
Je komentář přínosný?

A koho dnes zaujíma teselácia?

+1
0
-1
Je komentář přínosný?

gtx470 je lepsi i bez teselace

+1
0
-1
Je komentář přínosný?

Čím? To by mě opravdu zajímalo. A i ten rozdíl v telesaci u 6870 není tak veliký

+1
0
-1
Je komentář přínosný?

A 6850 má oproti 470 nižší výkon, ale i o dost spotřebu, dofejme, že se povede GTX570 alespoň tak, jako 580...

+1
0
-1
Je komentář přínosný?

ve vsem. a rozdil v teselaci je obrovsky, zvlast pri urovnich vyssich nez 16px/triangle ;) tady je krasne pripraveny graf procent vykonu oproti konkurentum od nvidie, ale i oproti hd5800 generaci:

http://www.xbitlabs.com/articles/video/display/radeon-hd6870-hd6850_19.h...

+1
+1
-1
Je komentář přínosný?

V koľkých hrách to využiješ? Kľudne aj vymenuj, asi ich tak veľa nebude.

+1
0
-1
Je komentář přínosný?

co vyuziju, myslis ten vetsi vykon hez hd6000 i bez teselace? vsude!

+1
0
-1
Je komentář přínosný?

no to bychom se mohli samozřejmě hádat, je řada testů ve kterých vychází 6870 lépe, kdybych se vám ale pokusil oponovat jistě byste mi odpověděl testy z anandtechu ;-). Co se týče spotřeby, ta už u 470ky není vyšší jen nezanedbatelně, i když souhlasím s tím, že většině lidí co kartu budou strkat do Atx formátu je to jedno

+1
0
-1
Je komentář přínosný?

viz muj link o fous vis. tam je dost jasne videt jak to je. v rozlisenich do 1920x1080 vcetne (tedy tam, kde se dnes pohybuje naprosta vetsina lidi) je gtx470 vrazne lepsi. v 2560x1600 uz se sily temer vyrovnavaji. ale ja osobne neznam nikoho, kdo by tohle rozliseni pouzival (vlastne ani nikoho, kdo by ho mohl pouzivat). je to dane tim, ze u GF1xx se nvidia uz na rasterizaci tolik nespoleha. fragment shadery (reci directx pixel shadery) se totiz vyuzivaly k bump mappingu, paralax occlusion mappingu a podobnym vecem, ktere vsechny byly nahrazeny teselaci. proto nvidia ubrala na rasterizacni sile. amd pritom stale na vykon fragment shaderu spoleha vyrazne a proto maji take tak dobre vysledky v pre-dx11 titulech a early dx11 titulech

proto jsou vyjimkou hry, ktere vyrazne pouzivaji rasterizaci, jako napriklad starcraft 2. tam pak je gtx470 porazena. starcraft 2 vyuziva specialni zpusob renderovani environment efektu, ktera spociva v tom, ze misto nekolika pruchodu (tzn. nekolikanasobne renderovani geometrie cele sceny), renderuje nekolik vrstev masek, ktere se ve finalnim pruchodu kombinuji. v blizzardu se snazi uz tradicne delat hry co nejkompatibilnejsi i se starsim hardware, ktery rozhodne nemel takovou propustnost trojuhelniku, jako ma GF1xx

takze zapomen na 2560x1600, kde jsou karty na skoro stejne urovni. koukej na rozliseni, ktera skutecne lide pouzivaji, tj. 1680x1050 a 1920x1200 (1920x1080)

+1
0
-1
Je komentář přínosný?

"ktere vsechny byly nahrazeny teselaci"
Velmi smělé tvrzení, nepochybně jste vyvíjel všechny současné herní enginy (vyjma Starcraft2) když něco takového můžete tvrdit

+1
0
-1
Je komentář přínosný?

oprava, Starcraft2 engine znáte pochopitelně také, ten jediný je udělaný špatně a zastarale a GF ubližuje

+1
0
-1
Je komentář přínosný?

panejo, vam nedochazi ze "bump mappingu, paralax occlusion mappingu a podobnym vecem" jsou renderovaci techniky a tim padem "ktere vsechny byly nahrazeny teselaci" znamena jen ze je to novejsi zpusob, jak ty veci delat (navic bez nevyhod a se spravnym hardware vyrazne rychlejsi)? o tom v jakych enginech to tak uz je a ve kterych jeste to snad nic netvrdi. nebo snad chcete link na nejaky clanek o vetnem rozboru, aby jste to dokazal pochopit? jednim z novych enginu, ktere uz tyhle techniky z dx9 a dx10 v dx11 rezimu nepouziva, je napriklad engine hry dirt 2, pokud uz to vazne musite vedet

vase odpoved na me pusobi tak, ze nemate zadny argument (rozhodne ne technicky), jen se zoufale snazite sam sobe si obhajit svuj nazor. nezapomente, ze dx11 grafik ve svete zatim rozhodne vetsina neni, takze tvurci hernich enginu maji v zasade tri moznosti: udelat full-featured dx11 engine a k nemu jeste druhy, dx10 (dx9) engine (pripad dirt 2), udelat odlehceny dx11 engine vyuzivajici jen nektere casti a soustredit se na dx10 cast (vetsina dnesnich novych her) nebo nedelat dx11 engine vubec a udelat full-featured dx10 (dx9) engine (starcraft 2). az tohle pochopite, tak se muzeme bavit dal na nejake rozumne urovni

+1
-1
-1
Je komentář přínosný?

Chtěl jsem jen naznačit, že každý kdo tu tvrdí, že zná většinu herních enginů, jaké používají techniky atd je u mě kecal. Proč? protože jednoduše takový nikdo není. I kdybyste jeden engine vyvíjel, tak jaké techniky používá jiný engine byste detailně neznal. Vy tady jen zaujatě básníte o "správném hardwaru" (který byl je a bude pro vás vždy zelený) a když nějaký engine náhodou používá renderovací techniku, která "správnému hardwaru" nesedí nazvete ji zastaralou. Ve skutečnosti je tohle všechno naprosto nepodstatný blábol. Grafické karty si kupujeme teď a hrajeme na nich současné hry, proto je jediným rozhodujícím kritériem benchmark her a i kdyby "správný hardware" byl 100 let dopředu tak mi je to k ničemu, když reálné aplikace budou napsány "zastaralými" technikami a pojedou na "starém" hardwaru lépe. Prostě měřme a benchmarkujme hry, vynášejme fps do grafu a nesnažme se hledat pseudotechnické důvody, které i kdyby snad byly pravdivé, tak slouží v případě vaší osoby jen k arogantní prezentaci vaši domnělé nadřazenosti. Je to hloupé a lidově se tomu říká mindráček ;-)

+1
0
-1
Je komentář přínosný?

vis vyvojari grafickych enginu nejsou trubky. informace mezi sebou sdileji hodne a oba hlavni vyrobci grafik je v tom podporuji. provozuji developerske weby treba tady:

http://developer.nvidia.com/page/documentation.html (cast rendering articles)

http://developer.amd.com/pages/default.aspx
(cast docs & articles)

velka vyvojarska studia tam casto prispivaji clanky o svych enginech. vyse zmineny starcraft 2 treba na amd strankach je tady (doporucuju precist, je to zajimave cteni):
http://developer.amd.com/gpu_assets/S2008-Filion-McNaughton-StarCraftII.pdf

to same pdfko najdes i na webu nvidie, stejne jako treba clanek o deferred shadowingu ze hry Stalker: Call of Prypiat a mnoho mnoho jinych. pokud se v tomhle svete chces pohybovat, jsi na tech webech dost casto. ja jsem tam tech technickych clanku precetl opraavdu hodne. a ne, urcite neznam vsechny enginy, ale znam podstatne veci z vetsi casti tech nejznamejsich, protoze to potrebuju pro to, co delam

o novych technikach renderingu si muzes precist treba zde:
http://developer.download.nvidia.com/presentations/2010/futuregameon/Lou...

"i kdyby 'správný hardware' byl 100 let dopředu tak mi je to k ničemu, když reálné aplikace budou napsány 'zastaralými' technikami a pojedou na 'starém' hardwaru lépe"
vis to je prave ono. amd dela skvely hardware, to nic proti nim. ale jejich focus je na soucasne hry a hry, ktere vysly uz drive. nvidia jde ve vyvoji ale hodne dopredu, s fermi udelali obrovsky krok, ktery vy neumite docenit. vy kritizujete fermi kvuli jeho spotrebe, velikosti cipu a spouste dalsich veci. jenze si zkuste uvedomit o co tu jde. kdyby jejich focus nebyl na teselaci a dx11 featurach, mohli by si dovolit udelat cip jako amd, mensi s rozumnou spotrebou, ke kteremu je jen tak mimochodem prilepeny teselator s neadekvatnim vykonem, kvuli kteremu se museji vyvojari omezovat. jenze jejich cip uz je staveny pro nove techniky a jen tak mimochodem jsou k nemu prilepene featury pro techniky stare

nekdo to tady uz psal a ja s tim souhlasim: kdyz se vyrobci grafik budou snazit jen o dobry vykon v soucasnych hrach, vyvojari her nebudou mit prostor jit dal a my bysme jeste ted byli nekde u dx9 ..

takze jen davejte minusy za to, ze kritizuju vase milacky, ale sami nemate jediny argument proti a realite neutecete

+1
-1
-1
Je komentář přínosný?

"vase odpoved na me pusobi tak, ze nemate zadny argument (rozhodne ne technicky), jen se zoufale snazite sam sobe si obhajit svuj nazor"

Tak přesně takhle na mě působí tvé příspěvky :-)

+1
0
-1
Je komentář přínosný?

fajn. takze srandicky mame za sebou. bude ted nejaka odpoved s realnymi argumenty, nebo zadne jednoduse nemas? hmm, jak jinak

+1
0
-1
Je komentář přínosný?

Těžko, protože když dám konkrétní fakta a argumenty, tak se odpovědi jednoduše vyhneš, viz. mé příklady nekvalitních ovladačů Nvidia v jedné z minulých diskuzí.

+1
0
-1
Je komentář přínosný?

stale zadna odpoved? zkus to, jen do toho. nebo se bojis sem ty "fakta a argumenty" pouzit? neboooj! a co se tyce nejakych driveru - huh, treba link by nebyl? to je pro tebe typicke, neco tvrdit a nicim to nepodporit :D

+1
0
-1
Je komentář přínosný?

Dnes? Takze pri vydani prvnich DX11 grafik jedne "nejmenovane" firmy to byl tahak a slagr a dnes nikoho nezajima? Zajimave, zajimave. :O

+1
0
-1
Je komentář přínosný?

Ja neviem. Prosim opravte ak sa mylim, ale preco tato karta vobec vznikla? Uz na prvej strane papierovo straca i na 5850 a testy to len viac menej potvrdzuju (ak neratame rozdiely na urovni chyby merania). A dokonca je este v zatazi hlucnejsia:))).

+1
0
-1
Je komentář přínosný?

protoze to je nastupce 57xx, nastupce 58xx budou 69xx ...

+1
0
-1
Je komentář přínosný?

pokud je to nastupce 57xx proc neni podobna i cena jako 57xx

+1
0
-1
Je komentář přínosný?

Protoze neni konkurence a AMD tim padem krapanek narostl hrebinek? :)

+1
0
-1
Je komentář přínosný?

A proč má teda v zátěži vyšší spotřebu než 5850?

+1
0
-1
Je komentář přínosný?

je levnější než 5850, má trochu potuněnou teselaci, 2x DP 1.2, UVD3, HDMI 1.4a. Jestli už 5850 máte, tak si to samozřejmě kupovat nebudete

+1
0
-1
Je komentář přínosný?

Pretože to nie je náhrada 58xx rady, ale radí sa niekam medzi 58xx a 57xx. Rozhodne je to dobrá náhrada za 57xx. Namiesto 58xx tu bude 69xx.

+1
-1
-1
Je komentář přínosný?

presne, akorat sem to trosku pozdejs poslal :))

+1
0
-1
Je komentář přínosný?

Súhlasím a ja som omylom neklikol na tlačítko reagovat, ale pridať príspevok. Hlavne, že si rozumieme.

+1
0
-1
Je komentář přínosný?

A tam je este niekde miesto:). Nie vazne, nerozumiem preco si dali tu namahu, ked aj tak vykonovo sa nikam neposunuli a este zvysili hlucnost (a to by ma celkom zaujimalo preco, ked ma menej tranzistorov a aj nizsi prikon).

No a cena je na urovni 5850.

+1
0
-1
Je komentář přínosný?

Aha tak si to myslel. No 6850 teda vychádza výhodnejšie. O málo nižší výkon, ale cenovo dosť úspora. Taká Asus HD6850 sa dá slušne pretaktovať a má dobrý chladič. Hlučnosť je záležitosť výrobcu a konštrukcie chladenia.

+1
0
-1
Je komentář přínosný?

On i výkon je skoro přesně na úrovni 5850, jenom to žere v zátěži o 30W víc a víc to hučí. Kdyby slevili 5850 o pětikilčo, tak se nemuseli s vývojem 6870 vůbec namáhat. 6850 aspoň nějaké místo na trhu má, ale 6870 taky nechápu...

+1
0
-1
Je komentář přínosný?

Mňa by viacej zaujímalo, prečo neotestovali plnokrvnú HD6850 a napríklad od Asusu, ktorý má chladenie DirectCU a udáva možnosť zvýšenia výkonu pretaktovaním až o 50% (čo sa mne osobne nezdá, keď štandardne sa zvýši GPU z 790 na 900 a GDDR5 z 1000 na 1250 MHz). Tam by bolo zaujímavé odmerať teploty a hlučnosť pri normále aj pri pretaktovaní, prípadne sa pozrieť na utilitu od Asusu a či je nejaká možnosť ďalšieho navyšovania napätia ak bude mať karta teplotnú rezervu.

+1
+1
-1
Je komentář přínosný?

třeba proto že to není tak snadné získat konkrétní kartu do zápůjčky na testování??

+1
0
-1
Je komentář přínosný?

A čo je dnes jednoduché? Ako fakt to nechápem. Prečo nemajú nejakého veľkopredajcu (Alza?) ako sponzora?

+1
0
-1
Je komentář přínosný?

Chtel bych podekovat za testovani karet s dvama LCD. Pro me nesmirne dulezitej udaj.

Pokud by nekdo potreboval laborovat s vetrakem a taktama 68xx tak Techpowerup Radeon Bios Editor je uz podporuje. Ja jsem musel na svoji 4830 uplne zmenil nastaveni vetraku prave kvuli dvema LCD. Vyssi spotreba vynucuje vyssi otacky, ale original bios mel tak hloupy nastaveni, ze v lete karta menila otacky co minutu podle toho jestli jsem zrovna hodne nebo malo scrolloval.
Jinak s vetrakem v RBE doporucuju laborovat jen pokud mate otevrenou skrin a bezici 8cm vetrak pri ruce. Jednou se mi totiz povedlo rozbit nastaveni tak, ze se vetrak pri startu nerozbehnul a bylo potreba chvili foukat nahradnim, nez jsem do karty nahral puvodni verzi biosu. Pro experimentatory je to ale super hracka a muzete si naladit hlucnost karty presne na prumernou teplotu ve vasi skrini.

+1
-1
-1
Je komentář přínosný?

David říká "13 měsíců po HD 5800 jen drobný refresh".
V tom případě bude určitě 580 taky jen "drobný refresh".
Jsem zvědavý na její tabulku.

Taky je to pořád všechno 40nm proces, tak co by jsme chtěli.

+1
0
-1
Je komentář přínosný?

Chtěl jsem napsat něco podobného - pokud tohle byl drobný refresh, tak GTX 580 bude jen kosmetická úprava.

+1
0
-1
Je komentář přínosný?

Nějak mi chybí informace, v jakém rozlišení se ty hry testovaly? 4K to asi nebude :D

+1
0
-1
Je komentář přínosný?

Pro psaní komentářů se, prosím, přihlaste nebo registrujte.