Diit.cz - Novinky a informace o hardware, software a internetu

Diskuse k Intel vydal a ohlásil 25 nových modelů Alder Lake od $42

vypadá to vcelku normálně, mají horší produkci tepla tak tomu přizpůsobují chladiče. Jediný kdo poslední dobou dělá ojeby ve větším než malém množství je AMD. Nejdřív masáž s V-Cache a pak jediný model se sníženou frekvencí a pak 6500XT využitelný díky brutálně osekané sběrnici jen do nových strojů s PCIE 4 a s minimální životností díky kombinaci malé VRAM a pouze 4 linkám PCIE a to vše "korunuje" cena. V tomhle jsou patálie Intelu s mírným upgradem chladiče vyloženě úsměvné. Dost jsem zvědav na cenu 5800X3D, pokud bude rovna nebo dokonce výš jak 12700K tak je to vyloženě produkt pro fanoušky ale nic víc. Jo kdyby se AMD pochlapilo a oficiálně povolilo PCIE 4 aspoň na deskách X370 společně s povolením 5800X3D tak by to byl jiný level. Zatím ale padají pod úroveň Intelu i NV, protože tak brutální segmentaci oba jmenovaní nemají a že v tom mají velkou tradici.
U Intelu je nyní hlavně otazník u grafik, je zřejmé že chtějí vykročit maximálně bezproblémově, proto mohou obětovat nejvhodnější dobu pro uvedení než riskovat potíže a negativní publicitu.
U procesorů klid ale bylo by super kdyby vydali nějaký extra celer nebo pentium s extra takty 5,5Ghz+.

+1
-15
-1
Je komentář přínosný?

Jako zase když AMD nemá kapacity a prodá vše, co vyrobí, tak nikdo rozumnej moc nemůže čekat tlak na ceny a konkurenci. Hlavně proto, že i kvůli té konkurenci mají těch kapacit ještě mnohem míň, když jim Intel začal vykupovat kapacity u TSMC (velmi dobrý tah obchodně i takticky, aby omezili AMD v rozletu). Prostě továrny nejsou nafukovací. A pokud mají nějaké lepší čipy, tak je dají raději do serverů nebo notebooků, kde na nich vydělají víc. Desktop je pro AMD nyní dočasně (snad) na vedlejší koleji. Intel teď šlápl do vrtule s Alder Lakem a o něco předehnal AMD, takže budou nějakou dobu na koni zase u modrých, dokud nepřijde odpověď v podobě Zen4. A potom bude stejně zaležet na tom, jak moc se povede architektura i platforma jako celek.

+1
+5
-1
Je komentář přínosný?

nemá kapacity není omluva k prasáckému chování. Když byli na huntě tak jim odběratelé lowendu byli dobří. Tohle je výmysl manažerů který se jim může krutě vymstít. Jedna věc je upřednostnit dražší segment ale něco jiného je dělat si legraci z bývalých tahounů prodejů. Nakonec Intel tímto bude za dobrého a AMD transformováno do "evil" podobně jako Google...
Sám jsem používal AMD od prvních Athlonů a z tohohle je mi na zvracení, jako kdyby se pokoušeli zkombinovat praktiky Intelu i NV a výsledek je opravdu odporný jak v cpu tak gpu.
Ale je to jen na zákaznících zda je nechají nebo jim to dají sežrat.

+1
-11
-1
Je komentář přínosný?

Bůůů, firma se snaží vydělat peníze. Bůůůů.

PS: A proto musí existovat zdravá konkurence (nebo alespoň nějaká konkurence).

+1
0
-1
Je komentář přínosný?

to myslíš vážně?? Když by něco podobného udělali v NV to by byly hned hanlivé eseje na několik A4. Už GTX 1650 jak to slízla, hlavně se vypichovala v negativech postarší multimediální výbava blízká Pascal(u) a to měla pcie neořezané. Tohle je další level a fanATics to vesele omluvají....

+1
0
-1
Je komentář přínosný?

Uvidíme po čase, jak si karta od NV a AMD povede. Jestli bude dál platit, že AMD GPU zrají jako víno a NV jako mlíko. Např. jak rychle přejdou hry na RT - bez RT furt pojedou, ale scéna bude bez pomocných světel "tmavá". Koneckonců už teď je RT HW v PC a konzolích a přichází s ním i mobily - vývojáři her nebudou mít důvod se držet zpátky.

+1
0
-1
Je komentář přínosný?

Problém u Intel GPU jsou hlavně ovladače. Pokud někdo myslí (casual) hraní vážně, tak radši o trochu pomalejší AMD iGPU než takové, kde 1/4 her vůbec nespustí a 1/4 stejně nepojede rychleji než na AMD APU.

+1
+2
-1
Je komentář přínosný?

A 1/4 her se bude sekat i při vysokých fps.

+1
0
-1
Je komentář přínosný?

"Nejdřív masáž s V-Cache a pak jediný model se sníženou frekvencí"

Očividně je to kvůli debilnímu scheduleru Win 11, ostatní konfigurace proste na hloupých windows nepřinášely kýžený efekt. Poděkuj mrkvosoftu...

+1
-1
-1
Je komentář přínosný?

Tak 6500XT je stop-gap produkt a X3D je, jak už se tu psalo, nechtěný nicméně slíbený produkt, kterého chiplet by raději prodávali jako část Epicu, tak se IMHO ani moc nesnaží (frekvence, a myslím že i cena ... uvidíme).

+1
+1
-1
Je komentář přínosný?

Shrnuto je to prostě téměř katastrofické, cenově a zběsilým odběrem při zátěži - na což musí být dimenzovaný chladič, skříň, zdroj - úplně nekonkurenceschopné. Intel je na tom ještě hůře než byl v době Pentia4 nebo AMD v době Piledriveru. Vydáním levných H610 mainboardů se to skoro nezlepší.

Škoda, že AMD kašle na spodní okraj nabídky, z pochopitelných důvodů raději vydává dražší modely - takže chybí výkonná moderní, ale úsporná 2-4 jádra, do kancelářských pleček a na různá pomocná použití - třeba všelijaké gateway/firewally nebo pomocné servříky...

Čekal jsem, že Intel udělá nějaké levné 2-4 jádro s menším odběrem, ale díky těm špičkovým odběrům je to bohužel nepoužitelné. Potřebuji nahradit 5+ let provozované firewally, kdysi postavené na Hasswell i3, ale těmito novými čudy to prostě nejde...

+1
+1
-1
Je komentář přínosný?

to je jen strašák, špičkové odběry jsou opravdu jen v minimum případů a hodně záleží na uživatelské konfiguraci s maximálním zatížením AVX. Tam ani AMD by moc nezářily. Taková 2c/4t nebudou moc náročná pokud na tom mermomocí nebudete chtít provozovat extrémní benchmarky. I takové "žravé" i7 12700K v sestavě s 32" obrazovkou, RTX 3070, 5.1 repro a routerem v jedné zásuvce při puštění několika launcherů a prohlížeče s cca 20 záložkami bere kolem 120W. Tudíž nějaké i3 s 4/8 budou úplně jinde, mnohem mnohem níže. A nějaké 2/4 budou klidně v paritě s těmi Haswell čipy ovšem výkon v jiné sféře.

+1
-8
-1
Je komentář přínosný?

Kolik ti proboha za tyhle bludy platí?

+1
+2
-1
Je komentář přínosný?

Ono je celkem jedno jak dlouho bude spickovy odber, jde spis o to ze je potreba radne nadimenzovany zdroj a MB aby pri te spicce dokazali CPU nakrmit. Takze sestava ktera defaultne muze zrat 50W tak musi mit ne 100W zdroj, ale 200W zdroj a na MB musi mit vykonejsi napajeci kaskadu > takze drazsi.

+1
+3
-1
Je komentář přínosný?

On snad někdo do PC kupuje zdroj pod 500w? Mě přijde že všechny zdroje pod tuhle hodnotu jsou na tom kvalitou dost blbě = riziko že brzy bude porucha a ještě zničí něco dalšího. To v PC nechci.

+1
-3
-1
Je komentář přínosný?

Mám Asrock X300 s Ryzen 7 5700G, 32 GB RAM, 2x NVMe a 1x HDD, AX200 a používam ku tomu pribalený 120W adpatér :) Ak nemáš žravú dGPU, tak úplne stačí 350W.

+1
+3
-1
Je komentář přínosný?

Budeš se divit, kupuje. Zejména ti, co používají různé ITX systémy si pořizují různé PicoPSU a běžně to napájí 75-150W adaptéry. Stejně tak PFX/SFX zdroje do různých NASových bedýnek nemají zrovna vysoké wattáže.

+1
+1
-1
Je komentář přínosný?

Tak do itx může jít to co nemá boost nad 100W, což alder lake nabízí také. Třeba 12700T, 12600T , pokud teda je libo výkonný. Jinak samozřejmě i3 a další havěť.

Ty peak hodnoty(třeba že u i5 250A nebo kolik to bylo v těch "uniklých specifikacích") co prý alder lake dosahují nikdo nenaměřil a taky jsem nikde nezaregistroval že by najednou měl někdo po přechodu na alder lake problém se zdrojem že by se vypínal.

+1
+1
-1
Je komentář přínosný?

Mám v těch strojcích Haswellovské i3, puštěné na 35W, s nízkým chladičem (který většinu času funguje pasivně) a napájené to je přes PICOpsu a 65W externí notesový zdroj. Na ITX desce v malé krabici. Takže špičkové odběry těch nových i3 12. generace to zcela vylučují. Budu tam muset dát nějaké AMD APU, až se něco vhodného objeví, protože s Intelem to jak je vidět nepůjde.

+1
0
-1
Je komentář přínosný?

Low-end by mohl klidne nahradit ARM, vykonu je tam dnes uz dost. Jediny co tomu prekazi je MS Win, ale to uz taky prestava platit, protoze BFU jsou temer presunuty na Android a japko. Windowsum zbyva uz jen gaming a pracovni sfera.

+1
-2
-1
Je komentář přínosný?

Tahle úvaha má jednu zásadní chybu - ti co používají Android a Jabko už mají jiné zařízení a low end PC/NB v podstatě nepotřebují. Takže kruh se uzavírá a jsme zpátky u Win.

+1
+2
-1
Je komentář přínosný?

Souhlas, takze vpodstate x86 low-end netreba. Snad jen v podnikovem prostredi a tam AMD ma 5300G. Takze by se dalo rict, ze studentske herni pocitace od roku 2020 nejdou a nepujdou postavit.

+1
-2
-1
Je komentář přínosný?

Renoir-X, Renoir-X, Renoir-X...

+1
+1
-1
Je komentář přínosný?

MS už Win pro ARM nějakou dobu zkouší. Loni ARM spustil SystemReady certifikace, exkluzivita pro Qualcomm má někdy skončit a Mediatek oznámil, že bude dělat čip pro Windows. Jakmile se objeví nějaké raspberry pi s oficiálními ovladači pro windows, tak se to utrhne a lowend bude patřit ARMu. Je akorát otázka, jestli se intel bude snažit konkurovat s Atomy nebo to zabalí.

+1
-2
-1
Je komentář přínosný?

Hlavně Mediatek bude mít GPU NVidia a Samsung zas AMD RDNA 2. Takže podpora her (ovladače známé z GPU na PC). Jak tu někteří píší, na většinu her stačí SandyBridge a potřebuješ hlavně GPU s pořádnými ovladači (ne např Intel).

EDIT: Pro Rpi dělá ovladače komunita, a ta na Windows kašle (není to otevřený OS). Proto se těším na ARM SoC s desktopovým GPU AMD a NVidia (koneckonců, co chcete postavit proti M1 Pro/Max).

+1
-1
-1
Je komentář přínosný?

Není ani třeba čekat na nový HW, nVidia Jetson desky už jsou v podstatě ve stavu, že můžou dostat SystemReady-ES certifikaci, takže jakmile MS uvolní instalačku Windows pro ARM a nVidia vydá driver je platforma hotová.
Jetson Nano je za cenu podobnou RPi a graficky zničí v podstatě cokoli, co je aktuálně na trhu levných ARM počítačů

+1
+1
-1
Je komentář přínosný?

Nevím no, 4x ARM Cortex A57 na 1,43GHz - to raději s linuxem než s Windows.

+1
+2
-1
Je komentář přínosný?

Souhlas. Malá in-order jádra nechcete v telefonu, natož náhradě PC.

+1
0
-1
Je komentář přínosný?

Malá se zdají dnes, ale dřív to zas tak malé nebylo. Out of order A57 byla ta velká pro spojení s těmi malými A53. Frekvence 1,43GHz je dnes asi už moc nízká i kvůli zastaralosti A57.

Moderní malá jádra bych za určitých cenových okolností a počtu jader v mobilu klidně měl, oni aspoň nikdy nemají problém s přehříváním a jsou hodně úsporná. V mobilu na výkon celkem kašlu, stačí mi základní svižnost, hry vůbec neřeším.

+1
+2
-1
Je komentář přínosný?

Kdo chce výkon musí si připlatit třeba za Jetson Xavier s jádry Carmel, ale už to není cenový low-end. Nicméně při aktuální dostupnosti a cenách GPU ta cena vypadá OK.

+1
0
-1
Je komentář přínosný?

Problem je v tom, ze ekosystem Windowsu je z pohladu programatora tak rozmrdany, ze potrva roky, kym budu nejake poriadne aplikacie vobec dostupne. Co je momentalne dostupne, je par opensourcovych cross-platformovych veci, veci zalozenych na webkite, alebo FF, electronove aplikacie (tam to staci v podstate prebuildovat a otestovat, lebo chrome samotny uz naportovany je) a tri prdele hier z cias mobilnych windows. Celkom prekvapivo sa ukazal aj fotosrot (zas tak prekvapivo nie, ARM si struhli s M1). To je dost smutna bilancia na to, ze prve widle, ktore dokazali na ARMe bezat boli W7 niekedy okolo 2009.

+1
+2
-1
Je komentář přínosný?

Proč jen lowend? Na 7nm můžeš mít 12C/12T jader na rozumné frekvenci (díky bohu, že ARM nejdou tak vysoko taktovat) a rázem tu je mainstream co se vejde pod 60W.

+1
-2
-1
Je komentář přínosný?

A proč by to někdo dělal když např OEM R7 5800 je 8C/16T v 65W? (jako bohužel současná situace ve výrobních kapacitách = AMD to nepustí do retailu). Vlastně 8C/16T je i 5700G kde v těch 65W máš i celkem slušnou grafiku

+1
-1
-1
Je komentář přínosný?

Protože bude levnější a úspornější? Protože jako např. Nvidia se už nechce zahazovat se zastaralou a licenčně dokonale zkaženou x86-64? Kdybys chtěl začít dělat procesory, tak by ses snažil jako šílený blbec dohnat to zpoždění za zajetou konkurencí v x86-64 (prakticky bez šance) nebo bys vsadil na něco co ti dá víc možností a potenciálu?

+1
0
-1
Je komentář přínosný?

Jo a ad "licencne dokonale zkazena architektura". Nezijeme v komunizme a nikto nikomu nemoze nariadovat, komu licenciu da, alebo neda. Do momentu, kym licencie nezneuziva na udrzanie monopolneho postavenia. A tu by niekoho mohlo napadnut, ze boli doby, ked intel svoje monopolne postavenie zneuzival, zvlast napr. v dobach stavebnych strojov, ked malo AMD globalne jednociferny podiel na trhu. Nuz, aj napadlo. Sud o monopolnom postaveni Intelu bol snad este niekde v 90tkach. Vysledok? Zaloba zamietnuta s tym, ze vsetky procesory x86, co sa vyrobia dokopy, su len smietko na trhu a celkovy pocet roznych procesorov bol snad aj radovo vyssi.

ARM je v skutocnosti vo svete procesorovych architektur skor vynimka. Resp. bola, ked ten biznis rozbehli. Vacsina ostatnych architektur zacala tak, ze tvorca architektury ju pretavoval do kremiku. Rozne architektury potom odchadzali do "dochodku" ako volne dostupne, alebo licencovatelne az vtedy, ked duopol Wintel znicil MIPS, Alphu, a scasti aj Power. U ARMu si z toho urobili biznis model.

+1
-1
-1
Je komentář přínosný?

"Škoda, že AMD kašle na spodní okraj nabídky"

Renoir-X

+1
0
-1
Je komentář přínosný?

Kruci, tady už je to skoro jako na DDsvětě, napíšeš co se AMD nepovedlo a už tě mínusujou k smrti.
Souhlas s DDR0, 6500XT je k ničemu a na to, jaký humbuk se dělal kolem té 3D kešky, tak jeden model je více než trapný. Sorry jako.

EDIT: omlouvám se, tohle patří jako reakce na první komentář

+1
-9
-1
Je komentář přínosný?

Když ono se AMD jednou něco nepovede a tihle to rozmazávají jak opice lejno, zatímco pět let plynule po sobě jdoucích průserů Intelu se musí omluvit a firmu je nutné podpořit, aby mohla chystat další podrazy.

+1
+6
-1
Je komentář přínosný?

Myslím, že se tomu říká argumentační faul, poukazovat na chyby jinde, když nějakou udělám a nedokázat to vysvětlit napřímo.

+1
0
-1
Je komentář přínosný?

Kruci, stavím nové "herní" PC pro děti a mám na výběr GT1030 (shit všech shitů), předraženou GTX1050(Ti) -mimochodem taky 4GB- nebo 6500XT. Z těch tří je jasný vítěz 6500XT. Donedávna jsem měl možnost jen 5700G (protože nikdo soudný nedá za herní grafiku pro děti dvacku a víc), takže oč ti přesně jde?

Sorry jako, tohle není PCT s hordou zelenejch mozků. ;-)

+1
+1
-1
Je komentář přínosný?

Kup nejvýkonnější AMD APU (8 jader) a za rok až dva dokup grafiku. To je jediná rozumná možnost. Ona ta 6500XT stejně bude cenově víc mimo než už oficiálně je.

+1
0
-1
Je komentář přínosný?

Teď se objevila cena 6500XT z Francie a je to krásných 300 eur. No nekup to!!!

+1
+2
-1
Je komentář přínosný?

Nikdo soudný nestaví dětem herní PC...

+1
-3
-1
Je komentář přínosný?

Myslím, že aktuálně nejlepší PC pro děcka je to poskládané z nějakých bazarových kousků. Nevím na co jsou u tebe zvyklí, ale já bych si postavil nový a jim dal svůj starší. Chápu, že největší osina v zadku je teď grafika, ale určitě bych momentálně nekupoval žádnou novou, už vůbec ne s 64bit sběrnicí za ty prachy, ale třeba 1060 3GB by se s trochou práce dala sehnat za jakž takž cenu.
A oč mi přesně jde? O nejlepší poměr ceny/výkon, asi jako každému. Nějaké žabomyší války v diskuzi mě moc nezajímají, jen to vidím stejně jako DDR0, to je vše.

+1
+2
-1
Je komentář přínosný?

Nebudeš kupovat 5let starou 1060 3GB, radši novou RX6500X
https://aukro.cz/msi-geforce-gtx-1060-3g-oc-3gb-gddr5-7002522158

Když jetou kartu, tak max 3roky starou.

+1
0
-1
Je komentář přínosný?

Výhoda novějších karet je podpora raytracingu. Zatím se to týká jen Cyberpunku, ale časem bude více her záviset na RT. I když nějakou dobu půjdou pustit i bez něj, scéna bude "tmavá".

+1
+1
-1
Je komentář přínosný?

Prej záviset, která hra závisí na RT? Je to naprosto irelevantní kravina, která akorát prodražuje grafické karty. Navíc těch pár výpočetních jednotek je u tohohle segmentu špatnej vtip.

+1
-1
-1
Je komentář přínosný?

Je to podobné jako např multitexturing pro lightmapping. Bez něj ty hry, které s ním nepočítaly, taky vypadaly dobře (jsou i jiné techniky pro stínování scény, např vertex coloring či stíny vyřezávané do polygonů - např takový Revolt měl vertex coloring a na detaily vyřezávání, např stín zábradlí na lodi). Pak na tuto techniku přešla většina her, ale fungovaly i na kartách bez multitexturingu - použily multipass rendering (za cenu výrazného zpomalení). Nakonec ale tuto codepath zrušily a na kartách bez multitexturingu přestaly fungovat.

I před RT hry měly odrazy např v kaluži nebo lesklé podlaze, nebo odrazy světla na okolních objektech (za mě hezkým příkladem Borderlands 3 na střední a vyšší detaily). Ale je to pracné pro level designéry (pracovat s omezeními vykreslování, vkládání pomocných světel, ...), takže jakmile bude RT hardware rozšířený (konzole, všechny nové GPU pro PC, dokonce RDNA 2 v mobilech, Apple se určitě také přidá, ...), tak si ušetří práci (jak říkám, nějakou dobu budou fungovat hry i na HW bez RT - ale bez pomocných světel ve scéně bude část scény neosvětlená, viz porovnání screenshotů v Cyberpunk).

PS: AMD ukázalo, že jde přidat podporu RT bez výrazného navýšení počtu tranzistorů. Texturové jednoty jsou dvojnásobně velké (k texturové jednotce je přilepená i jednotka pro test paprsků a několika trianglů nebo bounding boxu), ale zbytek GPU zůstává. Datové dráhy RT jednotek jsou sdílené s texturovacími jednotkami a procházení stromu pro testy paprsků v RT (bounding boxy a uvnitř každého několik trianglů) jsou řešené přes vygenerovaný kód shader programu. Tedy čím složitější scéna pro RT efekty, tím pomalejší rasterizace (tím méně výkonu shaderů zůstane pro vykreslování). Designéři hry si tak sami určí, jaké a jak detailní RT chtějí a podle toho budou vědět, jak detailní maj udělat normální scénu pro rasterizaci. Tahle rozhodování se dělají i u her bez RT (obvykle aby to na dostatečné detaily běželo na konzolích).

+1
+2
-1
Je komentář přínosný?

Ano zcela jistě se všichni přidají a uvidí zářnou budoucnost v RT. Realita je ovšem taková, že rozdíly na screenshotech jsou nepatrný, ale nároky na hardware velmi vysoké. Kromě toho raytracing vytváří extrémní množství šumu, který se musí zahladit a tím mizí jakékoliv detaily, vznikají artefakty atd. A šum tam bude i kdyby se jeden snímek renderoval hodinu.

Jinak třeba UE5 má raytracing softwarový, takže nějaký speciální výpočetní jednotky nejsou vůbec potřeba. Každopádně i tady ta technologie naráží na řadu problémů, které nejdou moc kloudně řešit. Objekty mají 4k textury, ale všechno je tak rozmazaný, že když se na něco nedíváte z 5 metrů tak to vypadá jako textury renderované v době na úsvitu 3D akcelerátorů před 20+ lety.

+1
0
-1
Je komentář přínosný?

Kde adoruju RT? Jen říkám, že když bych si dnes kupoval grafiku na několik let, tak bych chtěl něco future-proof. Ukázal jsem příklady, že grafika jde udělat velmi podobná i bez RT (odrazy scény v rovné zemi, na nerovných částech aspoň pomocí pomocných světel, pro global illumination stačí softwarové RT na CPU, protože stačí o dost řidší hustota paprsků - viz Doom z roku 2016).

+1
+2
-1
Je komentář přínosný?

U nás doma to tak je, ale kupovat někomu jetý HW a dávat na to záruku fakt nebudu (nehledě na takové podružnosti jako nemožnost odpočtu DPH). ;-) Navíc to máš psáno kousek níže, je šílená doba, kdy se vyjetá plečka typu GTX10603GB vydraží za 4,5 tácu - to mi pak nepřijde vůbec mimo dát za novou 6500XT sedmičku.

+1
0
-1
Je komentář přínosný?

> co se AMD nepovedlo a už tě mínusujou k smrti

Uminusovali vas i DDR0 protoze jste psali desive blbosti.

> 6500XT je k ničemu

Tenhle kenialni zaver ste vyvodil na zaklade toho, ze ma "brutalne osekanou PCIe 4" ? OK, a dival jste se na nejake testy ? ja sem se dival, v 99% pripadu to melo zanedbatelny vliv. V realite muzete narazit na dve situace: 1) textury hry se vejdou do VRAM, pak to osekane PCIe ubere tak 2-3% vykonu; 2) textury se nevejdou, pak vam to osekane PCIe ubere mnohem vic, nicmene je to uplne fuk protoze vykon bude v totalni <|> a byl by v totalni <|> i s neosekanou PCIe. VRAM ma o dva rady vyssi rychlost, kdyz musite pocas renderingu tahat textury pres PCIe, tak jste prohrali, tecka.

Takze shrnuto: oproti Nvidii s podobnym vykonem (3060 - 3060Ti ) to ma podstatne lepsi pomer spotreba/vykon, i absolutni spotrebu, cena byla taky spis na urovni 3060 nez 3060Ti. Ale samozrejme je mozne, ze ty tisice lidi co to koupili, jsou idioti, jenom vy jste letadlo.

Jsou situace kde je Nvidia lepsi volba (potrebujete NVENC, CUDA, RTX nebo neco) ale z te osekane PCIe4 vyvodit ze 6600XT je "k nicemu" je absurdni. Desiva blbost -> minusy.

Co se tyce V-Cache, AMD nikdy neslibila kompletni novou generaci do AM4, ja sam sem to osobne tipoval na 2 vykonnejsi modely. Osobne mirne zklaman. Nicmene za par mesicu bude spousta modelu Zen4, pravdepodobne alespon pulka s V-cache, takze prohlasovat V-cache za jednorazovou zalezitost je nesmysl.

+1
0
-1
Je komentář přínosný?

"na to, jaký humbuk se dělal kolem té 3D kešky, tak jeden model je více než trapný"

Tak ona ta 3D-cache bude mít zásadní význam, až *zcela* nahradí veškerou L3 cache. U Zen3 ji AMD potřebuje jenom proto, aby ji vyzkoušel v reálném provozu a vychytal mouchy, než uvede Zen4.

Hlavně, jak to vypadá, tak 1) AMD se soustředí na Zen4, 2) očividně ta 3D cache má problémy s Windows-schedulerem (lépe řečeno naopak, Widlows scheduler má problém s 3Dcache), takže s jinými modely než 5800X se to AMD nepodařilo vytůnit, aby to smysluplně přidalo výkonu. To ale není primárně problém AMD, ale špatného scheduleru ve Windows...

+1
-1
-1
Je komentář přínosný?

Hele vy jste tu všichni nějací věštci? Jak jste přišli na to, že 4xPCI-E 3.0 je pro RX 6500XT málo? On už to někdo měřil? Podle mě to znatelně ořeže jenom max FPS ve hrách, kde se to už teď pohybuje ve stovkách. S avg FPS to pohne dolů jen o pár procent.
Z druhé strany mohu opět konstatovat, že je to po dlouhé době celkem rychlá karta, která půjde do slotu x4(x16mechanicky) a tím bude volný x16 pro "user case" kartu.

+1
+3
-1
Je komentář přínosný?

Zatím mi nikdo nevysvětlil, proč by grafické kartě 6× pomalejší než je Radeon RX 6900 XT neměla stačit 4× užší systémová sběrnice než má Radeon RX 6900 XT. Protože to stále znamená, že na jednotku výkonu má k dispozici o 50 % vyšší přenosovou rychlost.

+1
+4
-1
Je komentář přínosný?

Přesně.

+1
-1
-1
Je komentář přínosný?

proč? Protože tenhle bazmek půjde i do starších strojů s PCIE třetí generace a tam ten ilustrovaný výkon nebude, proto. Při malé VRAM také Win od verze 10 "swapují" do RAM vylepšeným memory managementem a využívají rezervu pcie sběrnice pro intenzivní přenosy. U grafik 8GB+ je to marginální funkce ale u 4GB naopak stěžejní že při dojití paměti ji najednou bude válcovat i GTX 1650 která má 128bit a hlavně plný počet linek pro komunikaci. I při použití pcie ver. 4 je to už dnes na hraně, tařka bez rezervy. Je nasnadě proč a o to hnusnější je ojeb i dalších funkcí. A to bylo řečí že Turing v 1650 je v dekódování videa osekaný a neadekvátně naceněný.

+1
+1
-1
Je komentář přínosný?

Nevím, na firemním notebooku HP s pouhými 2 linkami PCI Express přes Thunderbolt do výkonnější externí grafiky (RTX 2070 SUPER) hrál brácha např. Cyberpunk 2077 s DLSS 2K-->2.5K s RT bez problému. Jak tu říkají ostatní, dokud se ti vejde obsah scény do VRAM, tak to má vliv jen na množství příkazů do GPU, což je ztráta výkonu do 10 %. Jakmile VRAM nestačí a swapuješ do RAM, tak ti klesne fps brutálně, takže prašť jako uhoď. Tohle ale není žádná novinka, to platí už od dob, kdy grafiky měly 4 MB VRAM a zapojovaly se do AGP.

+1
0
-1
Je komentář přínosný?

o to jde, pokud máš 8GB+ tak tě to nemusí moc zajímat. Jenže u 4GB či míň je úzkým hrdlem sběrnice přes kterou se toho tahá najednou opravdu mnoho.
Tady je sice už starší článěk o W10, ale dobře popisuje jak moc je při dojití VRAM volné přenosové pásmo pcie důležité: https://www.svethardware.cz/recenze-windows-10-nova-sprava-pameti-pro-gr...

Fígl téhle technologie je v tom že počítá s volnou kapacitou sběrnice, kterou přirozeně u tak osekané karty nenajde.
Mimochodem, zlá a drahá NV tohle nemá zapotřebí. Ono kolik bude asi úspora v ušetření 4 linek, nula celá nic.

+1
0
-1
Je komentář přínosný?

První verze použití RAM jako VRAM byl AGP texturing, a ani tam jsem neměl problém. Např. na NVidia Riva128 (NV3, první karta od NVidie, která umí triangly!) 4 MB jsem celou VRAM vyplnil front-, back- a z-bufferem (960x720x16bit * 3 buffery), takže 100 % textur tahal přes AGP - a světě div se, Quake2 běžel úplně v pohodě (na Quake3 už to byl ale záhul celkově pro tu kartu). Mimochodem na tomhle principu fungoval Intel i740 (VRAM nebyla nikdy použita na textury - ani v 8MB verzi!). A ty mi tvrdíš, že ani 1000x (slovy tisíckrát) větší VRAM ti nestačí? Holt to není karta pro hraní ve 4K (kde buffery zabíraj 4x víc, plus potřebuješ větší rozlišení textur).

> Mimochodem, zlá a drahá NV tohle nemá zapotřebí. Ono kolik bude asi úspora v ušetření 4 linek, nula celá nic.

Eh, lowend NVidie maj taky nízký počet linek, protože se používaj i v notebookách. Předpokládám, že AMD chtělo nabídnout co nejvýhodnější kartu a předpokládám, taky tenhle čip bude dávat hodně do notebooků. Podle tvého tvrzení je vlastně dobře, že se ti upgradem PC zvýší výkon i GPU.

+1
0
-1
Je komentář přínosný?

myslím že v odkazovaném článku je novinka dostatečně vysvětlena.

Ano NV to nemá zapotřebí a budu tedy konkretizovat - gtx 1650 ořezanou sběrnici nemá, stejně jako nová 3050. Celou dobu se v diskusi bavíme o desktop kartách tak do toho nebudeme míchat mobilní.

+1
0
-1
Je komentář přínosný?

Ty masky jsou pro 7 a menší nanometry strašně drahé, takže se sdílí (je to sada více masek). AMD už prostě myslí do budoucna.

+1
0
-1
Je komentář přínosný?

Mám ořezanou MSI RX 6600 XT GAMING X PCIe x8, 5600X, deska X470 PCIe 3, 2x8GB 3600MHz cl16.
OC Ram 3600MHz cl14 nevidim žádnej rozdíl ve výkonu GPU, nevim proč, bud 5600X nakrmí 100% RX6600XT nebo 32MB L3 (5600X) neni vidět rozdíl ramek. Možná u 5600G,5700G 16MB L3 by přetaktované ramky škálovaly u výkonu RX6600XT.
PCIe 3, nemůžu použít Smart Access Memory, zlobí to, 5sekund dobrý pak škubne obraz ve hře, mám malou propustnout PCIe 3.
RX6600XT, propustnost pamětí VRAM 128bit malinko kartu brzdí, OC VRAM škáluje dobře (čip GPU nemá cenu taktovat)
https://ctrlv.cz/XKaI

+1
0
-1
Je komentář přínosný?

TEST PCIe Gen 1 - RX6600XT, doufám že jsem v biosu nastavil správně.

Pokles výkonu

https://ctrlv.cz/Q3sD

+1
0
-1
Je komentář přínosný?

No srazil jsi to až kapku moc (na x4 v1.1, což je ekvivalent x1 v3) tak nízko to v reálu nikdy nepůjde a i tak je vidět že ten pokles není až tak dramatický

+1
+2
-1
Je komentář přínosný?

"Není až tak dramatický" :D rozdíl je 7% což je k smíchu vzhledem k tomu jak byla směrnice seřízlá.
Jak už jsem tu někde psal, dokud nedojde VRAM, je to šulnull. Jakmile dojde VRAM, je jedno jestli je to PCIEv1, nebo v4, stejně dojde ke stutteru a bude to k ublinknutí.

+1
+2
-1
Je komentář přínosný?

Taky to nechápu, efektivně je to jako mít PCIe x8 Gen3. Což je naprosto běžné v noteboocích a ty GeForce RTX 3070/3080/3080 Ti či Radeony RX 6800M přes těch osm linek běží docela v pohodě.

Jasně chce to mít PCIe Gen4 desku, s Gen3 by asi mohl být problém, když se začne cachovat do systémové RAM.

+1
+3
-1
Je komentář přínosný?

Myslím že té varianty PCIe 3.0 x4 se bojí místní diskutéři nejvíc, ALE vážně je to takový problém v tomhle segmentu?

+1
+3
-1
Je komentář přínosný?

Je.
Mnoho z diskutujících (nebo lidé v jejich okolí, kterým dělájí IT guru) "suší" 5+ let staré sestavy, které by chěli pžíležitostně trochu vylepšit. Hlave "za levno".
Jenže ono se jaksi ty příležitosti nějak nevyskytly.
Buď to bylo moc drahé, nebo to naylo vůbec, a teď tohle je už "příliš moderní" pro jejich "Milášky".

PS: překlepy a přeblepty jsou záměrné

+1
0
-1
Je komentář přínosný?

Není.
Kdo chce vylepšit za levno, koupí grafiku z druhé ruky. Koneckonců starší kus HW si obecně lépe rozumí s ještě o kus starším zbytkem.

+1
-2
-1
Je komentář přínosný?

je, už že v minulých generacích se tak brutální ořez nedělal ani u konkurence, u ATi/AMD se hlavně cenila i v kategorii 1000-2000Kč plná multimediální výbava. Toto je zrada a kdo si pečlivě nepročte specifikaci se bude hodně divit. Spoléhat na to že bude stejná kvalita jako v minulosti už neplatí ani u AMD.

+1
0
-1
Je komentář přínosný?

ne, na firemním notebooku HP s pouhými 2 linkami PCI Express přes Thunderbolt do výkonnější externí grafiky (RTX 2070 SUPER) hrál brácha např. Cyberpunk 2077 s DLSS 2K-->2.5K s RT bez problému. Jak tu říkají ostatní, dokud se ti vejde obsah scény do VRAM, tak to má vliv jen na množství příkazů do GPU, což je ztráta výkonu do 10 %. Jakmile VRAM nestačí a swapuješ do RAM, tak ti klesne fps brutálně, takže prašť jako uhoď. Tohle ale není žádná novinka, to platí už od dob, kdy grafiky měly 4 MB VRAM a zapojovaly se do AGP.

+1
0
-1
Je komentář přínosný?

novinka to je protože od WDDM 2.xx přesně tomu pádu fps a sekání předchází, viz článek SWH. Ovšem tam kde je sběrnice pcie osekaná na kost tak to pochopitelně padne jako ve Win8 a starších.

+1
0
-1
Je komentář přínosný?

Pod osekanou na kost si představím spíš 2 linky PCIe 3 v Thunderboltu na bráchově firemním notebooku. Tohle má 2x tolik a je to jen lowend karta. Kdežto brácha na tom hraje na RTX 2070 SUPER (odpovídá původní RTX 2080). Mimoto je super, že upgradem PC se ti výkon grafiky jste o kus zvýší, ne? Grafika je tak future-proof ;-)

+1
0
-1
Je komentář přínosný?

právě že není, osekány funkce dekodéru i enkodéru, to je grafika na "tady a teď", rezerva nula, to je o čem píši.
Jinak se 2 linkama PCIE3 to musí být brutálně omezené, těch 16 linek se do grafického slotu nedává pro legraci. Ale je relativní co si lidé představují pod pojmem hratelné. Svého času pro mě byl hratelný i Crysis na 28fps... Dnes už ale ne.

+1
0
-1
Je komentář přínosný?

Pro nás hratelné je 30 fps VSync, pod který nesmí nikdy spadnout (tj. reálně fps 30-50). Jakmile je jej dosaženo, tak radši lepší vizuál (větší rozlišení, raytracing, ...). Jsme už starší a pamatujeme doby, kdy stabilních 30 fps byl svatý grál a dosahovala ho jen Voodoo 1. Koneckonců není to tak dávno, kdy i herní konzole byly ve většině her locknuté na 30 fps (až PS 5 a odpovídající Xbox nabídky 60 ve většině her). Jsou lidi, co do dnes věří, že lidské oko nevidí víc jak 30 fps ;-) PS: Řešit dekodéry a enkodéry na AMD GPU moc nemá smysl - AMD je má vždycky nejhorší.

+1
0
-1
Je komentář přínosný?

30fps se dá u her které nejsou akční, ale i tak už je to přežitek, prakticky jen pro ty kteří opravdu šetří. 60fps je snesitelných, ale od té doby co jsem si pořídil za 12Kk 32" 1440p s 180Hz už bych se zpátky na šedesátku nevracel. Kupodivu cryengine byl tehdy tak napsaný že to bylo hratelné ikdyž to padalo na 25fps. Ale to byl singl, do mulťáku v nějakých 30fps je člověk akorát lovná zvěř.

+1
+1
-1
Je komentář přínosný?

Tak i já jsem viděl rozdíl 144 fps vs 60 fps, ale tak nějak to nepotřebuju. Samozřejmě něco jiného to je pro kompetitivní hráče, ale ty jsou menšina. Většina si chce jen hru užít - a jak říkám, donedávna byla ta půlka lidí, co hraje na konzolích, na 30 fps zvyklá. A ze 60 jsou teď nadšení, tak jim radši neříkejme, že existuje i 144 fps ;-)

+1
0
-1
Je komentář přínosný?

> On už to někdo měřil?

Ano meril, videl jsem nejake testy. Viz muj komentar vyse. Namereno bylo kolem 2-3% u 99% her, u par vyjimek to bylo tusim 25%. A ti chytraci co tady napisou ze je to "nepouzitelne" resp "k nicemu" pak obvinuji ostatni z AMD fanboy-ismu....

> ořeže jenom max FPS ve hrách

Oreze to hlavne FPS u her kde se nevejdou textury do 8GB VRAM. Nicmene jestli mas v te situaci 5 FPS nebo 10 je celkem sumafuk, nehratelne to bude tak nebo tak.

+1
0
-1
Je komentář přínosný?

Historicky si pamatuju že PCIe2 x16 vs PCIe3 x16 dělal největší rozdíl například v CSGO, kde to místo 250FPS dávalo "jen" 160FPS.
V plnou VRAM samozřejmě souhlasím, ale tam to bývá stejně jedno, protože stutter přenosem textur z ram do vram vznikne tak jak tak a je jedno přes kolik linek se to prožene.

+1
+2
-1
Je komentář přínosný?

Všichni včetně noxe jste pomatení nebo zaslepení vlasním fanatismem.
AMD i Intel se přizpůsobuje jeden druhému, jednou má ten, podruhé ten druhý navrch. Procesory obou výrobců jsou pro 99,9% populace naprosto rovnocenné a to jde. Nějaká špičková spotřeba, kterou běžný uživatel dosáhne tak 0,01% času zapnutého PC je obyčejným lidem u prdele. Marketing je svinstvo, ale holt účel světí prostředky.
Občas vydají model, který je určen nadšencům, ale reálně je k ničemu. Pro výrobce ztrátový, prodejní potenciál malý.
Kritizujte a mínusujte jak chcete, ale potřeby většiny jsou nadřazeny potřebám menšiny, či jednotlivce.

Btw chtěl jsem do firmy AMD servery, ale dostupnost v požadované konfiguraci je tak mizerná, respektive žádná, že opravdu nelze než Intel.

+1
-3
-1
Je komentář přínosný?
+1
0
-1
Je komentář přínosný?

>Nějaká špičková spotřeba ... je obyčejným lidem u prdele.
Jen do té doby, než jim při jejím dosahování začne klekat počítač kvůli nedostatečně nadimenzované napájecí kaskádě na MB nebo zdroji.
U nás v práci jsme loni nějaký server s AMD koupili a podle nabídky jich měli docela širokou škálu. Takže asi jde o to, kde a co sháníte. Ve srovnání Epyc vs Xeon má Epyc jasně navrch. Zatímco v desktopech se Intelu podařilo díky AL dotáhnout, v serverech zatím ne.

+1
+4
-1
Je komentář přínosný?

Klekani PC kvuli spotrebe je okrajova zalezitost. Vetsina desek jaks taks, na hrane, pojme zravejsi modely procesoru nez se do nich obvykle davaji. Takze mainstream to zvladne i s box chladicem v klidu. Zdroj je i dnes tezko koupit pod 150W, obvykle se dava >= 250W, tam muze byt problem v tom ze zdroj nesplnuje to co pise, coz se u shit polskych zdroju obcas stava.
Ja souhlasim ze EPYC je lepsi volba, proto jsem po nich sel, ale v pozadovane konfiguraci proste zadny nikde v CR nebyl (Tower, 8C+,16+SFF, podpora 128+GB RAM, cena < 50k kc bez disku a RAM) a cekat jsem dal nemoh, uz jsem cekal vic jak dva kvartaly. Tak jsem vzal Intel.

+1
+1
-1
Je komentář přínosný?

Všechny EPYCy umí alespoň 4TB RAM adresovat, co se týče toweru s 16 SFF, to jde spíše na vrub výrobcům serverů než přímo AMD. Drtivá většina serverů je spíše rackmount, jelikož výpočetní hustota na 1U je velmi důležitá.

+1
0
-1
Je komentář přínosný?

"zatím ne"
LOL

+1
+1
-1
Je komentář přínosný?

Mozna by nebylo spatne si uvedomit, ze jsi na serveru, kde chodi i pocitacovy nadsenci, kteri resi i jine veci nez jen "aby tp jelo". Je to podobny, jako by jsi chodil na motoristicke servery a psal, ze Fabka s Octavii staci, protoze si ji koupi stejne vetsina lidi.

+1
-2
-1
Je komentář přínosný?

A já myslel, že je to zpravodajský server pro širokou veřejnost, a ono sem maj přístup jen IT kutilové. Moje chyba, omlouvám se ;).

+1
+3
-1
Je komentář přínosný?

Na tyhle stránky chodím od jejich založení, ještě jako cdr.cz, tehdy opravdu jen web pro nadšence. Ale poslední dobou tu brouzdám spíš pro pobavení, než pro informace. Články a hlavně diskuze, to má člověk hned leší náladu, že není takový tragéd. :).

+1
0
-1
Je komentář přínosný?

ALe porad je obrovsky rozdil mezi beznym frantou a lidma co se schazi tady, alespon vetsinou. To ze jsou ruzne nazory nebo se obcas melou kraviny, to tak je.
Co spotreba je podle tebe dulezita nebo ne?
Ja tady chodim s nejakyma pauzama vicemene taky od zalozeni..

+1
-1
-1
Je komentář přínosný?

Jen dotaz - když teď situace vypadá jak vypadá, byl by takový technický a finanční problém upravit design cezanne nebo rembrandta na 10 nebo 12nm proces u GF s tím že by měl polovinu jader a klidně pomalejší grafiku a sypal to na trh jako lowend?
Nebo klidně vrátit do hry nějaké apu 3k nebo 2k - tam by ten redesign nemusel být tak brutální.

+1
0
-1
Je komentář přínosný?

Byl - předělání na jiný proces u jiného výrobce neznamená úpravu, v podstatě to znamená udělat celý design čipu úplně znovu.

+1
+3
-1
Je komentář přínosný?

Podle mě AMD ještě v lednu oznámí Renoir-X...

+1
+1
-1
Je komentář přínosný?

Problem by to nebyl, technicky. Financne - pravdepodobne par desitek milionu (minimalne). S tim jake jsou zisky v lowendu... asi bez sance.

Jednodussi by bylo vzit starsi 12nm design a mirne ho upravit, nebo jen proste a jednoduse "ozivit" - jako Nvidie ozivila 2060ku. Problem je, ze ted je celkove malo kapacit, na vsech nanometrech - je dost mozne ze GF ma nasmlouvano na rok a pul dopredu, a kdyz nekdo jiny GF za 12nm chip zaplati vic nez kolik AMD vydela na lowendu, tak je to bez sance.

+1
+1
-1
Je komentář přínosný?

Ta 12400T nevypadá zle :)

+1
+2
-1
Je komentář přínosný?

Tak CPU i5 X400 nebo XX400 jsou obecně u Intelu dost povedené. Nejsou honěné do krajností, takže handicap ohledně spotřeby není tak znát, cenu mají nasazenu velmi rozumnou a výkon dostatečný pro spoustu uživatelů.

+1
+3
-1
Je komentář přínosný?

Akorát že T-čko asi nekoupíš, najdeš ho jenom v hotových sestavách od velkých výrobců.

+1
+1
-1
Je komentář přínosný?

jop a je to škoda

+1
+1
-1
Je komentář přínosný?

Tak si kup 12400 a v BIOSu si nastav TDP limit 35W. Heureka! 12400T je na světě a dokonce za úplně stejnou cenu.

+1
+2
-1
Je komentář přínosný?

No není, protože T-čka jsou výběrové čipy s nižší leakage, takže ve výsledku má T-čko o něco vyšší výkon než normální CPU omezené na 35W

+1
0
-1
Je komentář přínosný?

Můžou být výběrové ale spíš ne. Ty vybrané jsou primárně do notebookových čipů.

+1
+2
-1
Je komentář přínosný?

Na rozdíl od AMD které používá stejný křemík pro APU do desktopu i NB má intel pro notebookové čipy jiný křemík než pro CPU do desktopu, takže ten scénář co píšeš fakt nehrozí.

+1
0
-1
Je komentář přínosný?

Může být, ale jak píše TOW, tak taky nemusí :)

+1
+1
-1
Je komentář přínosný?

´aktuálně zaplatí zákazník o 550 Kč víc než za komplet postavený na Ryzen 7 5700G. Výkon navíc je tedy za příplatek. Naději dávají desky s čipsetem H610´

ale notak :D prectete si dukladne parametry H610, ryzena taky muzu strcit do A320 za 800kč ale nikdo to neudela..

+1
0
-1
Je komentář přínosný?

Kdyby to nikdo neudělal, tak se ty desky neprodávají. Protože nic jiného než Ryzen se do A320 strčit nedá.

+1
0
-1
Je komentář přínosný?

Ja v tom nevidim problem, jedine co je omezujici je firmware BIOSu. A to ze to nema 4 sloty na RAM a X portu SATA a USB me netrapi. Jediny co je u vysich rad je moznost pretaktovani, ale to v dnesni dobe nema moc smysl. Treba Ryzenu 3900 bude mit vykon v A320 stejnej jako v X570

+1
0
-1
Je komentář přínosný?

to neni pravda... vetsina A320 nema chladic na kaskade a zacne to trotlit

+1
0
-1
Je komentář přínosný?

S 65W Ryzen 3900 to trotlit nebude. S 105W Ryzen 3900X asi některé ano, nevím.

+1
0
-1
Je komentář přínosný?

ale ano... verte mi.. koupil jsem domu ze srandy jednu libovou asusku za 800kč a testoval jsem ji.. na PBO muzu rovnou zapomenout a musel jsem vypnout i turbo :D

+1
+1
-1
Je komentář přínosný?

Ne, takle to nefunguje.
Prostě, výrobce základní desky A320 v biosu přiškrtí CPU, aby to slabá napájecí kaskáda zvádla.
Proto má každá základní deska svoji verzi biosu.

+1
+2
-1
Je komentář přínosný?

Achh, aka skoda, ze Core i5-12600 nie je s "K" (odomknuty nasobic).
To by bol idealny herny CPU, bez mrdkovych E-cores, aj na obcasny encoding apod.
A po veceroch by sa s tym mohol clovek hrat a taktovat, undervoltovat.

+1
+1
-1
Je komentář přínosný?

Ono to uplne nedava smysl, kdyz ty novejsi Core jsou samotaktovaci - se vsemi temi boost vecmi. Snad posledni "tupej" cpu kde K melo smysl byl Haswell, nebo jeste neco pred nim.

+1
+3
-1
Je komentář přínosný?

Ale dava. Tie auto boosty optimalizuju 1core a 2core boost. Navyse neK CPU stale maju Tau periodu.
Kckovy procesor by si clovek vyladil napr. na 4.9GHz allcore boost, na hry a encoding idealne 6 jadro s PCIe5 platformou.

+1
+1
-1
Je komentář přínosný?

Ja mam treba 3800XT, coz je trosku lepsi chip nez puvodni 3700/3800x. Zkusil jsem na tom CB a vysli mi min jadro na 4,550Ghz. Takze teoreticky by se dal udelat OC na 4,5Ghz. Nema to ale smysl, kdyz i v MT zatezi CB20 to jede na 4,3Ghz. Rozdil je pouhych cca 5%...

+1
-2
-1
Je komentář přínosný?

Uz chybi jenom konfigurace Core Cola Light (0+4/4) a Core Cola Zero (0+2/2) :-)

+1
+2
-1
Je komentář přínosný?

Tomu se říká Intel Atom...

+1
-1
-1
Je komentář přínosný?

Pokud dobře koukám, tak Core i5-12600 je skladem kolem 6500Kč. To by asi byla moje volba v tuto chvíli, neb GPU už je slušné, takže bych nahradil starej Radeon (srazí z ceny 500Kč) něčím schopnějším. Byl by zajímavý test tohoto CPU oproti 5600G, které je též skladem za podobnou cenu s podobnými papírovými parametry. Jinak hit do kanclu je pochopitelně novej Celeron (případně Pentium), tam nemá AMD co postavit proti.

+1
+2
-1
Je komentář přínosný?

Vzhledem k herním zkušenostem recenzentů s ovladači intel igpu bych zůstal na Radeonu nebo koupil APU AMD. Nemusíš chodit daleko:
https://diit.cz/clanek/recenze-intel-core-i9-12900k-alder-lake-jeho-bigl...

+1
-1
-1
Je komentář přínosný?

Já už hry nehraju (maximálně tak jednou za delší čas nostalgicky na chvíli pustím Skyrim, kterej na Intelu funguje OK tak nějak už od Haswellu) a hlavně jedu na Linuxu, kde pro X.Org i Wayland je Intel dobrým řešením. Spíš ocením tu AV1 akceleraci (byť ruku na srdce, 4k AV1 utáhne softwarově stávající Comet Lake bez potíží), případně encoding či obecně dobře funkční VA-API, než cokoli jiného.

+1
+3
-1
Je komentář přínosný?

Ja musel dodelat migraci z Haswellu na Cometlake, pro komp na navrh tistaku (a prekousnout zmenu W7 na W10). Na iGPU ve 4K60 se to nedalo moc pouzivat ani na jednodussich deskach, na novem kompu to jde.. podle wiki je tam jen Gen7 -> Gen8 grafika.. ale nevim zda je to o tolik vykonnejsi, nebo k tomu pridava neco i lepsi CPU, pripadne temer 2x rychlejsi pameti (1600 -> 2933), pocitove to byl krok 20 fps na 60 fps. Samozrejme pri pouzivani 1060/6G to jelo ok i predtim. Ale mozna hry nebo nizsi rozliseni tomu haswellu preje vic :)

Neni nekde nejaky hezky sumar vykonu iGPU grafik?
(ale chapu ze muj CAD use case neni uplne herni zatez)

+1
+2
-1
Je komentář přínosný?

Čoveče nevím, já po tom nepátral. Zatím jedu na tom 10+ starém Radeonu a dokud bude fungovat (a bude fungovat i monitor, čili nebudu omezen tím, že přecházím na 4k) tak to neřeším.

Každopádně sem odložím dodatek: jak jsem psal, že by bylo super porovnat 10400 + 11400 + 12400 vs 5600X, tak už to udělal L.Slamák na cnews: https://www.cnews.cz/pokracovatel-nejpopularnejsi-rady-procesoru-intel-v...

+1
+1
-1
Je komentář přínosný?

Hit to jistě bude pro nákupčí, ne už pro ty, co s tím pak mají dělat...

+1
+1
-1
Je komentář přínosný?

25 nových modelů, ale jenom 4 (+2 Celeron, ale to budou odpady) nové křemíky...

+1
0
-1
Je komentář přínosný?

Pro psaní komentářů se, prosím, přihlaste nebo registrujte.