Diit.cz - Novinky a informace o hardware, software a internetu

Diskuse k Qualcomm Snapdragon X: Výkon na úrovni AMD a Intelu

Myslím, že nejzásadnějšími otázkami ovlivňujícími prodejnost budou:
1. Cena
2. Jdou na tom spustit Windows?

+1
+7
-1
Je komentář přínosný?

Win on ARM existujou, spíš co půjde pustit na nich 😁

+1
+11
-1
Je komentář přínosný?

S WoA nemam sice skusenosti, ale vraj by tam mali vsetky x86/x64 aplikacie ficat, len s dost vyrazne zrazenym vykonom (kedze WoA to musi on-the-fly prekladat z x86 instrukcii na ARM). Prve snapdragony na WoA mali v x86 appkach zhruba polovicny vykon oproti ich nativnym ARM naprotivkom. Predpokladam, ze na tomto uz trocha v qualcomme popracovali, takze ten percentualny pokles vykonu nebude az taky markantny, ale teda s tym najvykonnejsim SD X Elite by som ocakaval vykon v x86 appkach niekde na urovni i3.

+1
+2
-1
Je komentář přínosný?

heh - pokud ta aplikace ztratí emulací tolik výkonu, tak buď bude muset běžet déle pro stejnou práci, nebo ten procesor bude 100% vytížený a tedy nebude úsporný a nebo obojí dohromady. Každopádně pro Win aplikace úsporný nebude.

+1
+4
-1
Je komentář přínosný?

To nie je emulacia, to je dynamicky preklad. V podstate to robi to iste, co robia JIT compilery pre C# / .not, Javu, (ponovom) Python a trebars aj JavaScript. Akurat zdrojovym vstupom pre JIT preklad nie je bytekod niektorej virtualnej masiny, ale instrukcie pre x86_64.

Spomalenie moze vzniknut jednak tym, ze instrukcna sada x86 je ortogonalna a podporuje divoke adresovacie mody, takze vysledny ARMovy kod je dlhsi, tiez tym ako velmi dobre dokaze vysledny bytekod JIT prekladac generovat a nakoniec tym, ze kod z x86 musi byt prekladany memory barierami, pretoze ARM ma iny (volnejsi) pamatovy model, ako x86 a s niektorym kodom to moze robit problemy.

+1
0
-1
Je komentář přínosný?

Ano, JIT jako JIT. Ty memory barriers by Qualcomm mohl vyřešit implementací strong memory modelu z x86, stejně jako udělal Apple. Není to nedovolené, už to měly dřívější ARM jádra, jako ta v superpočítači Fugaku a NVidia Denver (původní velká ARM jádra, skončila v tabletech).

+1
0
-1
Je komentář přínosný?

Fujitsu A64FX technicky není čistý ARM už z toho důvodu, že ten procesor staví na předchozím SPARC64 V, u kterého fakticky vylepšili jádra, zvýšili jejich počet, použili novější HBM RAM a změnili instrukční sadu. SPARC i ARM jsou RISC, takže až takový problém to nebyl. A důvodem bylo, že SPARC mimo Japonsko nikdo nepoužívá. Mimochodem Fujitsu A64FX systémy se dají normálně koupit. Jen mají omezení dané HBM2 pamětí na 32 GB na patici, ale zato s rychlostí 1TB/s.

+1
0
-1
Je komentář přínosný?

Stejně tak můžeš říct, že Apple Silicon není čistý ARM (Cortex) a AMD není čisté x86 (Intel). Prostě je to uvnitř jiná implementace, ISA je jen seznam instrukcí.

+1
-1
-1
Je komentář přínosný?

Tak jsem to nemyslel. Ale nevzniklo to evolucí předešlého ARM a ani jako čistý nový návrh, ale evolucí předchozího SPARC. Zatímco procesory x86-64 jak u Intelu tak u AMD mají nějakou přechozí historii. Apple předtím žádný svůj CPU pro stolní počítače nevyvíjel, že? M1 vycházela z mobilního, takže má předchozí historii. Ale já si fakt nepamatuji žádného jiného výrobce, který by tímto způsobem změnil architekturu jako Fujitsu.

+1
0
-1
Je komentář přínosný?

Tak třeba v jiném zmiňovaném komentáři zmiňuju NVidia Denver, který měl umět vedle ARM i x86 ISA. Podobnou technikou jako Transmetta Crusoe/Efficeon, na kterém se podílel mimochodem i Linus Torvalds. Akorát nesehnali dodatečně licenci na x86 :-) Nebo některé první PowerPC měly umět vykonávat efektivně x86.

+1
0
-1
Je komentář přínosný?

To je ale hodně specifický případ a dost jiný než u přechodu ze SPARC na ARM. Protože to se vlastně týká dekodéru instrukcí. A moc to ani fungovat nemohlo, protože CPU se na danou architekturu dost silně optimalizuje. Takto by buď jednu instrukční sadu uměl dobře a druhou blbě a nebo obě blbě jen trochu líp. Jediný CPU který se víc prodával a první varianty uměly dvě instrukční sady, byl Intel Itanium a byla to pomalá katastrofa. Obecně vysokou zpětnou kompatibilitu mají IBM Power a kompatibilita s DEC VAX byla u DEC Alpha. Ale ty procesory byly navrhovány současně s těmi instrukčními sadami, takže tam to nebyl problém.

+1
0
-1
Je komentář přínosný?

Itanim neumělo 2 sady. To byl SoC, ve kterém byly 2 CPU (Itanium a 386). Nicméně Intel měl (vícero?) RISCových CPU vedle x86 a inspiroval se jimi při vývoji RISC vnitřností do novějších pentií (to první byly 2 in-order 486).

+1
0
-1
Je komentář přínosný?

Jak to bylo fyzicky, to si už nepamatuji, takže díky za upřesnění. Měli ještě klasický RISC i960, ten měl víc variant a poslední se dávaly do RAID řadičů. A VLIW i860 ten uměl i operace s obrazem a moc se nepovedl (proto se tak divím, že se Intel nechal ukecat od HP k vývoji Itania - taky VLIW). Asi nejvíc i860 odebralo SGI do top variant grafických akcelerátorů RealityEngine, napočítal jsem 12 ks v Geometry Engine board. Těm předcházel Intel iAPX 432, který měl přímo umět vyšší programovací jazyk.

+1
0
-1
Je komentář přínosný?

Video k prvnímu pokusu Intelu o zabití x86 (iAPX) lze shlédnout na YT.
https://www.youtube.com/watch?v=4o4MXV-d-jQ&t=854s

+1
0
-1
Je komentář přínosný?

Toho bude asi vcelku dost, otázkou s jakým výsledným výkonem.
https://learn.microsoft.com/en-us/windows/arm/apps-on-arm-x86-emulation

+1
+4
-1
Je komentář přínosný?

Nemálo aplikací už má build pro Arm a samozřejmě budou dál přibývat jak se zařízení budou rozšířovat.

+1
+1
-1
Je komentář přínosný?

Těch zařízení je už dost. Všechny Macy s Apple Silicon (polovina Maců) a Parallels.

+1
-1
-1
Je komentář přínosný?

1. nepotřebuješ Parallels, máš i jiné VM
2. ne není jich dost, zřejmě žiješ v tom že každý virtualizuje Win, ale realita je taková že virtualizaci v podstatě nikdo nepoužívá, je to velice okrajová skupina a už vůbec si to nedokážu představit v profi nasazení protože:
- Apple Win nepodporuje
- MS nepodporuje WoA jinde než na zařízeních se kterými byly pořízeny
- MS WoA neprodává, takže si je pro virtualizaci v MacOS nemůžeš koupit.
- Jediná legální možnost jak provozovat WoA na Macu je Windows Insider program, ale ten zase vyloučí to profi porstředí které potřebuje podporovanou stable verzi

A zařízení s WoA je minimum, vesměs jen MS Surface, případně jejich DevKit.

Oproti tomu všichni velcí výrobci počítačů ohlásili vydání svých produktu s SGXE, což zvětší nabídku několikanásobně, navíc začne být nějaká ta konkurence, která bude mít i vliv na cenu.

A upřímně nějaká W11 Arm mašinka, tablet s 13-14" OLED/MiniLed v nějaké základní konfiguraci by pro mě byla asi neodolatelná hračka

+1
+1
-1
Je komentář přínosný?

1) To je stejné, jakože říkáme Excel i Open/LibreOffice a souborům z nich.
2) Vzhledem k tomu, že na Apple Silicon Macách nejede Windows v dualbootu, tak musí být virtualizovaný.
2a) Apple podporuje všechny OS ve virtualizaci. Má nová API pro virtualizační software, včetně 3D akcelerace.
2b) Není pravda, Microsoft oficiálně oznamuje na svém webu, že vedle zařízení s Qualcomem podporuje i Apple Silicon (koneckoncům tam funguje dokonce lépe).
2c) Nemá zatím business model (ARMy v PC světě prakticky neexisutjí), tak je dává zadarmo (např. aby se připravil 3rd-party software).
2d) Proč by insider program vylučoval profi prostředí? Naopak, nové verze Windows pro ARM vycházejí méně často než pro x86.

> A zařízení s WoA je minimum, vesměs jen MS Surface, případně jejich DevKit.

Proto podporuje i Macy s AS, viz 2b výše.

> Oproti tomu všichni velcí výrobci počítačů ohlásili vydání svých produktu s SGXE, což zvětší nabídku několikanásobně, navíc začne být nějaká ta konkurence, která bude mít i vliv na cenu.

Viz dnešní update článek. Opět pomalý procesor s ještě pomalejší emulací.

+1
0
-1
Je komentář přínosný?

Za a/ je urcite relevantni, mozna i rozhodujici faktor. Pokud si to bude hrat na premiovou ligu, tak mi neni jasne, proc by to nekdo mel oproti x86 koupit. Neprinese mu to zadne plus (naopak teoreticke problemy se SW), vyjma mozna delsi vydrze, coz ale je mizive mili-procento use case.

+1
+1
-1
Je komentář přínosný?

@tombomino: dost pravdepodobne to bude premiovo nacenene, ale pokial niekto hlada notebook s 5G konektivitou a/alebo celodennou+ vydrzou, tak take kusky mozu byt nacenene dost zaujimavo oproti Wintel svetu

Myslim, ze toto bude mat hlavnu cielovku premiove chromebooky, nie WoA svet (i ked aj tam to bude dost dobre pouzitelne)

+1
0
-1
Je komentář přínosný?

verim, ze par kousku udaji, ale aby z toho byla masovka, ktera se ujme... vidim to blbe :))

+1
0
-1
Je komentář přínosný?

Pokud tomu nasadí správnou cenu pak si to zákazníka najít může. Druhou otázkou je otevřenost pro provoz alternativních OS a jeho případná podpora (míra hazení klacků pod nohy).

Zatím to na průlom v tomto směru moc nevypadá.
https://www.tomshardware.com/laptops/samsungs-snapdragon-elite-x-powered...

+1
+2
-1
Je komentář přínosný?

přesně tohle je ten use case, který si myslí, že tím prorazí jak qualcomm tak i výrobce notebooku, že to bude stejně drahá alternativa k macbookům, což se šeredně mýlí a nikdo to kupovat nebude

mě přijde, že vůbec nerozumí proč a jak se rohodují co lidi budou kupovat

+1
+4
-1
Je komentář přínosný?

jo, tiez si myslim, ze par (jednotky) WoA modelov sa objavi, ale tot vsjo
u nas to masovka urcite nebude, ale v US&A su chromebooky dost popularne a to uz dokonca aj v corporate svete, takze odbyt to urcite mat bude

+1
+1
-1
Je komentář přínosný?

Podle toho do jakých cenových hladin to míří pochybuji že na tom bude postaven jediný chromebook. Ty jsou doménou spíše SoC střední třídy.
https://www.alza.cz/nejprodavanejsi-nejlepsi-chromebooky/18855515.htm#f&...

+1
0
-1
Je komentář přínosný?

Tak to je situacia u nas... ako som pisal, v US&A na tom ficia v uplne inom meritku a ako firemny notebook urcite nechces nejake low-cost orezavatko s 1366*768... taky Google Pixelbook alebo HP Dragonfly su aj napriek (z pohladu Chromebookov) prestrelenej cene velmi popularne.

+1
+1
-1
Je komentář přínosný?

Proc by to melo mit vetsi vydrz, nez neco s AMD? A 5G se da nejak dobastlit...

Pro Win to IMHO nema moc cenu, proc resit, zda v emulaci vse pobezi, jak ma? A jeste ztracet nezanedbatelnou cast vykonu emulaci. Tim se take zkrati vydrz na baterie oproti nativnimu x86 behu....

Jasne, pro nejake Linuxove distribuce to bude neco jineho, tam asi bude jedno, zda x86 nebo ARM. A tam se muze uplatnit mnohem lepe.

+1
+2
-1
Je komentář přínosný?

No na WoA to asi nebude mat nejaku zazracnu vydrz oproti AMD/Intel, ale ked si porovnas napr. ARM Macbooky s Wintel svetom, tak pri porovnatelnych baterkach to je dost markantny rozdiel. Obdobnu vydrz ako Macbook mozes ocakavat aj pri chromebookoch.

Samozrejme, ze 5G sa da dobastlit, ale prave o tom to je. Vo Wintel svete potrebujes navyse (nie prave lacnu) rozsirujucu kartu s 5G modemom, plus navyse potrebujes vyviest druhe (prve obsadilo wifi) PCIe rozhranie na zakladovke, aby si mal kam tu kartu osadit, takze v konecnom dosledku sa bavime len o najvyssich radach business notebookov. Snapdragon ma 5G modem+wifi nativne, takze nemusis nic bastlit, staci vyviest anteny a SIM slot. A dalsia vec - SD X Plus mieri uz na mainstream.

+1
+2
-1
Je komentář přínosný?

heh - jen pro nativní aplikace, ale ne pro emulovné. Takže bude silně záležet na použití.

+1
+1
-1
Je komentář přínosný?

Když před 12 lety hackli Window RT, tak na to komunita překompilovala všechny opensource programy a hry. Problém budeš mít s komerčními aplikacemi. Ale kolik jich kdo používá? Třeba MS Office už nativní je (rozdíl výkonu několikanásobný).

+1
-1
-1
Je komentář přínosný?

Slyšel jsem, že to není funkcionalitou 1:1 ani na Apple. Jak to je teď?

+1
0
-1
Je komentář přínosný?

Já na problémy nenarazil a brácha v korporátním prostředí taky ne. Ale samozřejmě nelze říct, že emulace je 100%. Problémy byly s emulátorem ve Windows, tomu trvalo roky, než uměl použitelně x86-64bit (klasicky, původně Microsoft ho odmítal udělat).

+1
0
-1
Je komentář přínosný?

Windows RT nerovná se Windows for ARM. A kdo bude stát o dvanáct let staré programy?

+1
0
-1
Je komentář přínosný?

Před 12 lety nebyly 12 let staré ;-) A byl to první pokus Microsoftu o ARMovou verzi Windows. Akorát tehdy byl Intel takový monopol, že zatlačil na MS, aby tam nebyl emulátor x86 (přestože starší ne-x86 verze Windows měly emulátor x86).

+1
-1
-1
Je komentář přínosný?

Zen4 maji obdobnou spotrebu na vykon jako M2 rada. Jsou na stejnem/obdobnem procesu a zhruba stejnou energetickou efektivitu.
Nemuzes srovnavat AS a nenazrane Intely na prastarych vyrobnich procesech... Pak samozrejme vyhraje AS....

+1
+3
-1
Je komentář přínosný?

Ale Intel obvládá OEM.

+1
0
-1
Je komentář přínosný?

Otazkou je, jak jeste dlouho. Nic netrva vecne.

+1
+3
-1
Je komentář přínosný?

Když to napíšu já, tak dostanu mínus :-)

+1
-2
-1
Je komentář přínosný?

Když něco bastlíš, tak máš větší/tlustší počítač, více čipů, sčítá se spotřeba, ...

+1
0
-1
Je komentář přínosný?

Kedze to, co vacsina beznych ludi na beznych notebookoch bezi su takmer vsetko Electronove aplikacie (alebo ine veci postavene nad Chromiom) by som sa SW kompatibility az tak nebal :)

V low a mid range je to technicky predajne bez vaznych problemov podla mna aj masovo. Zalezi len na predsudkoch ludi.

+1
0
-1
Je komentář přínosný?

Jak ti treba bude fungovat firemni VPN, pokud pro ni nebude verze pod ARM?

+1
+1
-1
Je komentář přínosný?

Už je. Potřebovali to Macaři ve virtuálce Windows po přechodu na Apple Silicon.

+1
-1
-1
Je komentář přínosný?

Ja nevim, nejde o VPN jako takovou, ale o desitky ruzncyh VPN klientu, ktere firmy pouzivaji. To stejne plati pro Antiviry, Firewally.
Co treba vzdalena administrace, bude na tom fungovat treba firemni klient?

Ptam se protoze to sam nevim a zatim vzdycky, kdyz jsem to nadhodil, tak neprislo nic zpatky..

+1
+2
-1
Je komentář přínosný?

Říkám, už je. Ono těch korporátních řešení moc není. Problém můžeš mít s těmi domácími.

EDIT: Jako trvalo to roky, ne že ne. Ale Apple Silicon tu je už 4 roky. A umetl tak cestičku ARM pro Windows ;-)

+1
-1
-1
Je komentář přínosný?

Doted mnoho SW na AS poradne nebeha... Ono to bude trvat jeste par dalsich let. Pak prijde Rosetta 3 a cely cirkus prijde nanovo.

+1
0
-1
Je komentář přínosný?

Rosetta 3 (x86 a ARM --> RISC-V) ale bude stavět na Rosetta 2, tj. kompatibilita ještě lepší.

+1
0
-1
Je komentář přínosný?

Jasné to je, ale to nepochopíš, ale zajdi se podívat a pokecat do korporátů kde pokud dostaneš na výběr, tak to bude Surface nebo Macbook

+1
-1
-1
Je komentář přínosný?

Skor by som povedal
1. Cena
2. Spotreba

+1
+1
-1
Je komentář přínosný?

Za rozumnou cenu bych se toho nebál. Používám Ubuntu a téměř všechen můj SW má ARM balík, s použitelností by tedy problém nebyl. Krásně nativní výkon bez emulace x86. Před lety jsem přemýšlel nad Pinebookem, což byl asi jediný ARM notebook, který jsem našel. Ale dostupnost během covidu byla bídná, tak jsem vzal Lenovo s Učkovým Ryzenem.
Jenže ty stroje se Snapdragonem beztak buď nebudou nebo budou mít přestřelenou cenu, tak se ten ARM desktop svět mimo Apple zase moc nikam nepohne.

+1
+4
-1
Je komentář přínosný?

Mohou konkurovat Apple, treba casem Apple prejde na Snapdragon. Pripada mi, ze Apple se ve vyvoji silnych CPU dost placa. Samozrejme fajn, ze udelal silny ARM pro PC, ale dal to uz moc neposunul. M2 a M3 byly jen drobne evoluce. Ultra mu spatne skaluje a ctyrslepenec radeji zatim vzdal....

+1
-1
-1
Je komentář přínosný?

Kolik si mel v ruce a kolík si na tom udelal prace? M2 skoro dorovnalo M1 Pro v multi - vlastni zkusenost, M3 se dle uzivatelu posunulo dost kupredu. Ne nutne v benchmarku, ale v realnem pouziti na ktere si to lide kupuji. Max skaluje taky dobre, v realnem pouziti. Ale mnoho lidi to vracelo jako zbytecny overkill

+1
0
-1
Je komentář přínosný?

M2 přidalo nested virtualization (např. WSL2 nebo Docker ve virtualizovaném Windows), i když zatím ještě není API v macOS. M3 přidal raytracing, takže iGPU se zvětšila, ale na výkonu v dosavadních aplikacích to nemá vliv (ale s již naportovaným DirectX 12 se časem podaří rochodit RT ve Windows hrách). I když moc nerostl single výkon CPU, tak se zlepšovala komunikace mezi jádry, takže rostl výkon v multi. Taky snad opravili bug v iGPU, který snižoval výkon ve výpočtech a některých (emulovaných) hrách.

+1
0
-1
Je komentář přínosný?

Single nerostl?

https://www.cpubenchmark.net/compare/4104vs4922vs5749/Apple-M1-8-Core-32...

Možná u M2 to byla kosmetika, tam bylo hlavně vylepšení Ecores, ale M3 proti M2 přidala dle odkazu výše 23%, Passmark sice uvádí víc jak 26% v Multi pro M3, reálně je ale někde kolem 15-20%, tedy i na hodnotě uváděné samotným Apple. Jinými slovy rostl více single než multi, ten samozřejmě nemůže růst lineárně protože single dělají Pcores s Ecore jsou výrazně pomalejší. Nemám bohužel přesné srovnání pro M3 u M1 vycházelo že cluster 4 Ecore dělá výkon asi 1,2x vyšší než jedno Pcore. Pcore ale potřebovalo 4,6W (18,5W pro Pcore cluster) kdežto Ecore stačí 0,6W (2,5W pro Ecore cluster)

+1
-1
-1
Je komentář přínosný?

Uvidime, M3 zrusilo to rozhranie prepojenia pre Ultru, takze su naznaky, ze u M4 to uz bude inak a skalovanie bude poriesene. Tak isto sa ocakava odstranenie low power jadier a ponechanie len performance jadier pre Ultru a mozno aj Max verzie.

+1
0
-1
Je komentář přínosný?

Problém s tím propojením je důvod, proč dosud nemáme plnohodnotné čiplety v dGPU (tj. čiplety GPU jader). Prostě to v některých hrách blbo, až tak že bylo lepší vzít jednočipovou verzi s papírově polovičním výkonem. Výpočty (paralelní, na sobě ne moc závislé) nejsou problém, proto máme čiplety jader CPU a čiplety v serverových grafikách.

+1
0
-1
Je komentář přínosný?

Co vím, tak problém u GPU chipletů je v tom, že AMD je chtělo spojovat těsně na sebe, aby mezi nimi nemusely být kuličky pájky. Udělat to jde, ale zřejmě ne sériově s dostatečnou výtěžností. Problém současných chipletů je větší odběr a taky plocha rozhraní na chipletech. Výhodou zase větší modularita, z čehož těží CPU...

+1
0
-1
Je komentář přínosný?

".. AMD je chtělo spojovat těsně na sebe, aby mezi nimi nemusely být kuličky pájky. Udělat to jde, ale zřejmě ne sériově s dostatečnou výtěžností .."

3D V-cache je s výpočetním čipletem spojena právě takto.
Takže za tím bude i něco jiného.

+1
0
-1
Je komentář přínosný?

Ale 3D cache se dává vertikálně, podobně jako se vrství SSD nebo HBM. Toto má být horizontální. To je trochu něco jiné.

+1
0
-1
Je komentář přínosný?

O jakém zrušeném rozhraní se bavíme? M3 Ultra zatím nevyšla natož aby byly známé nějaké základní informace (počty CPU/GPU jader, podporovaný RAM, atp,) natož aby byly známé detaily o propojení čipů což je informace která je zákazníkovi ukradená, ten potřebuje počítač co mu funguje a dělá co potřebuje, tak i když to bude slepené herkulesem...

Odebrání Ecores? To snad ne, to by byl největší fail zvláště u Maxu a jelikož Ultra jsou lepené Maxy, tak logicky to postihne i Ultru

Fakt nechceš živit Pcore když ti to může běžet i na Ecore, které mají násobně nižší frekvenci a celé SoC je na 0,04W, to je aktuální hodnota mého binovaného M1 Pro. Běží systém, mám puštěný Edge s cca 20 záložkami (nikde nehrají multimédia), mám puštěný Outlook, Word, Remote Desktop Workspace s jedním oknem RDP. S Aplikacemi se aktivně nepracuje, prostě idle. Ale při pár přepnutích a psaní tohohle commentu avg vyrostlo na 0.07W, ale to už není idle ale aktivní používání Edge :)

+1
-1
-1
Je komentář přínosný?

Ale M3 Max vyšiel a z die shot vidno, ze rozhranie, aké bolo pred tým použité na Ultru tam už jednoducho nie je.
A na ultre určite ecores nepotrebuješ, len zaberajú miesto

+1
0
-1
Je komentář přínosný?

Preco v porovnani chyba M3 (/Pro/Max)?

+1
0
-1
Je komentář přínosný?

M2 Pro má osm výkonných a čtyři úsporná jádra, M3 Pro má šest výkonných a šest úsporných. V určitých úlohách má M2 Pro navrch.

+1
+4
-1
Je komentář přínosný?

Tomu se rika pokrok.....

+1
+4
-1
Je komentář přínosný?

ano je to pokrok

+1
-1
-1
Je komentář přínosný?

Byl to overkill, lidi to vraceli, že je to moc výkonné.

+1
-2
-1
Je komentář přínosný?

Spíše M2 Pro kanibalizovalo prodeje M2 Max, tak bylo třeba je více oddělit viz maxima cpu-core M3gen(4+4,6+6,12+4,??+?) proti maximům M2gen(4+4,8+4,8+4,16+8).

+1
+1
-1
Je komentář přínosný?

[deleted]

+1
0
-1
Je komentář přínosný?

Ste vypichli akurát jednu vec, samozrejme tu horšiu 🙂 M3 ma stále dosť vyšší jednojadrový výkon a M3 Max je tiež slušný posun oproti M2

+1
+1
-1
Je komentář přínosný?

CineBench 2024 Multi-Core

Apple M3 Max (16-CPU) 1607
Qualcomm Snapdragon X Elite 1170
Apple M3 Pro (12-CPU) 1059
Qualcomm Snapdragon X Plus 835
Apple M3 659

CineBench 2024 Single-Core

Intel Core i9-14900KS 6.2Ghz 143
Apple M3 141
Qualcomm Snapdragon X Elite 127
Qualcomm Snapdragon X Plus 108

+1
+1
-1
Je komentář přínosný?

Docela zklamání. Spotřeba 80W je obzvlášť u toho Plus fakt bída.

+1
+1
-1
Je komentář přínosný?

Míří na PCMR. Ti pracují jen na adaptér ;-)

> tombomino
> (...) Neprinese mu to zadne plus (naopak teoreticke problemy se SW), vyjma mozna delsi vydrze, coz ale je mizive mili-procento use case.

+1
-1
-1
Je komentář přínosný?

Zajímá mě pár "drobností".

Podle videocardz má mít integrovaná GPU výkon podobný jako 780M, ačkoliv to uvádí jen přes TFLOPs a ne přes hry. Takže mě zajímá reálný výkon. Podle internetů má mít grafika podporu directx12, ale jak na tom poběží hry? Píše qualcomm ovladače pro hry na své adreno? Tady má intel a AMD náskok.

Dále má mít 8 x 4.0 volné PCIe linky. Znamená to, že budou i modely s dGPU?

"The X Elite uses ARM's 8.7 instruction set and its Adreno GPU offers full DirectX and OpenGL support, according to Qualcomm. Additionally, devices powered by the X Elite will offer 8 PCIe Gen4 lanes apart from those used for the SSD and Wi-Fi, support for MAPI cameras, and potentially multi-day battery life."

https://www.notebookcheck.net/First-Snapdragon-X-Elite-benchmarks-Impres...

https://www.notebookcheck.net/New-Snapdragon-X-Elite-compute-platform-fo...

Pokud se jim to povede, mohli by se rychle usadit v office nasazení. Mám ale pochybnosti o dalším "průmyslovém" a herním využití. Ale jako první generace to může být narůstající hrozba pro Intel/AMD. Hlavně až skončí "exkluzivita" pro Qualcomm nasazení ve Windows a ke slovu přijde mediatek ale také Nvidia.

+1
0
-1
Je komentář přínosný?

Ten multiday battery life ale asi bude iba s vypnutym displejom a ked sa s nim nebude nic robit, ne? To zvlada aj intel aj amd uz teraz, pokial cpu idli, tak hlavny zrut energie je displej.

+1
0
-1
Je komentář přínosný?

Jestli to bude mít výdrž jako MacBook, tak přoč by to nemohlo být multi-day?

+1
-1
-1
Je komentář přínosný?

Multiday ma možno základný M1/2/3. Tie vyššie verzie papkaju viac. Takze jedine ak ta passive verzia s nízkym TDP.

+1
0
-1
Je komentář přínosný?

Ty vyšší verze mají ale taky větší baterku. Ale vím, jak to myslíš. Programy jako webový prohlížeč si vezmou dostupný výkon, až nějaká optional funkce v Edge umožňuje jeho výkon a RAM přiškrtit.

+1
0
-1
Je komentář přínosný?

Tak když ti baterie vydrží 15-16h (16" MBP) tak je to multiday naprosto v pohodě, bere se v potaz pracovní den a reálně nebušíš 8h denně.

14" vydrží méně, ale pořád se dostanou na 1é-12h kanceláře naprosto v pohodě. Do kanclu s sebou s Macem rozhodně nabíječku nenosím.

No a pak jsou useři, třeba jako má manželka, která s tím počítačem dělá v lepším případě 1h denně někdy večer, kde si surfuje a aktuálně hledá třeba dovolenou na léto. Tohle ji vydrží bez vypnutí týden+

+1
-2
-1
Je komentář přínosný?

Sorry, ale ľudia si nekupuju Max verzie na "kancelársku robotu“. A M1 Max na MBP14 mi stiahne baterku aj pri browseni relatívne rýchlo. Určite nie 12 hodín. Ako je to oveľa lepšie ako konkurencia, ale nehrajme sa na niečo, čo to nie je.

+1
+1
-1
Je komentář přínosný?

Ohledně her bych se toho nebál. Tohle si přece "nikdo" na hry kupovat nebude. To bude do notebooků, tabletů, konvertiblů a možná nějakých AIO desktopů. Což neznamená, že si na tom nikdo nebude chtít pustit hru, nicméně asi od toho nebude moct nic moc čekat. :)

+1
+1
-1
Je komentář přínosný?

Lidi na svých iGPU hrávají WoT, minecraft nebo CS rekreačně

+1
+2
-1
Je komentář přínosný?

To neni problem ani dnes.

+1
0
-1
Je komentář přínosný?

Není to problém na x86. Jde mi o to, zda to půjde na tom snapdragonu.

+1
+1
-1
Je komentář přínosný?

Půjde, protože tentokrát se Qualcomm uráčil vedle DirectX napsat drivery i pro OpenGL, OpenCL* a Vulkan.

*) Např. filtry ve Photoshopu.

+1
-1
-1
Je komentář přínosný?

A jak známe z ovladačů pro grafické karty z PCMR, každá druhá hra blbne, pokud výrobce GPU nepoladí hru v ovladačích. Tím se vracím k původní otázce, kterou jsem asi položil špatně nebo nepochopitelně, ale dělá Qualcomm úpravy pro hry v ovladačích? Já jako tuším, že ne ale třeba mi to někdo vyvrátí.

+1
+1
-1
Je komentář přínosný?

Problém není v tom, že ze začátku pár her blbne. Intel např. hodně zlepšil kompatibilitu a výkon (i o desítky %). Problém Qualcommu je, že je zvyklý z Androidu napsat první driver, a pak se k procesoru neznat. Takto dopadl devkit od Microsoftu (obdoba Mac Mini), kde nejen že blbně GPU v aplikacích, on blbne i CPU (!).

+1
-2
-1
Je komentář přínosný?

Ano takže ne a tudíž předpokládám, že ač výkon může být na úrovni 780M, tak si na tom WoT nezahrajeme.

+1
+1
-1
Je komentář přínosný?

Zrovna emulace WoT byla ukázána už na prvním Windows 10 on ARM někdy v tom 2018 (druhá generace ARM Windows PC). Ale je jasné, jak to myslíš.

+1
0
-1
Je komentář přínosný?

Třeba CS:GO si zahraješ, 3,5 roku staré video: https://www.youtube.com/watch?v=bmuFl-SlV20

Já na Airu s M1 hrál třeba Borderlands 2, sice redukované detaily ale dalo se to. LoLko běželo taky v pohodě, Path of Exile taky fajn.

Co mě třeba štve že Blizzard nepustil Diablo Immortal na Mac, Chápu že ne D4 kterou by musel napsat pro Mac, ale Immortal je na iPad, takže jde spustit bez úprav na Macu s Apple čipem, ale Blizzard to nedovolil.

Asi se bojí cheatování, když si člověk grabne binárku na iPadu/iPhone, obejde zabezpečené v MacOS, tak si to normálně pustí a hra funguje parádně na jedničku, bohužel za tenhle pokoutný způsob Blizzard banuje, takže to nic neřeší.

Což mi připomíná že musím kouknout na Warframe, který je teď k dispozici na iPad, technicky nic nebrání aby to běželo na Macu

Aktuálně si v pohodě zalítám na Macbooku v X-Plane 11 nebo 12 (ten nemám koupený, jen demo), a v Steam knihovně mám na 50 her (na MacOS jich je daleko víc, ale jsou staré 32bit, takže na nových MacOS nechodí), něco dalšího na Epicu

Nebo z nějakých AAA her třeba Baldurs Gate 3, Divinity Original Sin 2

Tady je nějaký seznam toho co je pro Apple Silicon k dispozici nativně
https://www.macgamerhq.com/apple-m1/native-mac-m1-games/

+1
-1
-1
Je komentář přínosný?

tak uvidime co na to letosni Apple M4 :D

+1
-2
-1
Je komentář přínosný?

Odhaduju, že to bude jen M3 plus AI.

+1
0
-1
Je komentář přínosný?

Myslíš jako u AMD?

+1
+1
-1
Je komentář přínosný?

Jo a měl by být myslím pořád na 3nm.

+1
0
-1
Je komentář přínosný?

To vis, kdyz to Gates chtel, tak mu AMD vysla vstric, nez letos vyda Zen5.... AMD obcas udela i puvodne neplanovanou pulgeneraci, kdyz se to hodi.

+1
0
-1
Je komentář přínosný?

Mohl by mě někdo odkázat na nějaký článek, který vysvětluje jak je to s ARM architekturami? Mám na mysli pochopení toho jak může Quallcomm / Apple dělat dramaticky výkonnější SoC než je generický ARM, který používají téměř všichni ostatní. Znamená ARM v příměru něco jako je x68-64 ? Toto mi stále není jasné ...

+1
+2
-1
Je komentář přínosný?

Apple má vlastní širší jádro a tento Quallcomm zrovna tak, koupili k tomu startup Nuvie. Pro většinu výrobců je levnější podle aplikace koupit hotové návrhy jader, tato lepší vznikla vlastně původně (myslím to obecně) pro servery, ale ARM mezitím přišel s celou řadou jader Neoverse N a V - už by měl mít u obou třetí generaci. Na neoverse N1 stojí Ampere Altra a Altra Max. Novější procesor Ampere už bude mít taky vlastní jádra.

+1
+1
-1
Je komentář přínosný?

Jak píšou nade mnou, standardní Cortexy jsou do mobilů a serverů (v serverech je při tak velkém množství jader potřeba co nejnižší spotřeba na jádro a mobilové jádro má dobrý poměr výkon/Watt v těchto limitech). Apple a Qualcomm jdou ale do širších jader, určených i pro velký single výkon (bez toho by nemohli konkurovat x86 v osobních počítačích).

+1
+1
-1
Je komentář přínosný?

ARM ma niekolko urovni.

Na tej uplne najabstraktnejsej je to instrukcna sada a zopar dalsich pravidiel, ako architekturu poskladat, aby bola s ostatnymi ARM strojmi kompatibilna. K ARM-u sa da kupit aj takato licencia a potom sa nad tymto + nejakymi existujucimi IP blokmi (napr. obvod pre scitacky, zbernice, atd.) postavit uplne custom jadro.

Dalsi level su tzv. Cortexy. To su ARMom pripravene dizajny hotovych jadier s nejakymi vlastnostami. Existuju 32 a 64bitove verzie urcene na rozne pouzitie (mikrokontrollery, safety-critical, consumer devices) a kazdy ten dizajn ma ine optimalizacne kriterium. Napr. to moze byt minimalna spotreba, alebo plocha cipu, pripadne maximalny vykon. Tu staci zakupit licenciu ku Cortexu a potom platit poplatky za kazdy vyrobeny kus. V zavislosti od toho, aka licencia sa zakupi sa bud k existujucemu dizajnu daju iba prilepit nejake vlastne bloky, alebo sa existujuce jadro aj da modifikovat.

Takze ak clovek cita, ze nejaky ARM procesor napr. obsahuje jadra Cortex-A52, znamena to, ze vyrobca iba zobral jadra predpripravene ARMom a integroval ich do svojho SoC a vo vyraznej miere pre nich platia vykonnostne benchmarky pre ine SoC s Cortex-A52.

Apple (a svojho casu NVidia s projektom Denver a AMD s Opteron-A) sli cestou vyrazne upravenych jadier, ktore sice boli zalozene na dizajne Cortex-u, ale boli masivne upravene. Z architektonickeho pohladu to bolo niekde medzi dvoma pripadmi hore. Nebol to dizajn uplne od podlahy, ale ani standardny Cortex. Preto sa nikde pri Apple M neuvadza, ze je to napr. Cortex A-55.

Z pohladu bezneho uzivatela su dnes uz rozne ARMy znacne binarne kompatibilne, takze kod skompilovany pre jednu 64bitovu variantu ARM by mal byt v pohode spustitelny na inej 64bitovej variante ARMu, za predpokladu ze jedna z nich nema nejake instrukcie navyse (ARM toto umoznuje cez coprocesor interface), ktore program aj realne pouziva.

Historicky to tak nebyvalo, pred nabehom Cortexov bol ekosystem ARMu taky sialeny bordel, ako je dnes RISC-V. Flexibilita bola uzastna, lebo kazdy si do jadra mohol nakonfigurovat presne to, co potreboval a nic naviac. Problem bol ale v tom, ze skoro kazda kombinacia vlastnosti vyzadovala vlastnu verziu binarky.

+1
+2
-1
Je komentář přínosný?

Budoucnost přichází, pokloňte se! Nechtěl bych být v kůži Intelu...

Jinak mě fascinuje, jak Apple za celou kariéru M1 neuvedl žádný zmetek, který by měl méně než 4+4 jader. Docela plýtvání, tohle snobství snad Qualcomm nebude kopírovat, protože to jen zbytečně zvyšuje cenu.

+1
-2
-1
Je komentář přínosný?

Zmetky normalne apple prodava. Horsi cipy mohou koncit podtaktovane v ipadu, byly konfigurace s ruznymi pocty gpu jader. Procka a vyssi se lisi i poctem cpu jader.

+1
+2
-1
Je komentář přínosný?

A také zmetkovost TSMC je velmi malá. Jinak by tam nemohla vznikat monstrózní GPU do serverů.

+1
0
-1
Je komentář přínosný?

Cena die realizovaná ve zmíněných výpočetních řešení (800mm2+) roste podstatně rychleji než chybovost ve srovnání s comsumer GPU (600mm2+), takže případná vyšší míra chybovosti největších die patrně není omezujícím faktorem. Při defect density 0,1/cm2 (k tomu se snad TSMC přibližuje) je to pro 300mm wafer 28 bezchybnych z 59 celkem, versus 47 z 83 (AD102). Při ceně 25 000 US$/wafer je tam z hlediska výrobních nákladů docela velký prostor pro menší výtěžnost.
https://smicro.cz/nvidia-h100-80gb-pcie-5-0-x16-passive-cooling-900-2101...

+1
+1
-1
Je komentář přínosný?

Problém je v tom, že kdyby se Apple M1/2/3 prodával jako normální komerční produkt, tak by měl průměrný procesorový výkon, velmi výkonné GPU a brutální cenu - je vždycky na nejnovějším (nejdražším) procesu a myslím má zdaleka nejvíc tranzistorů ze současných APU. Asi by se našla nějaká třída notebooků, kde by byl úspěšný, ale v desktopu je takové GPU pro kancelářské využití zbytečné a na hry je lepší dGPU. Pro notebooky je to do jisté míry podobné, ale na druhou stranu produkty typu AMD Phoenix nějaký smysl dávají.

+1
+2
-1
Je komentář přínosný?

Naštěstí si Apple odtrhává od huby a na úkor své marže nám dává tento předražený SoC do svých počítačů ;-)

+1
-2
-1
Je komentář přínosný?

Míra odtrhávání od úst Apple je více než bohatě vykompenzována mírou braní u huby zákazníků (příplatky u RAM: 8GB->16GB +6000Kč, u storage: 256GB->512GB +6000Kč .. dalších!).
https://www.apple.com/cz/shop/buy-mac/mac-mini/%C4%8Dip-apple-m2-s-8j%C3...

+1
+4
-1
Je komentář přínosný?

To je stejný, jako když jsou v supermarketu dotované rohlíky. Jinak tam RAMka není drahá, když to porovnáš s Nvidií. Kamarád je v AI startupu a na jejich velký učící model vyšel Apple levněji než GPU od Nvidie.

+1
-3
-1
Je komentář přínosný?

No a akcelerator od AMD by je mozna vysel jeste lacineji.

+1
+1
-1
Je komentář přínosný?

Akorát ho neumí software.

+1
0
-1
Je komentář přínosný?

Jako by na Apple běhal SW pro katu od nV

+1
0
-1
Je komentář přínosný?

Ano, běhá. Metal jse stejně stabilní API jako CUDA a taky je na všech procesorech od dané firmy. Ne jako AMD, kde musím vybírat jejich hardware, abych si mohl výpočetní schopnosti vůbec nainstalovat, natož provozovat.

+1
0
-1
Je komentář přínosný?

To s tou cenou jsi vzal kde?

Apple si vyvíjel čipy už pro mobily a tablety a ty pro počítač jsou architektonicky stejné. Takže vývoj toho čipu není tak drahý jak u někoho, kdo navrhuje jen čip pro počítač.

Výroba je otázkou, známe estimates ale nevidíme smlouvy a konkrétní dohody kolik to skutečně stojí.
Mám za to že když s tím Apple přišel, tak se mluvilo o úspoře až 1/3 nákladů proti procesorům Intelu, což cca může odpovídat marži Intelu, kterou si Apple platit nemusí, ten získá své peníze z prodeje toho zařízení.

Mimochodem nemá smysl řešit co je/není dobré na hry. Jednak celosvětově jedny z nejhranějších her na těch Apple grafikách sviší skvěle a hrají je na tom už dávno stovky milionů hráčlů, například CandyCrush Saga, Minecraft .... LoL:WildRift, LoL, WoW...

A ano Apple má obří počty tranzistorů, mimo jiné proto že dělá to co x86 APU nedělají a to co dělají Apple obvykle dělá lépe a/nebo efektivněji.

Kdyby to Apple prodával, měl by stejné ceny jako konkurence. ale Apple nechce prodávat součástky, to "nikdo" nekupuje, "všichni" chtějí hotový funkční produkt a to je to co Apple prodává, zařízení které si koupíš, rozbalíš krabici a používáš, ale tím to nekončí, chceš nabídnout uživateli další zařízení co vzájemně svou funkčnost rozšíří a vylepší. Ale když prodáš tak tím to končí. Apple proto k těm zařízením nabízí i služby což je další obrovský balík peněz, který nesouvisí přímo s marží za prodaný HW. Nebude to trvat dlouho a Apple bude vydělávat víc na těch službách než prodejem zařízení. Podoně jako MS nebo Sony, nechtějí ti prodat XBOX nebo PSko, oni ti chtějí prodávat služby a aby ti je mohli prodávat, tak ti musí dát ten přístroj

+1
0
-1
Je komentář přínosný?

Ale jenom Apple je tahán po soudech, aby svůj ekosystém otevřel :-/

+1
0
-1
Je komentář přínosný?

Nemyslím, jde se po velkých hráčích a třeba v EU není tlak na iMessage ale třeba na Whatsup apod. ano, protože iMessage tu nemá dostatečně silnou pozici.

A ty tlaky na Apple v určité rovině dávají smysl, pěkně o tom nedávno mluvil ve videu Marques - https://www.youtube.com/watch?v=qcH2wgRLiV8

+1
0
-1
Je komentář přínosný?

Zaujimava je hlavne ta frekvencia. 4,4GHz je u ARMu snad uplne nevidane. Mal som 2,7GHz a to uz bolo hoooodne topive (aj zly proces) ale vseobecne prekrocit 3GHz bol s ARMami problem. Moze to mat prijemne dopady na ST vykon.

Zaujimala by ma aj prepustnost pamatoveho subsystemu. To tiez byvalo dost biedne.

+1
0
-1
Je komentář přínosný?

Ano, Cortexy míří úplně jinam a přetaktování nemělo moc smysl (spotřeba roste rychleji než výkon). Proto tahle jádra a ta v Apple jsou jiná než off-the-shelf Cortexy.

+1
0
-1
Je komentář přínosný?

Ty serverové Neoverse V už moc ne, ty jdou po výkonu na jádro bez ohledu na spotřebu. Neoverse ještě balancují výkon a spotřebu, ale tak aby byly výkonnější než mobilní verze. Hlavní rozdíl tam je v počtu jader, které CPU může mít. U většího počtu je patřičně složitější propojovací logika.

+1
0
-1
Je komentář přínosný?

Pokud to jádro s tím účelem navrhovali není to problém a spotřeba tomu pak odpovídá.

+1
+1
-1
Je komentář přínosný?

Ano, len som mal pocit, ze ARM sa nevie odputat od toho, ze kazdy dizajn, ktory vytvoria musi v prvom a hlavnom rade byt energeticky usporny. Takze vsade v Cortexoch boli relativne kratke pipeline a s kratkymi pipeline sa tazko robia vysoke frekvencie. Mam pocit, ze bezny Cortex cez 3GHz nejde snad ani jeden.

Serverove procesory su zasa trocha ina vec, tam sa tiez nehra na vysoke frekvencie, pretoze ked mam na jednom kuse kremika dajme tomu 16 a viac jadier, jedno jadro nebude mat nejake sialene moznosti generovat teplo ani tocit vysoke frekvencie.

+1
0
-1
Je komentář přínosný?

Ty jednu dobu některými tolik chválené Ampere Altra mají jádra ARM Neoverse N1což je modifikace Cortex-A76 a top verze mají 3,3 GHz. Je tam malinko jiný problém než spotřeba, ale u jádra vyvíjeného od základu jako výkonný CPU, by takt problém být neměl.

Ampere Altra Q80-30 80C 3.00GHz 32MB 210W - 48 370,96 Kč s DPH
Ampere Altra Q80-33 80C 3.30GHz 32MB 250W - 124 990,58 Kč s DPH

Ampere Altra Q64-30 64C 3.00GHz 32MB 180W - 39 744,87 Kč s DPH
Ampere Altra Q64-33 64C 3.30GHz 32MB 220W - 93 508,80 Kč s DPH

+1
0
-1
Je komentář přínosný?

Jak už tu uvedl někdo nade mnou. K čemu je ARM, který má stejnou spotřebu a i kdyby, cca stejný výkon jako x86 architektura? 12-80 vs 55-75W. Akorát bude člověk řešit software a co z toho? Moderní notebook dokáže taky běžet 8-12h bez usínání. V Idle půl spotřeby bere LCD.

+1
+2
-1
Je komentář přínosný?

Nemá stejnou spotřebu. Jinak by to fakt smysl nemělo ;-) x86 má stejnou spotřebu v idle, ARM ji má lepší než x86 ve střední zátěži. Ve velké zátěži maj opět obě arch podobnou spotřebu (když nepočítám protržené limity Intelu nevratně ničící CPU).

+1
+1
-1
Je komentář přínosný?

Osobně si myslím, že kdyby Intel byl ochotný prodat licenci, bylo by víc výrobců x86, tak jak to dřív bylo, jenže se bojí konkurence. Prosadit se, chce hodně peněz a Qualcolm je dost velký a zkušený výrobce, když už pohltil i Broadcom a pak Nuvii. Představte si, co by s těmi zkušenostmi při vývoji ARM CPU s x86 licencí mohli udělat? Takto může konkurovat jen přes ARM procesory.

+1
0
-1
Je komentář přínosný?

Tak on Intel už několikrát chtěl zabít x86. A možná to i tak dopadne, že nabídne licenci na x86 i ostatním, aby tu architekturu dýl udržel. Mimochodem Intel v minulosti dělat i ARM prcesory.

+1
-1
-1
Je komentář přínosný?

Jenže Itanium k tomu fakt nebylo moc vhodné. i960 by asi bylo nejlepší, jenže v té době se RISC procesorů objevilo víc, taky AMD 29000, Motorola 88000, SPARC, Alpha a MIPS a prostě jich bylo nějak moc a jen některé přežily. V podstatě MIPS koupila SGI, Alpha je jasná, tu si vyvinul DEC pro sebe, ale AMD, Motorola a Intel měli smůlu. Tedy Motorola úplně největší, ale ta se zahojila na spolupráci s Apple a IBM na zjednodušeném POWER a tak vznikl Power PC. Jinak Intel žádný dostatečně povedený CPU prostě neměl, aby mohl x86 nahradit.

+1
0
-1
Je komentář přínosný?

Vtipné na tom je to, že Intel původně vyráběl paměti, což byl super byznys 4004 byl na objednávku a nikoho nenapadlo, jak to bude pokračovat. Ale 4040, 8008 i 8080 vznikly stále jako vedlejší produkty při vývoji a výrobě pamětí, proto taky návrhář 8080 a pozdější tvůrce Z80 z Intelu odešel. Takže buďme vůbec rádi, že sada 8086 byla aspoň taková jaká, byla. Jasně kdyby Motorola kývla IBM a dala licenci, svět PC by vypadal jinak. Patrně by pak ani nevznikl Power PC a tedy by byly i jiné Apple, pokud by ta firma vůbec přežila.

+1
0
-1
Je komentář přínosný?

Ty různé architektury sice umřely (vyčistil se trh), ale jejich tvůrci šli do zbylých firem. Např. AMD Athlon byl od lidí, co dělali Alphu. (Podobně Radeon 9500 byl od lidí, co odešli z SGI, založili ArtX a dělali na Nintendu 64. Nebo v oblasti software C# je od člověka, co dělal na prvním Delphi.)

*) https://en.wikipedia.org/wiki/ArtX

+1
0
-1
Je komentář přínosný?

Z SGI jsou i zakladatelé Nvidie...

+1
0
-1
Je komentář přínosný?

I 3Dfx ;-)

+1
+1
-1
Je komentář přínosný?

Ten problém je jednoduchý. Máš miliardy a chceš vstoupit do světa procesorů - vybereš si ARM nebo x86-64? Vždy si vybereš ARM, protože je to lehčí cesta s mnohem větší šanci na úspěch. x86-64 přežívá jen díky politice a setrvačnosti a ani na jednu tuhle věc se jako bohatý podnikatel co chce začít něco nového a dlouhodobého, poměrně drahého a riskantního, nechceš spoléhat. Kromě toho tomu dinosauřímu x86-64 začíná konkurovat i RISC-V jako také lepší volba pro novou a dlouhodobou investici.

+1
-3
-1
Je komentář přínosný?

Z hlediska vývoje procesoru pro počítač, je x86 lepší, protož je zavedený a konkurovat zavedenému je prostě mnohem těžší. A náklady na vývoj se tak moc lišit nebudou.

+1
0
-1
Je komentář přínosný?

Nidky ale nebudeš tak dobrý v x86 jako Intel a AMD. Kdežto v ARM je konkurence jen Cortex pro mobily a Apple, který je nepřímo mimo trh PC.

+1
0
-1
Je komentář přínosný?

Ale je to konkurence hlavně pro ostatní ARM výrobce. Intel ani AMD se zatím bát nemusí.

+1
0
-1
Je komentář přínosný?

Ne, ostatní výrobci nemají finance na vlastní jádra. Omezuje je tak licencovaný Cortex.

+1
0
-1
Je komentář přínosný?

Proto je to momentálně asi jediný výrobce, který by z x86 koláče něco ukousnout mohl, kdyby mohl.

+1
0
-1
Je komentář přínosný?

Ale nemůže :-)

+1
+1
-1
Je komentář přínosný?

Co tomu přesně brání, x86_64 je tu s námi přes 20 let (SSE4 je snad z 2006), takže případná patentová ochrana by na úrovni základního instrukčního setu té doby by snad měla být vypršelá (či se blížit expiraci)? Otázkou je zda by na trhu uspěl CPU bez SIMD setů přidaných v mezidobí.
https://worldwide.espacenet.com/patent/search/family/026918656/publicati...

+1
0
-1
Je komentář přínosný?

".. x86-64 (also known as ; x64, ; x86_64, ; AMD64, and ; Intel 64) is a 64-bit version of the x86 instruction set, first announced in 1999 .."
".. was announced on September 27, 2006 .."
".. SSE4. 2 of the Nehalem-based Core i7 was introduced in 2008 .."

x86-64 už by mohl být mimo patentovou ochranu a jako SIMD použít Neon, Neon-2 nebo ty 2048 bit vektory, o kterých tolik básnil Rickie Rich (aka 6 ALU).

Tak mne napadá .. mají případní ARM kandidáti SSE4.2 nově vyžadované pro naběhnutí Win 11?

Kalšat na nějaké Win 11. Ono bez SSE 4.2 nechce fungovat už ani CS.GO.

+1
0
-1
Je komentář přínosný?

SSE4.2 jjsou Armové instrukce?
To že x86 build SW něco vyžaduje neznamená že stejný požadavek má build na Armu, stejně tak naopak asi nemáš Arm8, Arm9 instrunce na x86 že. Přesto jsou aplikace které běží multiplatformně, třeba na Macu můžeš mít binárku pro Intel, pro Arm, nebo univerzální, která je pro obě platformy.

+1
0
-1
Je komentář přínosný?

Mně to vysvětlovat nemusíš.

Jen považuji za "vtipné", že na nějaké instrukci "stojí a padá" (a více padá než stojí) nová verze OS, kde se toho zas tak moc nezměnilo.
A jak ukazuje Win 11 pro ARM, tak to jde i bez ní.

Vypadá to tak, že MS chtělo oříznout (alespoň trochu) rozsah HW, pro který bude vyvýjet a (na uživatelích) testovat svůj SW a hledali nějakú odůvodnění.
Nejprve přišli s nutností TPM
Pak s PopCnt
A dále přitvrdili na kompletní SSE4.2

Jako, proč ne?
Ale konečně už by taky mohli zapracovat na dokončení přechodu "Ovládací panel" --> "Natavení", než zase někdo přehodí výhybku na něco jiného.

+1
+2
-1
Je komentář přínosný?

No... 24 hodin a je po srande. :-)

+1
+2
-1
Je komentář přínosný?

"Sranda" teprve přijde.
Až toho vyrobí hodně a neudají to.

Akoroát u toho někomu nebude moc do smíchu.

+1
+1
-1
Je komentář přínosný?

Pro psaní komentářů se, prosím, přihlaste nebo registrujte.