Hirdetés

2024. április 24., szerda

Gyorskeresés

Hozzászólások

(#1) Fiery


Fiery
veterán

"A GlobalFoundries szerint a gyártás felfuttatására a következő év elején kerülhet sor, így a 14 nm-es LPP node várhatóan a következő év második felére a tömeggyártás szintjén is üzemkész lesz."

Ez akkor azt jelenti, hogy a GF lenyegeben 1-1,5 ev koruli csuszassal kapta meg a Samsungtol a 14 nanot?

Es az miert nem merul fel mint lehetoseg, hogy az elso legyartott chip egy dGPU? Vagy egy die-shrink konzol APU? Vagy barmi mas, ami nem egy teljesen uj tipusu termek az AMD kinalataban? :)

[ Szerkesztve ]

(#2) Petykemano válasza Fiery (#1) üzenetére


Petykemano
veterán

Én úgy tudom, gf azért is kapta meg a liszenszt, hogy a samsungnak légyen backup az apple megrendelésekhez. (Azt nem tudom, darabonként fizet-e a gf) Aztán a gf nem tudta időben beindítani a gyártást, ezért az apple vitte a gyártás másik felét a tsmc-hez.

Engem az érdekelne, hogy ez a hierofalcon van akkora bomba üzlet (kiemelkedő teljesítmény, hatékonyság, stb), hogy megérje a $150m tervezési költséget? Vagy ez nincs annyi?

Találgatunk, aztán majd úgyis kiderül..

(#3) Mister86


Mister86
csendes tag

Mire az AMD nek sikerül majd 14nm gyártatni a CPU-t addig az Intel bevezeti lazán a 10nm gyártást ,de lehet a 7nm is meg lesz neki. :K
Nem fog ledolgozni túl sok mindent a lemaradásból ,de a teljesítmény nem is az árak lehetnek majd kedvezőek.

(#4) solfilo


solfilo
veterán

Erről a Hierofalcon-ról lehet tudni valamit?

solfilo

(#5) Fiery válasza Mister86 (#3) üzenetére


Fiery
veterán

Nemtom mennyire szantad ezt poennak, de beszeljunk errol komolyan. Az AMD mindenkepp fog valamit gyartani jovore 14 nanon, ez nem kerdes. Ha mast nem, dGPU-t vagy konzol APU-t mindenkepp. Ha esetleg a GF mindent elbenaz, me'g akkor is lesz par millio db procira szabad kapacitasa a Samsungnak, ugyhogy a Zent vagy epp a Hierofalcont le tudja gyartatni mashol is az AMD. Az Intel pedig jovore mindenkepp 14 nanon gyart, egesz evben, es a Kaby Lake (Skylake facelift, 14 nano) utan en masfel evig nem varnam a Cannonlake-et (10 nano). Ugyhogy 2017-ben jo esellyel me'g mindig 10 nanon fog gyartani az Intel is, es masok is. Sot, a jelenlegi trendeket figyelembe veve, siman lehet hogy 2018-ban egyszerre indul be a 10 nano az Intelnel es a Samsungnal is. Azutan 1-2 evvel meg a GF-nel is ;)

(#6) Fiery válasza solfilo (#4) üzenetére


Fiery
veterán

Teljesen letámadja a beágyazott rendszerek piacát az AMD

De ha engem kerdezel, szerintem egy nagy slideware csupan a Hierofalcon. Elobb lesz mukodokepes Zenje az AMD-nek, mint egy 8 magos, 14 nanos mikroszerver ARMv8 SoC-a. De ez csak az en tippem.

Arrol nem is beszelve, hogy mennyire rossz otlet lenne egy ilyen regi dizajnt kihozni 2016-ban. A57? Ne vicceljunk mar... 2014-ben me'g jo lett volna, 2016-ban mar A72 dukalna, plane ha az AMD komolyan gondolja ezt az egesz ARM bizniszt.

[ Szerkesztve ]

(#8) Fiery válasza #32839680 (#7) üzenetére


Fiery
veterán

Me'g nagyobb baj, hogy mar jo par honapja van 45 Wattos, 8 magos Broadwell-DE is, ami kb. kenterbe veri a felvazolt Hierofalcont --> A nagy sűrűségű szervereket célozza a Xeon D Ezekbol a Xeon D-kbol pedig nem tud az Intel eleget gyartani, viszik mint a cukrot. Nem is csoda, hiszen a teljesitmeny/fogyasztas mutatoja, a teljes platformot figyelembe veve, egeszen kimagaslo.

(#10) solfilo válasza Fiery (#6) üzenetére


solfilo
veterán

és (#7) morgyi

Köszi a felhomályosítást! A lelkesedésem el is múlt. :B

[ Szerkesztve ]

solfilo

(#11) Abu85 válasza Fiery (#1) üzenetére


Abu85
HÁZIGAZDA

Nem. Ők az LPP-re gyúrták. Az LPE nem érdekelte őket. LPP-ből úgy néz ki, hogy megelőzik a Samsungot. Bár nyilván ha lenne megrendelő a Samsung is tudna LPP node-on gyártani.

A dGPU a TSMC-nél marad, mert nekik van tapasztalatuk a HBM-hez.
A konzol die shrink nem valószínű, mert az AMD-nek minden shrink esetén joga van újratárgyalni a feltételeket. A Sony és az MS vállalta, hogy sosem kérik az AMD-t a veszteséges szállításra. Ez azt jelentené, hogy a FinFET lapka lényegében pár százalékos előrelépésért jelentősen drágább lesz, ami nem éri meg.

[ Szerkesztve ]

Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

(#12) Fiery válasza Abu85 (#11) üzenetére


Fiery
veterán

"A dGPU a TSMC-nél marad, mert nekik van tapasztalatuk a HBM-hez"

Ez azt jelenti, hogy a Fijitol kezdve minden AMD dGPU HBM-es lesz? :U Az azert fura lenne. A dGPU piac nem csupan a high-end-bol all, idoszeru lenne lecserelni a tobbi, mondhatni megfizetheto árú dGPU-t is lassacskan. Arrol nem is beszelve, hogy megsutheti a TSMC a tapasztalatot, ha nem tud eleg Furyt gyartani az AMD. Vagy csak nem akar, mert a piac csak ennyit vesz fel?

"Ez azt jelentené, hogy a FinFET lapka lényegében pár százalékos előrelépésért jelentősen drágább lesz, ami nem éri meg."

Nem a teljesitmenyre gondolnek egy ilyen die-shrinknel. Eleg szutyok az a 14 nano, ha nem eri meg a kisebb meret miatt sem azon gyartatni egy ilyen regi APU-t, mint ami az Xbox One es PS4-ben talalhato... En kis naiv ugy gondolnam, egy ostyara sokkal tobb APU felfer 14 nanon, mint 28 nanon :) Vagy a matek ebben az, hogy 1 db ostya legyartasa 3x-4x annyiba kerul a GF 14 nanojan, mint a GF vagy epp a TSMC 28 nanojan?

[ Szerkesztve ]

(#13) shabbarulez válasza Fiery (#1) üzenetére


shabbarulez
őstag

A Samsung mint IDM régebb óta gyárt LPE-s chipet, de ne azzal hasonlítsd a GF dátumait, ott nincs IDM gyártás. A Samsung mint foundry alig 2 hónapja gyárt LPE-t, LPP-t pedig csak jövő év első felében fognak. Rövidesen GF-nél is lesz majd rövidesen LPE, LPP meg úgy jövő év második felére. Azonos gyártási tényezőket nézve az általad említett 1-1.5 év inkább 3-6 hónap.

(#14) Fiery válasza shabbarulez (#13) üzenetére


Fiery
veterán

Koszi az infot. Erdemes ehhez hozzaolvasni a cca. 11 honappal ezelott cikket --> A GlobalFoundries még 2015-ben beveti a 14 nm-es LPP node-ot

Az meg abszolut reszletkerdes, hogy ki milyen celra hasznalja fel az LPE-t vagy epp az LPP-t. A vegeredmeny akkor is az, hogy sok-sok honap (joval tobb, mint 3-6) eltelik akozott, amikor a Samsung eloszor gyart (maganak) 14 nanos SoC-ot, es amikor a GF elkezd termelni 14 nanos SoC-okat akarki szamara. En nem erzem fairnek ill. kelloen megindokoltnak azt, hogy azonos gyartastechnologiarol beszelunk a 2 ceg kapcsan, es kozben meg jelentos csuszassal kezdi el a GF hasznalni a processzt. Hogy ez kinek a sara, az megint mas kerdes, de attol me'g a GF lemaradasa husba vago _szerintem_.

[ Szerkesztve ]

(#15) gergejly


gergejly
aktív tag

Wow, akkor jönnek a 14 nanométeres radeonok is?

(#16) Petykemano válasza Fiery (#12) üzenetére


Petykemano
veterán

matek: 2. oldal

Ahogy körbenéztem az egész média ezekből, vagy ugyanezekből a grafikonokból építkezett.

(Úgy, hogy a paramétereket változatlanul kell hagyni, a konzol apukat legjobb esetben is valami FD SOI-ra lehetne shrinkelni.)

Találgatunk, aztán majd úgyis kiderül..

(#17) shabbarulez válasza Petykemano (#16) üzenetére


shabbarulez
őstag

Azt ne felejtsd el ezek az elmúlt években a SOI konzorcium reklám hadjárata volt, a technológiájának népszerűsítése érdekében és ugye minden szentnek maga felé hajlik a keze. Persze hogy mindig az jött ki hogy a SOI egy isteni jó technológia a FinFET meg olyan rossz hogy nem is érdemes használni. De az iparág meg rohadtul máshogy gondolja, ahogy SOI téren lassan 10-20 éve már ez megy.

Ha konkrét gyártók, konkrét roadmapjeiről és specifikációról van szó, akkor már sokkal nagyobb a csend és alig van bármi konkrétum. Most is a 28nm FD-SOI-t követő nodeokról erősen hallgatnak az érintett cégek, egyelőre jővő év végén a 28nm FD-SOI-ra koncentrálnak és az az üzenet hogy ez egy hosszú távú node lesz, így következőkről még nincs értelme konkrétumukba belemenni. Ez pedig bizonytalanná teszi az e felé érdeklődő ügyfeleket.

Konzol chipnél a 28 nm FD-SOI-nak jővő év vége felé semmi értelme nem lenne. A chip mérete nem redukálható, mert a BEOL ugyanúgy 28nm (a GF féle 22nm FD-SOI-nál is), egyedül a fogyasztás lenne csökkenthető, de az sem drasztikus mértékben, az előállítási ár meg inkább még drágulna is, mint csökkenne.

A 20 nm-es node-on legalább lenne tényleges chip méret csökkenés, a plusz FinFET pedig a fogyasztást redukálná. A bonyolultabb és újabb node kihozatala rosszabb mint a 28 nm bulk, de egy kisebb chip méret viszont javít a kihozatalon vagyis ez kompenzálható. Egy node ugrás wafer többlete úgy 30-40% és egy chip shrinkkel kombinálva ez gazdaságossá tehető. Ráadásul a csökkenő fogyasztás további integráltság növelésre ad módot, amire egyébként is vevők a konzol gyártók a termékeik korosodásával párhuzamosan.

Jelenleg konzol chipnél node shrinkre 20 nm-en van a legnagyobb esély, FinFET-tel megtámogatva, legyen az bármely foundry "14/16" nm-es nodeja. A 20nm BEOL-es FD-SOI még oly távoli jövő, hogy semmi konkrétum nem tudható róla, hogy kb. mikorra lenne piacra várható, míg a FinFET-es megoldások nagyon is a jelen.

[ Szerkesztve ]

(#18) derive válasza Abu85 (#11) üzenetére


derive
senior tag

Az egy dolog, hogy dragabb, de mi lesz a beigert VR forradalommal?
Azert a mostani konzolok 90 fpsel 4kban kb egy Mariokartot birnak, de azt is lebutitva. Meg ha dragabban is de megerne az eddigi alapokra felepiteni egy combosabb konzolt, mondjuk Holobox neven (pl mindenbol 2x-3x annyi mint 28 nanon). Ha annyira nagy durranas lesz a VR, mint amennyire mondod, vagy a konzolok is racuppannak, vagy az egesz PS/Xbox vonal elhal a 2x300W dGPUs PC szornyek mellett...

[ Szerkesztve ]

(#19) Abu85 válasza Fiery (#12) üzenetére


Abu85
HÁZIGAZDA

Nem mindegyiken lesz HBM, de a következő körben már nem csak a csúcskategóriában. Az AMD-nek logikus legalább két lapkát HBM-re tervezni, mert ők már ezzel nem kockáztatnak túl nagyot, hiszen egy csomó tapasztalatot gyűjtöttek vele a Fijivel.

A FinFET leginkább ott segít, ha magas órajel kell alacsonyabb fogyasztással. A konzol esetében ez nem kritikus igény, mivel egyik APU-t sem tervezték magas órajelre. Egy 14 nm-es die shrink max fogyasztásban jó ha hozna -10-15%-ot, miközben az AMD számára újratárgyalási alapot adna az árakra.

Ugye a legtöbben erről beszéltek az elmúlt években, hogy a 28 nm a váltópont. Onnantól kezdve ugyanazt a lapkát csak drágább lesz gyártani. 20 nm-en nem annyira, de 14 nm-en már lényegesen.

Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

(#20) Petykemano válasza shabbarulez (#17) üzenetére


Petykemano
veterán

Nos az igaz, hogy a linkelt anyag a Soitec-től származik, de annyi mégiscsak igaz belőle, hogy ezzel dolgozott az egész média, még Abu is folyton azt hangoztatta, hogy innentől (20nm és lefelé) nem lesz olcsóbb a gyártás. Ez persze lehet, hogy azóta változott.

A SOI konzorcium nem azt szokta hangoztatni, hogy a SOI isteni jó technológia, a finfet meg bűnrossz, csak azt, hogy drága: ha csúcsteljesítményt akarsz, akkor a finfetnek nincs alternatívája, de drága. De hogy most mennyire, meg hogy tényleg-e, nem tudom, mert nincsenek belsős információim. Ha amit a média lehoz, és amit a SOI konzorcium marketingel nem igaz, akkor bekajáltam.

Ha a chip mérete nem redukálható kis mértékben sem, egyedül a fogyasztás csökkenthető, de az sem drasztikus mértékben, és még drágább is, akkor hogy került egyáltalán képbe ez a technológia, amit "közel változatlan ár, jobb, de nem finfet teljesítmény és lényegesen jobb fogyasztás" szöveggel marketingelnek? A soi konzorcium bír akkora piaci súllyal, médiaerővel, hogy át tudná nyomni a piac egy részének torkán az egyébként valójában minden tekintetben gyengébb technológiáját? A Samsung és a GF bekajálta, mint én?

A GF egyébként 20% die size csökkenéssel és (bizonyára vagy) 70%-os fogyasztáscsökkenéssel reklámozza a 22FDX-et.

Lehet, hogy ez nem igaz, hogy ez csak marketingduma, és hogy ebből nem lesz semmi még jövőre se és ez is drága lesz ahhoz, hogy a konzolcsipeket nem fogják áttervezni. Elfogadom a véleményed.

Találgatunk, aztán majd úgyis kiderül..

(#21) bteebi


bteebi
veterán

A cím alapján azzal akartam poénkodni, hogy rég rossz, ha még csak most gyártották le az első lapkát (azt hittem, hogy már a kereskedelmi gyártásuk indult be, de sajnos nem), de végül nem hazudott a cím, szóval nincsenek könnyű helyzetben :Y.

Cancel all my meetings. Someone is wrong on the Internet.

(#22) Abu85 válasza derive (#18) üzenetére


Abu85
HÁZIGAZDA

A PSVR nagyrészt az új SDK-ra támaszkodik. Azért lesz a PS4-en a VR előnyösebb, mint PC-n, mert ugyanazt a gépet szállítják az otthonokba, amin a laborban tesztelik az élményt. PC-n az átfogó tesztelés szimplán nem lehetséges, mert még szabvány sincs VR-re. Van egy csomó dolog, amit az Oculus át akar tolni, de nem tudják, mert az MS és a Khronos beleegyezés nélkül nem módosíthatja az API-kat. A Sony minden ponton uralja a saját rendszerét, így olyan szoftveres módosításokat végeznek, amilyet akarnak. Az Oculus reménye a LiquidVR, amiben az AMD lecseréli a DX12/Vulkan VR-re nem alkalmas részeit, de ez is csak a Radeonokra működik, tehát azok számára ez nem megoldás, akik GeForce-ot, vagy Intel IGP-t használnak. Emiatt a töredezettség miatt sokkal átfogóbb az a rendszer, amit a Sony ad.

[ Szerkesztve ]

Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

(#23) Fiery válasza Abu85 (#22) üzenetére


Fiery
veterán

"Azért lesz a PS4-en a VR előnyösebb, mint PC-n"

Innentol nehezen tudom komolyan venni, amit irsz. Hogy a lof***ba lenne elegendo egy PS4 vagy Xbox One szamitasi teljesitmenye egy dupla (a 2 szemhez) 4K video kiszamitasahoz?? Az addig oke, hogy a teljes platformot kezben tartva jobban lehet fejleszteni egy VR megoldast, de a nyers szamitasi teljesitmenyt nem tudod helyettesiteni. Vagy a konzolokon 720p-ben megy majd a VR, mig PC-n 4K-ban? Az eleg vicces lenne...

[ Szerkesztve ]

(#24) Abu85 válasza Fiery (#23) üzenetére


Abu85
HÁZIGAZDA

Nem a számítási kapacitás a VR legnagyobb gondja ma. Jó ha van, de ettől még sem a mostani és közeljövőben érkező API-k (DX12/Vulkan), sem az operációs rendszerek nem igazán alkalmasak arra, amit a VR valójában megkövetel. Például tökéletes front buffer leképezést egyetlen általános VR SDK sem tud. Pedig ez aztán baromira fontos, mert nem kell átmenni az OS több ms-os késleltetést hozzátevő kijelzőkezelésén. A Sony számára ezek a problémák nem jelentenek gondot. Megváltoztatják az OS-t a VR-nek megfelelően és kész.
A VR PC-n nagyjából annyi, hogy az AMD LiquidVR csomagban benne van az, amit az Oculus bele akar tenni a szabványba, mert ezek sajnos szükségesen a jó élményhez, de ez a csomag gyártóspecifikus! Nem jelent általános megoldást, és az OS-t így is fejleszteni kell majd.

[ Szerkesztve ]

Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

(#25) Fiery válasza Abu85 (#24) üzenetére


Fiery
veterán

Csak epp akarmit is csinalsz a szamodra kedves API-kkal, akkor sem lesz elegendo szamitasi kapacitas a konzolokban az igazan minosegi VR-hez. A mai PC-ken mar most is meg lehetne csinalni a VR-t, ha a szoftveres oldal megfelelo lenne. Vagyis, a PC fixalhato, mig a konzolokba akarhogy is magyarazod, sosem fogsz tudni berakni cca. 10-15 TFLOPS szamitasi teljesitmenyt -- ami kb. jo lehet egy 4K-s VR-hez. Nem mondom, hogy a konzol veszett fejsze nyele, csak azt mondom, hogy a mostani konzolok sosem lesznek jok VR-hez. Majd a kovetkezo generacio mar igen. Mig egy mai high-end PC siman jo lesz VR-re, ha a szoftveres oldalt megoldjak a gyartok. Egyebkent semmi sem gatolja meg a VR vas gyartokat, hogy sajat, custom megoldast szallitsanak. Anno a PhysX, sot ugy altalaban a PC-s 3D rendering sem szabvanyos megoldaskent indult -- megint mas kerdes, hogy mi lett beloluk.

(#26) Abu85 válasza Fiery (#25) üzenetére


Abu85
HÁZIGAZDA

A konzolok sosem arra épültek, hogy legyen bennük számítási kapacitás, hanem arra, hogy ki legyenek használva. A konzolon olyan mélyre is le tudsz menni az optimalizálással, ameddig PC-n nem lehetséges, és olyan döntéseket is meghozhatsz, amelyeket PC-n a többi gyártó miatt nem. Például a PC-n egy ideje mondja az AMD, hogy a mutex zárolás az milyen jó dolog a grafikában, és erre építenek effekteket is. És az rendben van, hogy tényleg legalább tízszer gyorsabb ez az algoritmus, mint PPLL-nél, de csak GCN-en fut hibátlanul, mert más architektúra nem virtualizálja az LDS-t.
Több tucat ilyen döntést meg lehet hozni konzolon, mert csak egy specifikáció van.

Nyilván csinálhat az NV és az Intel is egy specifikus grafikus API-t, de ez nem két perc. Az AMD 2009-ben kezdett el dolgozni a sajátján.

[ Szerkesztve ]

Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

(#27) Fiery válasza Abu85 (#26) üzenetére


Fiery
veterán

Oke, de ha egyszeruen nincs meg a nyers ero, akkor hiaba optimalizalgatsz. Vagy komolyan gondolod, hogy egy mai konzol kepes lenne 2x 4K videot renderelni 60+ fps-sel? Es nyilvan nem egy Doom 2 szintu grafikarol beszelunk, hanem a mai kor kovetelmenyeinek megfelelorol. Ha nem tevedek, 1080p korul tetoznek a PS4-en a jatekok. Azt akarod sugallni, hogy jelenleg csupan 1/8 kihasznaltsaggal mukodik a PS4? Mert ugye az kellene ahhoz, hogy egy 8x nagyobb szamitasi kapacitast igenylo feladatot (2x 4K VR-hez) meg tudjon oldani. Ha viszont ezzel szemben a rideg valosag az, hogy mar most is nagyjabol ki van hasznalva a PS4-ben rejlo szamitasi kapacitas, akkor semmi esely arra, hogy VR-re valaha is jo lesz a mostani konzol generaciok barmelyike is.

"Nyilván csinálhat az NV és az Intel is egy specifikus grafikus API-t, de ez nem két perc. Az AMD 2009-ben kezdett el dolgozni a sajátján."

Es a tobbiek mikor kezdtek el? Nem tudjuk. Azt sem tudjuk, hogy elkezdtek-e. Na most innentol kezdve ertelmetlen emliteni az AMD 2009-es datumat, semmi jelentosege nincs. Arrol nem is beszelve, hogy mas ceg adott esetben mas tempoban fog fejleszteni.

(#28) Abu85 válasza Fiery (#27) üzenetére


Abu85
HÁZIGAZDA

Bizonyos programokban még annál is kevesebb a PS4 kihasználása. Eleve vedd számításba, hogy az alacsony elérését a konzolnak csupán a megjelent játékok alig pár százaléka használja. A többiek a magas szintű elérésen vannak. A libGNMX azért nagyságrendekkel rosszabb sebességű, mint a libGNM, nem beszélve arról, hogy most még mindenki az előző generációra írt technológiát portolta az új generációra. Például a PS4-nek inkább az fekszik, ha a futószalagok 80%-a compute és csak 20%-a grafikai. A mai motorokban ez az arány inkább 90% grafikai és 10% compute.

A többiek valószínűleg a VR miatt nem kezdtek el dolgozni egy saját API-n, mert nekik a hardvereik sem alkalmas VR-re.

Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

Copyright © 2000-2024 PROHARDVER Informatikai Kft.