Hirdetés

2024. április 28., vasárnap

Gyorskeresés

Hozzászólások

(#1) Giot


Giot
addikt

Hm akkor ez így első neki futásra nem jött össze. Végül is érthető idegen terepen poroszkáltak, hiába a nagy tapasztalat CPU tervezés, gyártás terén ez más világ. Azért az ATi-nak nV-nek sem egy két évnyi tapasztalat van hátuk mögött. Remélem nem fogják ennyiben hagyni Intel-ék, és folytatják a fejlesztéseket.

[ Szerkesztve ]

(#2) FRENK1988 válasza Giot (#1) üzenetére


FRENK1988
veterán

Jóhogy nem hagyja az Intel ezt a pályát. Mivel ő még nincs ott ;] Na de komolyra fordítva a szót ahogy benne volt a cikkben is nem állandóan a gémereknek kellet volna reklámozni

Nem a lóerő öl, hanem a NYOMATÉK! :)

(#3) proci985


proci985
MODERÁTOR
LOGOUT blog (1)

ez így már érthetőbb.

"GPU mérete nagyon közel áll a 700 mm²"
uhh. az nagy. innentől érthető, hogy csak HPCben gondolkodnak (consumer szinten ezt profittal 500-600 usd alatt nem igazán lehetn adni tippre, ott meg nem az 5770OC lenne az ellenfél, hanem az 5970), bár az meg a terméktámogatáson bukhat.

elnézve a felépítését nekem inkább egy egy chipen elhelyezkedő többprocesszoros rendszer jut eszembe (ringbus bár azt GPUnál is használják, a memóriák szinkronizációjának komoly problémája és főleg az overhead), mint GPU (de az is lehet, hogy tévedek).

mind1, kutatóknak és fontosabb fejlesztőpartnereknek kiküldeni jó lesz, meg a drivercsapatnak addig is gyakorolni függöny mögött.

azért remélem, hogy a második verziója már jobban sikerül.

Don't dream it, be it. // Lagom amount.

(#4) gfefe


gfefe
őstag

Szerintem az intel "Gpu" már befuccsolt...
Miért is írom ezt... Még ha elő is szedik a süjesztett terveket 1x és csinálnak vele valamit...
Az ati és az Nvidia addig sem ül a babérjain... ők is fejlesztenek és a lemaradás az lemaradás....

DOWNLOAD ██████████████ 105%

(#5) Jim Tonic


Jim Tonic
nagyúr

Tök f@sza, hogy az van benne leírva, amit 2 évvel ezelőtt beborítékoltam, és akkor teljesen hülyének nézett mindenki. Még Abu is azt mondta, hogy a sw renderelés a jövő, mert a DX11 a vége a régi útvonalnak. Lehet, de biztosan nem az Intel megoldása a nyerő.
Mindig nyilvánvaló volt, hogy egy általános eszközzel sosem lehet felvenni a versenyt a célhardverekkel, akkor sem, ha megkönnyí(he)ti a programozók dolgát. Kicsit olyan, mint a kombinált fogó. Sok mindenre jó, és tuti, hogy csak egy szerszám a sok helyett, de mégiscsak nehéz vele vízvezetéket szerelni.
Egyébként a Sony a Cellel ugyanebbe a bilibe nyúlt bele.

Amúgy jó látni, hogy az Intel végre nem tudott valamit pénzből átvinni. Mondjuk a telefonokban sem lesznek Atomok, bármennyire is akarta.

4: süjesztett? Azt a leborult szivarvégit... Te meg hol voltál iskola helyett? Ha már magyar vagy, nem turista, megtanulhatnád a nyelved... ;]

[ Szerkesztve ]

Alcohol & calculus don't mix. Never drink & derive.

(#6) tzsolesz


tzsolesz
nagyúr

Hát nem értek minden részletet, de azért laikusként is kapisgálom a bukás okát.

Egyébként az Intel, és az NV úgy látom még a jövőben számol a szoftveres megvalósítással, de mi újság az AMD-vel? Ő kiesik a versenyből 2012 környékén? Vagy a Microsofttal karöltve el vacillálnak még a DX16-ig? :DDD

(#5) Jim Tonic: Így van, süllyed lesz az. Egyébként nekem mindig aláhúzza a Firefox a helytelenül írt szavakat. :U

[ Szerkesztve ]

(#7) eXodus válasza tzsolesz (#6) üzenetére


eXodus
őstag

szerinted mi volt 2 hírrel korábban?

(#8) Eugene Roe válasza Jim Tonic (#5) üzenetére


Eugene Roe
őstag

Grammar-Nazi :)) Hoppá Off

[ Szerkesztve ]

It'll hurt... a lot, but you'll be better - you say?!

(#9) Lenry


Lenry
félisten

bár nem vagyok szakértő, de nekem nagyon az jött le, hogy az x86 baromira nem alkalmas GPU-nak, mert sok fontos "GPU-s" dolgot nem, vagy csak nagyon bonyolultan lehet benne megvalósítani, ennek fényében pedig az egész Larrabee-s ötlet úgy hamubasült fasság, ahogy van...

Gvella Glan! | There are two types of people: Those who can extrapolate from incomplete data

(#10) hugo chávez


hugo chávez
aktív tag

Kösz Abu, hogy leírtad az Andrew Richards féle elemzés lényegét, így azért számomra sokkal érthetőbb, mint az angol nyelvű. :R
Azért az 1 GHz körüli órajelű, közel 700 mm²-es chip TDP-je is érdekes lehet.

Amúgy arról lehet tudni valamit, hogy ray-tracing-ben a 32 magos Larrabee, vagy a Fermi lenne az erősebb?

"sajnos ez a beszélgetés olyan alacsony szintre jutott, hogy a továbbiakban már nem méltó hozzám" - by Pikari

(#11) acsa77


acsa77
tag

Az Intel ugye megengedheti magának, hogy pár évente becsődöljön egy hatalmas üzlete. Azt hittem, hogy a P4-ből tanultak kicsit. De nem eléggé. Ha valaki elolvasta az anandtechen az interjút a mostani ATI GPU családról, akkor láthatja, hogy jó pár évvel ezelőtt elég pontosan kitalálták azt, hogy mi lesz ma. Az Nvidia pedig ráadásul igen látványosan csinálta a CUDA-val. Tehát mivel biztos nem volt vak és tudatlan az Intel, durván a széllel szemben pisiltek egy lebutított P3 architektúra ilyen furcsa felélesztésével. Úgy, hogy még csak meg sem kérdezik rendesen a leendő felhasználókat.

Naivan még az Atomot is be akarták nyomni az iPadbe... :W

(#12) Móci


Móci
addikt

Hát, ez nem jött be,. Mindenhova azért nem lehet benyomni az x86-t, kedves intel...

"...In a struggle to be happy and free, swimming in a primitive sea..."

(#13) Mr.Csizmás


Mr.Csizmás
félisten

ez egy jó cikk, holnap átolvasom mégegyszer :) végre tudom, hogy mi is akart lenne az intel GPU-ja :)

"Szólítson csak Cirminek." | B&B XI | 3D nyomtatás Bp és környéke |

(#14) eXodus válasza Lenry (#9) üzenetére


eXodus
őstag

Neked és másoknak:
Larrabee igen is életképes koncepciónak tűnt régen. (és lehet h a jövőben még az is lesz)
Csak egy kis hiba csúszott az elképzelésbe. Az a mocsok AMD ;] ;]
Párszor már előfordult ilyen a történelemben (itanium, p4, fermi), és még biztosan lesz is is ilyen a jövőben.

Gyakorlatilag most is ugyan azt játssza el az AMD mint 64bit "váltásnál". Van egy teljes értékű, kompromisszummentes x86 processzora, kiegészítve opcionálisan egy rendkívül gyors, de speciális egységgel. SW környezet is szépen fejlődik, ami kihasználja.

(#15) Jester01


Jester01
veterán

memória olvasására (scatter) és írására (gather)

Ez nem fordítva vagyon :F

Jester

(#16) dezz válasza Jim Tonic (#5) üzenetére


dezz
nagyúr

"Egyébként a Sony a Cellel ugyanebbe a bilibe nyúlt bele."

Nem igazán a Sony (ők főképpen a pénzt adták), hanem inkább az IBM (a fejlesztés nagy részét ők csinálták). És egyébként nem... Nem tudom, tudsz-e róla, hogy több szuperszámítógép Cell alapú (illetve annak fullos DP FP támogatású PowerXCell 8i nevezetű változatát tartalmazza). A legismertebb köztük a Roadrunner, amit több év után tudtak csak letaszítani az 1. helyről...

Igen, a Cellt nehezebb programozni, mint egy átlag procit, azonban adott fogyasztás és méret mellett többszörös teljesítmény nyújt.

A nehezebb programozás mellesleg inkább csak a laikusok szemében probléma, mivel az SPE-k (vektormagok) belső RAM-ja (ami sokkal kisebb helyet foglal, mint ha cache memória lenne, azaz cache-ből nem 256KB lehetett volna SPE-nként, csak 64, vagy épp 32) és a sokat szídott blockos main RAM elérés éppen a hatalmas sávszél igényt hivatott kiküszöbölni, ami akkor jelentkezik, ha fogjuk magunkat, és egyszerű, a main ramban dolgozó kódokat kezdünk futtatni egy sokmagos procin...

...mint pl. a Larrabee, amikor is egy jó kis dugó alakul ki, a teljesítmény meg a béka feneke alá süllyed, mert a magok csak várnak és várnak. Így aztán itt is neki lehet állni az optimalizálásnak, pl. annak érdekében, hogy minnél ritkábban nyúljanak a main ramhoz a magok, stb. Csakhogy, a Larrabee és más többmagos procik koncepciójából eleve hiányzik az erre való felkészülés.

Pl. a Cell SPE-i azt a bizonyos blockos RAM-elérést DMA-val csinálják, amikor is az adatmozgatás automatikus, miközben a mag számolhat tovább, double-bufferes technikával. Van még pár egyéb trükkje is a Cellnek, most nem fogom mindet felsorolni. Lényeg, hogy rákényszeríti a programozót az optimális kódokásra, viszont azt hw-esen támogatja.

Szóval, a Larrabee amatőr programozóknak való -- a nagy semmire... :P

Igen, a 32nm-es, 32 SPE-t tartalmazó Cell változat fejlesztése is leállt. Csakhogy nem azért, mert rossz lenne az egész koncepció, viszont időközben rájöttek, hogy egy PPE kevés 32 SPE-re, és több PPE sem lenne optimális, így most egy olyat kezdtek el fejleszteni (valószínű a 22nm-t megcélozva), amiben a butácska PPE-t egy fullos POWER mag váltja fel. (És az SPE-k RAM-ja is nagyobb lesz.)

eXodus: Az Itanium önmagában is bukás lett volna, mint ahogy a P4 is zsákutcának bizonyult... Az AMD-t nem hibáztatni kell mindezért, hanem dícsérni, hogy időben elő tudtak állni más megoldásokkal, nem akadt meg a fejlődés...

[ Szerkesztve ]

(#17) Jim Tonic válasza dezz (#16) üzenetére


Jim Tonic
nagyúr

Én jól írtam. Nem a Cell-lel volt baj. A Sony nyúlt bele ebbe, amikor ezt választotta a PS3-hoz. Volt Kraft, csak az XBOX360 egy egyszerű power procival és egy Ati Xenos (R500) GPU-val gyakorlatilag ugyanazt hozza ebben a szegmensben, csak egyszerűbben, olcsóbban. Jó, tudom, hogy abban is van még egy Nvidia GPU mégiscsak arról van szó, hogy a hihetetlen számítási képességgel akartak lenyomni mindent, a gyakorlatban ez teljesen kiaknázatlan maradt. A PS4 már nem is tartalmaz majd Cellt, ha jól tudom.

[ Szerkesztve ]

Alcohol & calculus don't mix. Never drink & derive.

(#18) dezz válasza Jim Tonic (#17) üzenetére


dezz
nagyúr

Annó a PS2-t is szídták a vektormagjai miatt (állítólag nehezebb is volt programozni, mint a Cellt), aztán belejöttek... A PS3-mal is hasonló a helyzet.

Az Xbox360-ban sem egy egyszerű Power(PC) proci van, hanem egy némileg butított (in-order végrehajtás), ugyanakkor kétszálas végrehajtásra optimalizált magokból 3, amik akkor teljesítenek megfelelően, ha 6 párhuzamos szálat hajthatnak végre, és még abból is tömény SIMD kódot. (Egyébként ezek a magok nagyon hasonlítanak a Cell PPE-jére (főprocimag).)

Ehhez képest az átlag game-kód, főleg ami a multiplatformokat illeti, mint PC-n is tapasztalhatjuk, többnyire egy, jobb esetben kétszálasak... Így ezek általában még az Xbox360 képességeit sem használják ki teljesen. Bár ez lassan változóban van.

Így a multiplatformok szereplése, illetve kinézete a GPU-kon dől el, amiből az Xbox360-ban összességében egy kicsivel jobb van. Ugyanakkor, egyes dolgokban az RSX a jobb (pl. fillrate-ek), és Celles segítséggel a másik fölé kerededhet, mint ahogy egyes exklúzív játékokban láthatjuk.

Ja, voltak hírek, hogy a PS4-ben már nem Cell lesz (hanem pl. Larrabee :N ), de szerintem ezek csak találgatások. Egy ütősebb Cell a legesélyesebb (elég akár egy újabb, 32nm-est 2x órajelen járatni, ezt már akár a 45nm-essel is megtehetnék), így a fejlesztőrendszerek továbbra is használhatók lennének, csak kapásból nagyobb prociteljesítmény állna rendelkezésre. És a visszafelé kompatibilitás is adott lenne.

[ Szerkesztve ]

(#19) hcl


hcl
félisten
LOGOUT blog

Hm, hát ha most nem jött össze, majd összejön máskor.
A GPU-k közé kifejezetten kívánatos lenne az Intel, hogy felrázza a piacot. Minél több a szereplő, annál jobb a műsor, és olcsóbbak a hardverek.

Mutogatni való hater díszpinty

(#20) dezz válasza hcl (#19) üzenetére


dezz
nagyúr

Nem a szerencsén múlott... Maga a koncepció volt a rossz. Hogy ezt lehetett-e előre látni, vagy nem, arról lehetne vitatkozni. De a lényeg, hogy "legközelebb" mivel állnának elő? Mi van a tarsolyukban, ami versenyképes a GF-ekkel és Radeonokkal? Szerintem semmi. Szerinted?

Amúgy szerintem nem igazán az Intel lenne oda kívánatos, mivel ők inkább a többiek erőből lenyomására játszanának, mint igazán versenyképes termékek piacra dobására. (Végülis a Larrabee-vel is ilyesmi volt a szándékuk, csak még ehhez is gyenge volt.) Lásd pl. az Intel részededése a belépő szinten. Egy negyedik, nem túl nagy anyagi háttérrel, de nagy tudással rendelkező, új vagy eddig marginális piaci szereplő belésése vagy feltörése lenne inkább kívánatos. Mint pl. az Imagination Technologies. [link]

(#21) hcl válasza dezz (#20) üzenetére


hcl
félisten
LOGOUT blog

Hogy most mi van a tarsolyukban, azt tudjuk.
Ha elkezdenek fejleszteni, az lesz az érdekes.

Mutogatni való hater díszpinty

(#22) Giot válasza hcl (#21) üzenetére


Giot
addikt

Hát érdekes lett a larabee is. :D

(#23) Jim Tonic válasza dezz (#20) üzenetére


Jim Tonic
nagyúr

Az Imagination Technologies már elég régi szereplő integrált megoldásokban, de inkább fogyasztásban teljesít jól, mint 3D-ben.

Alcohol & calculus don't mix. Never drink & derive.

(#24) zoltanz


zoltanz
nagyúr

Lehet még Atom telefonokban, de állítólag a gyártók kivárnak. 1-2 év múlva jöhetnek olyan procik amik ürásjárási fogyasztása tényleg versenyképes az ARM megoldásokkal.

Manapság egy előnye van ha nem vagy szegény, színvonalasabb ellenségeid lehetnek

(#25) Lotusomega válasza dezz (#20) üzenetére


Lotusomega
senior tag

Vagy az S3 esetleg a VIA, nekik is elég nagy tapasztalatuk van hasonló téren, votlak is próbálkozásaik ha jól emlékszem.

(#26) Angel1981


Angel1981
veterán

Követtem a projectet, de a 700mm^2-es GPU új info volt.
Nem csoda, hogy törölték - még a kisebb csíkszélesség sem orvosolta volna igazán.

(#27) cwn


cwn
tag

az nvidia fermi 10 darab intel i7 processzor sebesseget hozza ugy altalaban, pl raytracing alatt
erre az intel egyszeruen nem kepes valaszt adni jelenleg

2 fajta architectura versenyez egymassal, a larrabbee ,meg az ibm cell azt a vonalat kepviseli amiben altalanos processzormagok kapnak helyet, mindegyik sajat thread kezelovel
a fermi pedig a egyseges, kozpontositott thread kezelo és a kulon elhelyezkedo vegrehajtoegysegekben latja a jovot

es ez utobbi bar nem annyira hatekony altalanos dolgokra, de jobban skalazhato , mivel a csikszelesseg csokkentesekor, a thread kezelot kisebb mertekben kell novelni , es igy a vegrehajto block / thread block arany egyre jobban novexik

es emiatt a sok kis komplett processzormagos felepitesnek eselye sincs , se most , se a jovoben

az egyetlen ut amivel uberelni lehetne a fermit a szendvics processzor lenne, ami 3 retegbol allna , ugymint 1.vegrehajto reteg, 2.thread reteg,3 beegyazott cache
es koztuk a kommunikacio feny ,vagy indukcios alapon tortenne, mert igy az egyseges felepites miatt a waferek kihozatali aranya messze jobb lenne
nade az intel nem all sajna ilyen szinten meg, majd egyszer talan

(#28) leviske


leviske
veterán

Nah, Abu ! Várnék egy kis előrejelzést/esélylatolgatást, most, hogy így az egyik gyártó felett beborult az ég.

A Larrabee letérdelése mennyire fogja befolyásolni az NVIDIA HPC és mobil front felé irányuló fejlesztéseit? Még jobban ráfekszenek, vagy elkezdenek újra a desktop GPU piacra is koncentrálni? (Jó, tudom, hogy az APU-k miatt sok értelme nem volna, de az Intelnek köszönhetően nyertek nem kevés időt.) Mennyivel jönne ki olcsóbban a játékból az Intel, ha nem a Larrabee-vel próbálna beszállni, hanem benyelné az NVIDIA-t a tapasztalataival együtt? (Csak mert gondolom a Larrabee fejlesztési buktái sem ingyenesek és az NV legalább termel is vissza valamennyi pénzt.)

És az AMD -míg a két ellenfél szenved- mennyi eséllyel tudja a saját szájízére formálni a játékpiacot? Egyáltalán van-e erre esélye, vagy már véglegesen eldőlt, hogy egy Larrabeeféle megoldással kell előállni a jövőben? Vagy nem is annyira a Larrabee, mint inkább az APU-ké a jövő?

De aztán nekem válaszoljál, mert más esetben többet akkor nem szólok hozzád! :DDD (Tudom, ritkán szoktam ilyen kegyetlen és embertelen dolgokkal fenyegetőzni. :DD )

(#29) eXodus válasza cwn (#27) üzenetére


eXodus
őstag

Viszont 5870 dx11 alatt akár 1000x is gyorsabb lehet mint az i7...
Fermi rt alatt egy kocsit bír csak mozdítani alacsony fpssel és ennyi.

dezz
Nem hibáztatom én.
A p4 ahhoz képest h már régen felismerték nem csak az órajel számít, elég sokáig fennmaradt. (Sőt még 2magost is csináltak belőle...)
Itanium is elég sokáig szenvedett. AMD nélkül szerintem simán lenyomták volna az ember torkán... Szerencsére ezt már nem tudjuk meg.

(#30) Duree


Duree
veterán

Lássuk be,hogy az Intel próbálkozásai nem hoznak sikert ebben a szegmensben.
Már vagy 10 éve próbálkoztak egy önálló grafikus chippel ez volt a 740 de nemigazán tudták felvenni a versenyt a konkurenciával.
Ami nem megy nem eröltetjök

duree54

(#31) cwn válasza eXodus (#29) üzenetére


cwn
tag

(#32) Ribi válasza cwn (#31) üzenetére


Ribi
nagyúr

Ezt mindenhova berakod ?
Abu már egyszer le fakeezte. :(

(#33) cwn válasza Ribi (#32) üzenetére


cwn
tag

nem fake, hanem opencl teszt, az utolso csikot en rajzoltam bele, mert meg nincs 2 chipes nvidia vga, de a tobbi real

elismerem hogy a fermi nem teljesit olyan jol jatekok alatt mint az ati megoldasai, de GPGPU alatt hulye az aki megkerdojelezi az nvidia felsobbrenduseget, Abu szavaival elve"ez nem jatek gpu"

(#34) schawo válasza cwn (#33) üzenetére


schawo
titán

Na ne vadíts már, hogy létezik ilyen hogy opencl sebesség. Rengeteg opencl művelet van, amit hol egyik, hogy másik gyártó cpu-i/gpu-i hajtanak végre gyorsabban. Ennek a grafikonnak nincs semmi értelme...

evDirect villanyautós töltőhálózat

(#35) eXodus


eXodus
őstag

;]

(#36) eXodus


eXodus
őstag

gyk: a lényeg a kép jobb oldalán. ;]

[ Szerkesztve ]

(#37) cwn válasza schawo (#34) üzenetére


cwn
tag

valami oka csak van hogy az ibm szerverekben fermi van, es nem ati gpu, pedig olcsobb lenne :)
ibm-nel biztos hulyek dolgoznak...

na meg az anandtech is tesztelte, az nvidia architectura 2-szer gyorsabb raytracingben is..
ez van, bele kell torodni

http://www.anandtech.com/show/2977/nvidia-s-geforce-gtx-480-and-gtx-470-6-months-late-was-it-worth-the-wait-/6

[ Szerkesztve ]

(#38) cwn válasza cwn (#37) üzenetére


cwn
tag

"This benchmark offers a distinct advantage to NVIDIA GPUs, with the GTX cards not only beating their AMD counterparts, but the GTX 285 also beating the Radeon 5870"

altalanos algoritmusnal mint az n kiralyno teszt, lazan 4-szer gyorsabb a gtx480 az atinal
szal ezt hivjak alazasnak azt hiszem, de a gtx285 is uti a 5870 radeont

az egyik jatekra valo a masik meg nem ennyi a trukkje

[ Szerkesztve ]

(#39) Abu85 válasza cwn (#33) üzenetére


Abu85
HÁZIGAZDA

Semmi bajom nincs az állításoddal, sőt egyetértek vele, de az extra csíkok rajzolgatását nem szeretem, mert az alapvetően nem alapoz konkrét eredményre. Ezért tekintem fake-nek, az utolsó "mérést". :)

[ Szerkesztve ]

Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

(#40) cwn válasza Abu85 (#39) üzenetére


cwn
tag

jo ez teny, de nincs jelentosege, az anandnak biztos hiszel, azt nem rajzoltam at :)

(#41) freeapro válasza cwn (#38) üzenetére


freeapro
senior tag

Vess meg a tudatlanságomért, de úgy tudom a 8 királynő probléma mélységi kereséssel oldható meg amit szerintem csak sorosan lehet végrehajtani. Klassz ez a teszt csak nem értem mit mér.

(#42) cwn válasza freeapro (#41) üzenetére


cwn
tag

speciel 17 kirtanynovel teszteltek, legalabb az anandot olvasd el ha mar kotozkodni akarsz :)
megy az parhuzamosan is,gondolom az osszes variaciot egyszerre futtatjak aztan kiszorjak ami nem jo
a parhuzamos programozasnal az egyetemi elavult algoritmusok nem hasznalhatok
ezert is bukott meg a larrabee meg a cell, mert olyan megoldas a nyero ami a hulyeknek is megy:)

(#43) orbano válasza freeapro (#41) üzenetére


orbano
félisten

a sima vegyes számrendszeres megoldás linkerrel is párhuzamosítható, mert fel kell osztani a K processzor között K közel egyenlő intervallumra a lehetséges esetek számát és mindegyik prbóbálkozik, amíg valamelyik el nem éri a megoldást.

A vér nem válik VAZZE!™

(#44) orbano válasza cwn (#42) üzenetére


orbano
félisten

"a parhuzamos programozasnal az egyetemi elavult algoritmusok nem hasznalhatok
ezert is bukott meg a larrabee meg a cell, mert olyan megoldas a nyero ami a hulyeknek is megy"

egyetemi elavult algoritmusok? muhaha :D milyen egyetemre jártál Te egyöcsém? én amondó vagyok, hogy aki nemt ud megtervezni és helyességbizonyítani egy párhuzamos programot, az ne is írjon ilyet, inkább menjen virágkötőnek.

A vér nem válik VAZZE!™

(#45) cwn válasza orbano (#44) üzenetére


cwn
tag

valami olyasmit olvastam hogy Carmack is panaszkodott a paralell programozas nehezsege miatt , pedig neki csak 3-8 magra kellett a rage engine-t megirni
nem olyan konnyu az mint hiszed

"Writing parallel code is VERY hard and much more time consuming" by Carmack

[ Szerkesztve ]

(#46) killerjohn válasza cwn (#45) üzenetére


killerjohn
addikt

egyetértek... ha olyan könnyű lenne, akkor már rég minden párhuzamosítva lenne. Ne vessük már össze a dedós Xkirálynő algoritmust egy valós életbeli algoritmussal, ahol lehet hogy tucatszámra állnak a változók, melyeket csak lockolással lehet párhuzamosan kezelni, az meg a mai processzorokkal borzalmasan lassú...

példának itt van a .NET 4.0, ahol bevezették például a "parallel for utasítást", ami egy ciklus belsejét több magon futtatja. Na kösz: a külső változókat továbbra is zárolva kell kezeleni, továbbá tapasztalatból mondom, hogy teljesen agyament az ütemezője, mert van hogy ugyanazon gépen ugyanazon ciklust (MINDEN ugyanaz...) 4 magnak osztja ki miközben totál le van fogva a gép mással, és olyan is van, hogy nem csinál a gép semmit, és mégis max 2 magra osztja szét (a másik kettő meg malmozik...). És ez a Microsoft, nem a dunaújváros alsó programozó egylet... :)

(#47) orbano válasza killerjohn (#46) üzenetére


orbano
félisten

én nem mondtam, hogy könnyű. én arra a kijelentésre replikáztam, hogy nincsenek a programozók kezében PP eszközök. tisztában vagyok vele hogy egy párhuzamos program komplexitása kb. egy normálishoz képest exponenciálisan nő. nem is csoda hogy a sok önjelölt párhuzamos program író meghal egy 50 soros programtól is, mert fingjuk sincs a pp. módszertanról.

A vér nem válik VAZZE!™

(#48) dezz válasza hcl (#21) üzenetére


dezz
nagyúr

"Hogy most mi van a tarsolyukban, azt tudjuk.
Ha elkezdenek fejleszteni, az lesz az érdekes."

Elkezdenek? :F Már mióta próbálnak ők GPU-t tervezni (meg hozzá normális drivert), de nem nagyon sikerül. Éppen ezért kezdték el ezt a Larrabee-s vonalat, de ez is bukás, jelen formájában. (Más hasonló formában sem GPU lesz belőle, ugye.) Pedig anyagi erőforrásokban nincs ott hiány. A megfelelő tudásnak viszont nincsenek birtokában. Ha 5-10 év alatt nem sikerült ezen változtatni, mitől változna a jövőhéten? Van egy sanda gyanúm, hogy ez nem úgy megy, hogy az egyik manager kiadja, hogy na jó, akkor csináljunk egy Fermi/Evergreen verő GPU-t, és akkor a mérnök urak leülnek, és terveznek egyet.

(#49) cwn válasza orbano (#47) üzenetére


cwn
tag

na akkor megiscsak egyezik a velemenyunk , a programozok 99,9 szazalekea nem carmack szinten van, hanem egyetemrol kikerult kezdok , joesetben
es nekik a cell meg a larrabee tul bonyolult , mig egy fermivel elprogramozgatnak, ha nem is tulsagosan hatekonyan

(#50) Geri Bátyó


Geri Bátyó
őstag

Nekem mindig is az volt az érzésem a Larrabee-vel kapcsolatban, hogy csak egyfajta tesztnek szánja az Intel és hosszabb távon azt akarta (vagy akarta volna)elérni, hogy egy jövőbeli sokmagos x86 proci - akár terheléstől függően - elossza a magok között a GPU és a CPU feladatokat.

"Ki a büdös istennyila vagy te bohócképű!?" SzŐr Geri, birodalmi poéta és főszakács (:L topic)

Copyright © 2000-2024 PROHARDVER Informatikai Kft.