Hirdetés

2024. április 23., kedd

Gyorskeresés

Hozzászólások

(#1) kleinguru


kleinguru
addikt

Vártam a realtime renderelt mozgóképet:)

A kicsire nem adunk... a nagyot meg leszarjuk!

(#2) bitblueduck válasza kleinguru (#1) üzenetére


bitblueduck
senior tag

folytathatod ;]

An open mind is like a fortress with its gates unbarred and unguarded.

(#3) Crytek


Crytek
veterán

Ezzel a technologiával se holnap fogunk játékokat látni :C

Next PC Upgrade: 2022

(#4) FlekkeN válasza Crytek (#3) üzenetére


FlekkeN
aktív tag

Hát az izmosabb kártya szerintem egy gépbe se férne bele olyan hosszú.
Ráadásul mi az a szárny a végén?

(#5) Hina: A végén lévő szárnnyal kell meghajlítani? :)

(#6) buvartacsko: A 2500-as kártya végén van valami kapaszkodó.

[ Szerkesztve ]

(#5) Hina válasza FlekkeN (#4) üzenetére


Hina
aktív tag

Meg kell hajlítani :D

[̲̅̅S̲̅a̲̅m̲̅s̲̅u̲̅n̲̅g̲̅] [̲̅̅G̲̅a̲̅l̲̅a̲̅x̲̅y̲̅] [̲̅̅S̲̅8̲̅+̲̅]

(#6) buvartacsko válasza FlekkeN (#4) üzenetére


buvartacsko
addikt

Miről beszélsz? :S

(#7) #06658560 válasza FlekkeN (#4) üzenetére


#06658560
törölt tag

Minden, Rackbe szánt hasonszörü kártyára tesznek ilyen rögzítöfület, ami a cserét, szerelést is megkönnyíti.

(#8) Angel1981


Angel1981
veterán

Ezek a kártyák kinézetben a Vodoo-s korszakot idézik! :B

[ Szerkesztve ]

(#9) Hina válasza Angel1981 (#8) üzenetére


Hina
aktív tag

Akartam mondani. Azok a régi szép idők. Nekem van is még olyan kártyám. Mikor még az ISA sínbe pakoltunk. Aztán meg volt az EISA. Na az stabilan fogta a kártyát :)

(#4) FlekkeN:
Yaaa!! Az a spoiler :F :DDD

[ Szerkesztve ]

[̲̅̅S̲̅a̲̅m̲̅s̲̅u̲̅n̲̅g̲̅] [̲̅̅G̲̅a̲̅l̲̅a̲̅x̲̅y̲̅] [̲̅̅S̲̅8̲̅+̲̅]

(#10) Darren82 válasza Angel1981 (#8) üzenetére


Darren82
tag

3dfx Voodoo 6000? :D

(#11) VIC20


VIC20
őstag

Egy Krájzisz-tesztet dobhattak volna... :DDD

(#12) FlekkeN válasza #06658560 (#7) üzenetére


FlekkeN
aktív tag

Köszi. :D

(#13) rii válasza FlekkeN (#4) üzenetére


rii
nagyúr

a nagyobb házakban a ház elején is van több ilyen "sín"
az ilyen extra hosszú kártyák stabilan tartása végett - asszem'

piros-kapszula: https://www.youtube.com/watch?v=oW-VZVYohRg

(#14) Jack@l


Jack@l
veterán

Nagy teljesítményhez energia kell, abból meg elég sok hőmennyiség származik, ezen a kártyán még a kétprocison sincs külső táppcsati, de mégcsak egy közepes hűtőborda se.
Azért a profik se hülyék, hogy egy hulladékra kiadjanak 1500 dollárt...
Renderelési teljesítmény elég szerénynek tűnt már a videón is. Nem sok jövőt jósolok a cégnek.
UI: egyedül a sok ram ami vonzóvá teheti a kártyát

[ Szerkesztve ]

A hozzászólási jogosultságodat 2 hónap időtartamra korlátoztuk (1 hsz / 10 nap) a következő ok miatt: Az ÁSZF III 10/8. pontjának megsértése - trollkodás - miatt. Többször és többen is kértek már, hogy hozzászólás írásakor használd a linkelés funkciót, mert ennek elmaradása sokak számára zavaró.

(#15) Abu85 válasza Jack@l (#14) üzenetére


Abu85
HÁZIGAZDA

Nem. A nagy teljesítményhez tervezés kell. Ezek a termékek speciálisan ray-tracingre tervezett lapkák. Ez olyan, mint amikor a 3dfx előállt a Voodoo-val. Az sem fogyasztott sokat mégis keresztbe lecsapott minden processzort. Egy speciális célhardver mindig sokkal hatékonyabban működik, mint egy általánosabb megoldás.
Van aki ki fog adni. Lényegében ha hozza az ötszörös teljesítményt, amit a konkurens (igaz nem ray-tracingre tervezett) hardverekhez képest mond a cég, akkor ennyit meg fog érni a termék.
A ray-tracingnek sok ram kell, nem viccből van rajta annyi. :)

Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

(#16) Jack@l válasza Abu85 (#15) üzenetére


Jack@l
veterán

DE már megint jó embernek ecseteled ezeket, teljesítményhez kell a gyors proci(hagyjuk a célhardver és egyéb meséket amíg nincsen konrét mérés egy közkézen forgó renderelet test sceneről), Vodoo is mocskos sokat fogyasztott anno, még külön 220-as tápja is volt már a végén...
Nem a raytracingek kell a sok ram, hanem scene-nek amikkel az animátorok dolgoznak. (lehet az akár directx-es is)

[ Szerkesztve ]

A hozzászólási jogosultságodat 2 hónap időtartamra korlátoztuk (1 hsz / 10 nap) a következő ok miatt: Az ÁSZF III 10/8. pontjának megsértése - trollkodás - miatt. Többször és többen is kértek már, hogy hozzászólás írásakor használd a linkelés funkciót, mert ennek elmaradása sokak számára zavaró.

(#17) Abu85 válasza Jack@l (#16) üzenetére


Abu85
HÁZIGAZDA

Igazából látod, hogy a jelenet valós időben leszámolódik, ahogy forgatod a terveket. Ez önmagában nagy dolog, mert ilyet más nem tud.
És ezen a kártyán hova kell bedugni a 220 V-os tápot? [link]

A DirectX-et nem fogják ilyen célra használni.

Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

(#18) Jack@l válasza Abu85 (#17) üzenetére


Jack@l
veterán

[link]
Cikk aljafele mondjuk? :)

Nem modntam hogy dx-el fognak renderelni, de eddig az volt a szokás, hogy abban modelleznek és a textúrázások nagyját is abban csinálják meg a grafikusok. Az utóbbi másfél két évben terjedtek el a realtime renderelők, amik kezdik átvenni ezt a metódust.
Csak hogy lásd hogyan dolgozik manapság egy mezei videokártya ezen a területen és legyen mihez mérni a felvázolt 5x gyorsulát amit ámodtál ennek az izének, itt egy kis referencia: [link]

A hozzászólási jogosultságodat 2 hónap időtartamra korlátoztuk (1 hsz / 10 nap) a következő ok miatt: Az ÁSZF III 10/8. pontjának megsértése - trollkodás - miatt. Többször és többen is kértek már, hogy hozzászólás írásakor használd a linkelés funkciót, mert ennek elmaradása sokak számára zavaró.

(#19) suraki


suraki
tag

Rhino modul yes! Ha tényeg hozza a 4-5-szörös gyorsulást, akkor ez az 1500as ár aprópénz lesz.

(#20) #Morcosmedve


#Morcosmedve
veterán

elég gyenge és szenvedős, ilyen videót ki se mernék rakni...

© asszongya'hogy

(#21) Abu85 válasza Jack@l (#18) üzenetére


Abu85
HÁZIGAZDA

Engem a Voodoo 1-en érdekel a tápcsati. Arról adtam képet, de nem látom a konnektort.

Látom. Ez a videó még jobban felértékeli a Caustic kártyáit. Más minőségi szinten dolgoznak ezek szerint.

Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

(#22) Jack@l válasza Abu85 (#21) üzenetére


Jack@l
veterán

Nár megint butát csinálsz magadból, pontosan melyik része nem tetszik a minőségnek? Nem vérprofi a grafikus, vagy mi az ami egy render engine-nél a minőséget jelenti szerinted?

Ez elég jó egy amatőrtől, vagy hitvány még mindig a renderelő? [link]

A hozzászólási jogosultságodat 2 hónap időtartamra korlátoztuk (1 hsz / 10 nap) a következő ok miatt: Az ÁSZF III 10/8. pontjának megsértése - trollkodás - miatt. Többször és többen is kértek már, hogy hozzászólás írásakor használd a linkelés funkciót, mert ennek elmaradása sokak számára zavaró.

(#23) Abu85 válasza Jack@l (#22) üzenetére


Abu85
HÁZIGAZDA

Ez a másik videó már jobb. Ezzel is kezdhetted volna. Persze offline sajna.

Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

(#24) Toncsi


Toncsi
aktív tag
LOGOUT blog

Én sem érzem a forradalmat, Vray RT alatt is egy sima mezei gamer kártya hozza az 5-10x gyorsulást CPU-hoz képest. Pl.: [link]

(#25) --László--


--László--
csendes tag

sac/kb. ugyanazt hozza mint a vray egy halom nvida cuda procival , semmire nem jó egy tornacipő bemutatásán kivül
,de ha behozok egy többszáz obj.-s ,10 giga ramot zabáló ,többszáz texturát használó scene-t megnézném mit csinál.
Mert az érdekel ,annak a render ideje nem egy tornacipő körbeforgatása.

(#26) Jack@l válasza Abu85 (#23) üzenetére


Jack@l
veterán

Ugyanaz a kettő...
Jó lenne ha minimális rálátásod lenne a területre, és utána mondanál véleményt mondjuk egy path-tracer minőségéről, sebeségéről, használhatóságárról.
A caustic fiúk jó esetben 1-2000-es poligonszámú cipűjükkel ellentétben a két videón többmillió poligont mozgattak sokkal gyosabban. (igen, eltaláltad a final rendert nem realtime szokták lenyomni, mert nem arra való... Egyébként 2-3-5 mp igy is egy képkocka kb) .

A hozzászólási jogosultságodat 2 hónap időtartamra korlátoztuk (1 hsz / 10 nap) a következő ok miatt: Az ÁSZF III 10/8. pontjának megsértése - trollkodás - miatt. Többször és többen is kértek már, hogy hozzászólás írásakor használd a linkelés funkciót, mert ennek elmaradása sokak számára zavaró.

(#27) Abu85 válasza --László-- (#25) üzenetére


Abu85
HÁZIGAZDA

[link] - Ez a videó még az övék.

(#26) Jack@l: Kettőnk közül te vársz 2013-ban komoly ray-traceres játékot. Szerintem még évekig nincs rá esély. Nem tudom, hogy melyikünk jár közelebb a valósághoz, de majd 2013 végén összehasonlítjuk, hogy egy raszteres, vagy egy ray-tracinges játék grafikája szebb. :)

[ Szerkesztve ]

Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

(#28) Jack@l válasza Abu85 (#27) üzenetére


Jack@l
veterán

Most abszolút más volt a téma, semmi köze a realtime játékokhoz... (de év végén megnézhetjük lesz e kiadott játék :) )

[ Szerkesztve ]

A hozzászólási jogosultságodat 2 hónap időtartamra korlátoztuk (1 hsz / 10 nap) a következő ok miatt: Az ÁSZF III 10/8. pontjának megsértése - trollkodás - miatt. Többször és többen is kértek már, hogy hozzászólás írásakor használd a linkelés funkciót, mert ennek elmaradása sokak számára zavaró.

(#29) Abu85 válasza Jack@l (#28) üzenetére


Abu85
HÁZIGAZDA

Kiadott játék már ma is van. A grafika minősége az érdekes. :)

Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

(#30) --László-- válasza Abu85 (#27) üzenetére


--László--
csendes tag

Ez is csak egy szunyog vagy mifene ( tudom nem az ) , nekem a kiegészitő kártyákról az jutna eszembe hogy egy gépet izzasztó scene-t 2 órás renderidővel kisegit és megoldja 10 perc alatt.
Ilyen pár obj-s scenekre ott a cuda mag ,ami prezentációra jó. ( videókari meg úgyis kell a gépbe )

(#31) Crytek válasza Abu85 (#27) üzenetére


Crytek
veterán

Már csak abból kiindulva hogy egy db cipő is ilyen lassan "rajzolódik" ki forgatás után akkor egy komplex játék ezzel a megoldással nem hiszem hogy 4 éven belül lesz-e ilyen.
Maximum ilyen limbo szintű cuccot összedobnak amiben van 2 szine azt csá hogy promozzák milyen jó ez a réjtrészing.

Next PC Upgrade: 2022

(#32) Abu85 válasza Crytek (#31) üzenetére


Abu85
HÁZIGAZDA

Még a 4 év is hízelgő szvsz. Lesz az 8 is. De mindegy, most megy a téma, nagyok az álmok, aztán megint lecseng, mint a Cell idején.

[ Szerkesztve ]

Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

(#33) Bull1 válasza Crytek (#31) üzenetére


Bull1
aktív tag

Az a baj h a játékok grafikája manapság már "elég" jó, van fejlett megvilágítás, shaderek, árnyékok stb. (ott van pl. Far cry 3, FB2 motor vagy bármely más friss UE3-as játék).
Aminek jobban örülnék pl. az a jobb fizika, AI, zene, játék-komplexitás stb.

[ Szerkesztve ]

Schmitt Pál szolgálati készüléke: Sony Experia SP ókostellefon - Bip

(#34) Bull1 válasza Jack@l (#14) üzenetére


Bull1
aktív tag

De minek tegyenek rá ha nem kell nagyobb hűtés ?

Schmitt Pál szolgálati készüléke: Sony Experia SP ókostellefon - Bip

(#35) wednesday válasza Bull1 (#33) üzenetére


wednesday
őstag

Én is jobban örülnék. Bár tény, hogy a mai megvalósítás is messze van még az élethűtől.
De pont azért kéne más területnek is fejlődnie, mert az összképet jelentősen rontja, egy gyenge animáció, fizika stb. Sőt minél látványosabb, szebb maga a grafika, annál jobban zavaróbb, ha a többi rész nem nőtt fel hozzá.

(#36) Jack@l válasza Bull1 (#34) üzenetére


Jack@l
veterán

Határeset, próbáld a lényeget meglátni az irományban :) De segítek, az alapösszefüggés: ami mocskosmód gyorsan számol, az nagyon melegszik. (vannak ugyan kivételek, khmmfx, de ez az alaptétel egy gyártástechnológián-csíkszélességen)

A hozzászólási jogosultságodat 2 hónap időtartamra korlátoztuk (1 hsz / 10 nap) a következő ok miatt: Az ÁSZF III 10/8. pontjának megsértése - trollkodás - miatt. Többször és többen is kértek már, hogy hozzászólás írásakor használd a linkelés funkciót, mert ennek elmaradása sokak számára zavaró.

(#37) Abu85 válasza Jack@l (#36) üzenetére


Abu85
HÁZIGAZDA

Ezt az állítólagos alaptételt a CPU és a GPU már felrúgta. A CPU számítási teljesítménye egységnyi energiaigény mellett sokkal kevesebb, mint a GPU-é.

Ha ekkora fogyasztás mellett tud így számolni, akkor miért kellene többet fogyasztania?

[ Szerkesztve ]

Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

(#38) Jack@l válasza Abu85 (#37) üzenetére


Jack@l
veterán

Ezt beszéld meg a fizikusokkal. Én feladom..
Írj légyszives privátot, ha bármelyik opencl-es vagy cuda-s renderelőnél 5x gyorsabb teljesítméányt mutat ez a taliga, azonos minőség mellett objektív méréssel/scene-el.

A hozzászólási jogosultságodat 2 hónap időtartamra korlátoztuk (1 hsz / 10 nap) a következő ok miatt: Az ÁSZF III 10/8. pontjának megsértése - trollkodás - miatt. Többször és többen is kértek már, hogy hozzászólás írásakor használd a linkelés funkciót, mert ennek elmaradása sokak számára zavaró.

(#39) Abu85 válasza Jack@l (#38) üzenetére


Abu85
HÁZIGAZDA

Ennek semmi köze a fizikához. Egy CPU-n egy utasítás végrehajtása 1500 pJ energiát is felemészthet, míg egy GPU-n ugyanaz az utasítás 100 pJ energiával is megoldható. Ez tervezési különbség.

Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

(#40) Jack@l válasza Abu85 (#39) üzenetére


Jack@l
veterán

De azt nem értem mért akarod az almát összehasonlítani a csirkáhez, csak hogy kötekedhess. Azt akarod bemagyarázni nekem, hogy kb 5x hatékonyabb ez az izé 1500 dollárért, mint egy mai videokártya, és több mint negyedannyi energiát és hőt fogyaszt, mint egy mai videokártya, ha jól értem. (De ez a szorzó még lehet több is a grandiózus hűtást látva)
Asszem elégé felhúzná erre a szemét egy vilamos /infós mérnök ha most idetévedne. Ha ez így lenne, azt hiszem ez az évezred találmánya, simán megérne 3x ennyit is.
A videón én abszolut nem ezt lkáttam, sőt. Nem is tudom min is vitatkozunk, mert hasraütésből benyögtél egy számot, d evalójában fogalmad sincs milyen gyors. Amit én láttam azt még egy felsőbb kategóriás videokártya is lealázza manapság. Biztos előnytelen demo scene-t választottak...

[ Szerkesztve ]

A hozzászólási jogosultságodat 2 hónap időtartamra korlátoztuk (1 hsz / 10 nap) a következő ok miatt: Az ÁSZF III 10/8. pontjának megsértése - trollkodás - miatt. Többször és többen is kértek már, hogy hozzászólás írásakor használd a linkelés funkciót, mert ennek elmaradása sokak számára zavaró.

(#41) Abu85 válasza Jack@l (#40) üzenetére


Abu85
HÁZIGAZDA

Mint ahogy a hír is írja a teljesítményt processzorhoz mérik. A GPU-t csak idekeverted.

Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

(#42) Jack@l válasza Abu85 (#41) üzenetére


Jack@l
veterán

Akkor elnézést kérek, nem olvastam végig a cikket. Szánalmas a kártya teljesítménye. GPU-val kompleexebb scene esetén kb 10x-es az előny, átlagos bonyolultságnál 20x. (és még csak a lassabb opencl-es renderelőkről beszéltünk) Szóval megéri e?

A hozzászólási jogosultságodat 2 hónap időtartamra korlátoztuk (1 hsz / 10 nap) a következő ok miatt: Az ÁSZF III 10/8. pontjának megsértése - trollkodás - miatt. Többször és többen is kértek már, hogy hozzászólás írásakor használd a linkelés funkciót, mert ennek elmaradása sokak számára zavaró.

(#43) Abu85 válasza Jack@l (#42) üzenetére


Abu85
HÁZIGAZDA

1500 dollárért szoftveres licencekkel? Hogy a fenébe ne érné meg. Ennyiért ilyen gyors VGA-t nem kapsz. Fogyasztásban, illetve az ehhez mért egységnyi teljesítményben pedig ez a legjobb alternatíva.

[ Szerkesztve ]

Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

(#44) Bull1 válasza Jack@l (#36) üzenetére


Bull1
aktív tag

Relatív sajnos... FPGA-val tudsz olyan dolgokat művelni pár W-os fogyasztással amire sima CPU nem képes. Ez kis kütyü is azért jó, mert Ray-tracinghez lett igazítva és hatékony. Mást valószínüleg nem tud futtatni.

[ Szerkesztve ]

Schmitt Pál szolgálati készüléke: Sony Experia SP ókostellefon - Bip

(#45) Bull1 válasza wednesday (#35) üzenetére


Bull1
aktív tag

Tény, de nem minden esetben cél az élethű ábrázolás... legjobb példa a Borderlands 2, egész látványos, pedig nem sok köze van a valósághoz. Itt a fizika PhysX ezzel szembe sztem sokat dob itt a látványon, semmint bármilyen ray-tracing.

[ Szerkesztve ]

Schmitt Pál szolgálati készüléke: Sony Experia SP ókostellefon - Bip

(#46) MASSlag


MASSlag
tag

Nem rossz a kép, egy ray-racingtől.
Viszont nem akkora durranás a live render, vannak rendererek amik path-tracingel képesek ugyanezt elérni.
Ott van a SmallLuxGPU, már két éve ilyet tudott: Link
(kíváncsi lennék ilyen szituációkban mit tudna ez Link persze nem fair causticot erőltetni egy raytracerre)
A kulcs a materialok bonyolultsága. A SLG is azért hasít ennyire, mert kevés és egyszerű matot tartalmaz. Jobban megnézve elég kevés material van ebben a sceneben is, a transparent, amit mutogat elég primitívnek tűnik. A modell sem épp high-poly. Azt nem tudtam kivenni, hogy ambient occlusion, vagy valós HDRi light van a képen. Látszik, hogy a teljesítménnyel szeretnék megvenni a vásárlókat.
Nyilván az SLG nem professzionális felhasználásra való, nem arra tervezték, csupán egy demo. Profi munkára ott az octane render Link. Egy jó képességű CUDAs kártyával megtámogatva hihetetlen dolgokra képes. Mondhatnám még a V-ray RT-t is.

Ezzel az egésszel arra célzok, hogy nem feltétlenül a teljesítmény a lényeg, hasonlót már más is tud. Sokkal inkább a megfelelő support,a jó integrálhatóság, skálázhatóság, kiszámíthatóság, szoftverkörnyezet stb. Ott van pl. a V-ray RT, fényévekkel gyorsabb, mint a sima változat. Professzionális körökben mégis, a legtöbben rendes V-rayt használnak, mert megbízhatóbb, fejlettebb a material rendszere. Amennyi időt a CPU renderrel vesztenek, behozzák a munkafolyamatban. Ez übereli a 4x-es teljesítményt.
Itt üthet nagyot egy dedikált hardver (hiába a mai videokártyákat játékra/viewport megjelenítésre tervezték nem renderelésre), ha megfelelő hátteret teremtenek hozzá.
Én bízok benne, hogy sikerül nekik.

[ Szerkesztve ]

A bizonyíték hiánya nem a hiány bizonyítéka

(#47) ledgeri


ledgeri
nagyúr

Aki ilyennel foglalkozik (a szoftver) az mennyit tanult, hol, és az mennyibe került?

// #ublockO-HardMode // anti-blockadblock-er // PH! új arculat: 1/ 500 // szeksziboj -nálam van egy pirospontod! // Találtam sárga fényű lézert! (kézit, ceruzaelemest) https://youtu.be/XQnmMjYHgcM //

(#48) sirpalee válasza Jack@l (#42) üzenetére


sirpalee
csendes tag

Nem kimondottan ekkora a különbség... Egyszerű jeleneteknél van 10szeres kb, vagy egyszerű renderelőknél. Ha ugyanazt akarod megcsinálni mint a komolyabb raytracerekben akkor úgy hal szerteszét a gpu, hogy szép nézni. Az octane, lux és bármilyen gpus verzió szörnyen buta cucc.

Ennél a kérdés az, hogy milyen programozható felületet biztosít, és abban mik a lehetőségek. Viszont a 16 giga ram nagyon becsületes, és bőven jobb mint a gpu-k cucca. (nem véletlen senki sem használ gpu-t komolyabb renderekre... vagy ahol igen, ott is limitáltan)

raytraceisten és csodamedic

(#49) MASSlag válasza sirpalee (#48) üzenetére


MASSlag
tag

Ezzel nagyon egyet tudok érteni, ahogy írtam is.
Egy időben én is odáig voltam a GPU renderelőkért, de rá kellet jönnöm, hogy csak játékszerek.

Abu:A Xeon Phi-ről mit tudsz? Használható lenne renderelésre? 500-1000 dollárral drágább, de nincs szoftverhez kötve.

Azért rendes Luxot nem nevezném butának (az SLG-t igen), meglehetősen komplex kernele van, nincs is benne tiszta GPU render, csak hibrid (a munka nagy részét ilyenkor is a CPU csinálja). Viszont semmiképp sem professzionális, nincs megfelelő supportja

[ Szerkesztve ]

A bizonyíték hiánya nem a hiány bizonyítéka

(#50) dezz válasza Jack@l (#14) üzenetére


dezz
nagyúr

Én sem értem, hogy egy olyan területre, ahol a teljesítmény a legfontosabb, miért ilyen kis spórolós chipet építettek. Nyugodtan lehetett volna 5x nagyobb fogyasztású, ennek megfelelő teljesítménnyel. Úgy már maga mögé utasította volna a GPU-kat. Jelelnleg az előnye inkább csak az alacsonyabb fogyasztás. Bár pl. egy renderfarmnál ez is számít.

(#18): DX? Inkább OpenGL. A legutóbbi időkig raszterizált volt a preview rendering, csak mostanában jelent meg néhány GPU-s path tracking alapú megoldás.

(#38): Ha egy GPU 5-10x (néhány esetben 50x) hatékonyabb tud lenni bizonyos feladatokban, mint egy CPU, akkor miért olyan meglepő, hogy ez a célorientált cucc pedig a GPU-nál hatékonyabb az adott célfeladatban?

Copyright © 2000-2024 PROHARDVER Informatikai Kft.