Vártam a realtime renderelt mozgóképet
A kicsire nem adunk... a nagyot meg leszarjuk!
Vártam a realtime renderelt mozgóképet
A kicsire nem adunk... a nagyot meg leszarjuk!
folytathatod
An open mind is like a fortress with its gates unbarred and unguarded.
Ezzel a technologiával se holnap fogunk játékokat látni
Next PC Upgrade: 2022
Hát az izmosabb kártya szerintem egy gépbe se férne bele olyan hosszú.
Ráadásul mi az a szárny a végén?
(#5) Hina: A végén lévő szárnnyal kell meghajlítani?
(#6) buvartacsko: A 2500-as kártya végén van valami kapaszkodó.
[ Szerkesztve ]
Meg kell hajlítani
[̲̅̅S̲̅a̲̅m̲̅s̲̅u̲̅n̲̅g̲̅] [̲̅̅G̲̅a̲̅l̲̅a̲̅x̲̅y̲̅] [̲̅̅S̲̅8̲̅+̲̅]
Miről beszélsz? :S
Minden, Rackbe szánt hasonszörü kártyára tesznek ilyen rögzítöfület, ami a cserét, szerelést is megkönnyíti.
Ezek a kártyák kinézetben a Vodoo-s korszakot idézik!
[ Szerkesztve ]
Akartam mondani. Azok a régi szép idők. Nekem van is még olyan kártyám. Mikor még az ISA sínbe pakoltunk. Aztán meg volt az EISA. Na az stabilan fogta a kártyát
(#4) FlekkeN:
Yaaa!! Az a spoiler
[ Szerkesztve ]
[̲̅̅S̲̅a̲̅m̲̅s̲̅u̲̅n̲̅g̲̅] [̲̅̅G̲̅a̲̅l̲̅a̲̅x̲̅y̲̅] [̲̅̅S̲̅8̲̅+̲̅]
3dfx Voodoo 6000?
Köszi.
a nagyobb házakban a ház elején is van több ilyen "sín"
az ilyen extra hosszú kártyák stabilan tartása végett - asszem'
piros-kapszula: https://www.youtube.com/watch?v=oW-VZVYohRg
Nagy teljesítményhez energia kell, abból meg elég sok hőmennyiség származik, ezen a kártyán még a kétprocison sincs külső táppcsati, de mégcsak egy közepes hűtőborda se.
Azért a profik se hülyék, hogy egy hulladékra kiadjanak 1500 dollárt...
Renderelési teljesítmény elég szerénynek tűnt már a videón is. Nem sok jövőt jósolok a cégnek.
UI: egyedül a sok ram ami vonzóvá teheti a kártyát
[ Szerkesztve ]
A hozzászólási jogosultságodat 2 hónap időtartamra korlátoztuk (1 hsz / 10 nap) a következő ok miatt: Az ÁSZF III 10/8. pontjának megsértése - trollkodás - miatt. Többször és többen is kértek már, hogy hozzászólás írásakor használd a linkelés funkciót, mert ennek elmaradása sokak számára zavaró.
Nem. A nagy teljesítményhez tervezés kell. Ezek a termékek speciálisan ray-tracingre tervezett lapkák. Ez olyan, mint amikor a 3dfx előállt a Voodoo-val. Az sem fogyasztott sokat mégis keresztbe lecsapott minden processzort. Egy speciális célhardver mindig sokkal hatékonyabban működik, mint egy általánosabb megoldás.
Van aki ki fog adni. Lényegében ha hozza az ötszörös teljesítményt, amit a konkurens (igaz nem ray-tracingre tervezett) hardverekhez képest mond a cég, akkor ennyit meg fog érni a termék.
A ray-tracingnek sok ram kell, nem viccből van rajta annyi.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
DE már megint jó embernek ecseteled ezeket, teljesítményhez kell a gyors proci(hagyjuk a célhardver és egyéb meséket amíg nincsen konrét mérés egy közkézen forgó renderelet test sceneről), Vodoo is mocskos sokat fogyasztott anno, még külön 220-as tápja is volt már a végén...
Nem a raytracingek kell a sok ram, hanem scene-nek amikkel az animátorok dolgoznak. (lehet az akár directx-es is)
[ Szerkesztve ]
A hozzászólási jogosultságodat 2 hónap időtartamra korlátoztuk (1 hsz / 10 nap) a következő ok miatt: Az ÁSZF III 10/8. pontjának megsértése - trollkodás - miatt. Többször és többen is kértek már, hogy hozzászólás írásakor használd a linkelés funkciót, mert ennek elmaradása sokak számára zavaró.
Igazából látod, hogy a jelenet valós időben leszámolódik, ahogy forgatod a terveket. Ez önmagában nagy dolog, mert ilyet más nem tud.
És ezen a kártyán hova kell bedugni a 220 V-os tápot? [link]
A DirectX-et nem fogják ilyen célra használni.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
[link]
Cikk aljafele mondjuk?
Nem modntam hogy dx-el fognak renderelni, de eddig az volt a szokás, hogy abban modelleznek és a textúrázások nagyját is abban csinálják meg a grafikusok. Az utóbbi másfél két évben terjedtek el a realtime renderelők, amik kezdik átvenni ezt a metódust.
Csak hogy lásd hogyan dolgozik manapság egy mezei videokártya ezen a területen és legyen mihez mérni a felvázolt 5x gyorsulát amit ámodtál ennek az izének, itt egy kis referencia: [link]
A hozzászólási jogosultságodat 2 hónap időtartamra korlátoztuk (1 hsz / 10 nap) a következő ok miatt: Az ÁSZF III 10/8. pontjának megsértése - trollkodás - miatt. Többször és többen is kértek már, hogy hozzászólás írásakor használd a linkelés funkciót, mert ennek elmaradása sokak számára zavaró.
Rhino modul yes! Ha tényeg hozza a 4-5-szörös gyorsulást, akkor ez az 1500as ár aprópénz lesz.
elég gyenge és szenvedős, ilyen videót ki se mernék rakni...
© asszongya'hogy
Engem a Voodoo 1-en érdekel a tápcsati. Arról adtam képet, de nem látom a konnektort.
Látom. Ez a videó még jobban felértékeli a Caustic kártyáit. Más minőségi szinten dolgoznak ezek szerint.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
Nár megint butát csinálsz magadból, pontosan melyik része nem tetszik a minőségnek? Nem vérprofi a grafikus, vagy mi az ami egy render engine-nél a minőséget jelenti szerinted?
Ez elég jó egy amatőrtől, vagy hitvány még mindig a renderelő? [link]
A hozzászólási jogosultságodat 2 hónap időtartamra korlátoztuk (1 hsz / 10 nap) a következő ok miatt: Az ÁSZF III 10/8. pontjának megsértése - trollkodás - miatt. Többször és többen is kértek már, hogy hozzászólás írásakor használd a linkelés funkciót, mert ennek elmaradása sokak számára zavaró.
Ez a másik videó már jobb. Ezzel is kezdhetted volna. Persze offline sajna.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
Én sem érzem a forradalmat, Vray RT alatt is egy sima mezei gamer kártya hozza az 5-10x gyorsulást CPU-hoz képest. Pl.: [link]
sac/kb. ugyanazt hozza mint a vray egy halom nvida cuda procival , semmire nem jó egy tornacipő bemutatásán kivül
,de ha behozok egy többszáz obj.-s ,10 giga ramot zabáló ,többszáz texturát használó scene-t megnézném mit csinál.
Mert az érdekel ,annak a render ideje nem egy tornacipő körbeforgatása.
Ugyanaz a kettő...
Jó lenne ha minimális rálátásod lenne a területre, és utána mondanál véleményt mondjuk egy path-tracer minőségéről, sebeségéről, használhatóságárról.
A caustic fiúk jó esetben 1-2000-es poligonszámú cipűjükkel ellentétben a két videón többmillió poligont mozgattak sokkal gyosabban. (igen, eltaláltad a final rendert nem realtime szokták lenyomni, mert nem arra való... Egyébként 2-3-5 mp igy is egy képkocka kb) .
A hozzászólási jogosultságodat 2 hónap időtartamra korlátoztuk (1 hsz / 10 nap) a következő ok miatt: Az ÁSZF III 10/8. pontjának megsértése - trollkodás - miatt. Többször és többen is kértek már, hogy hozzászólás írásakor használd a linkelés funkciót, mert ennek elmaradása sokak számára zavaró.
[link] - Ez a videó még az övék.
(#26) Jack@l: Kettőnk közül te vársz 2013-ban komoly ray-traceres játékot. Szerintem még évekig nincs rá esély. Nem tudom, hogy melyikünk jár közelebb a valósághoz, de majd 2013 végén összehasonlítjuk, hogy egy raszteres, vagy egy ray-tracinges játék grafikája szebb.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
Most abszolút más volt a téma, semmi köze a realtime játékokhoz... (de év végén megnézhetjük lesz e kiadott játék )
[ Szerkesztve ]
A hozzászólási jogosultságodat 2 hónap időtartamra korlátoztuk (1 hsz / 10 nap) a következő ok miatt: Az ÁSZF III 10/8. pontjának megsértése - trollkodás - miatt. Többször és többen is kértek már, hogy hozzászólás írásakor használd a linkelés funkciót, mert ennek elmaradása sokak számára zavaró.
Kiadott játék már ma is van. A grafika minősége az érdekes.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
Ez is csak egy szunyog vagy mifene ( tudom nem az ) , nekem a kiegészitő kártyákról az jutna eszembe hogy egy gépet izzasztó scene-t 2 órás renderidővel kisegit és megoldja 10 perc alatt.
Ilyen pár obj-s scenekre ott a cuda mag ,ami prezentációra jó. ( videókari meg úgyis kell a gépbe )
Már csak abból kiindulva hogy egy db cipő is ilyen lassan "rajzolódik" ki forgatás után akkor egy komplex játék ezzel a megoldással nem hiszem hogy 4 éven belül lesz-e ilyen.
Maximum ilyen limbo szintű cuccot összedobnak amiben van 2 szine azt csá hogy promozzák milyen jó ez a réjtrészing.
Next PC Upgrade: 2022
Még a 4 év is hízelgő szvsz. Lesz az 8 is. De mindegy, most megy a téma, nagyok az álmok, aztán megint lecseng, mint a Cell idején.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
Az a baj h a játékok grafikája manapság már "elég" jó, van fejlett megvilágítás, shaderek, árnyékok stb. (ott van pl. Far cry 3, FB2 motor vagy bármely más friss UE3-as játék).
Aminek jobban örülnék pl. az a jobb fizika, AI, zene, játék-komplexitás stb.
[ Szerkesztve ]
Schmitt Pál szolgálati készüléke: Sony Experia SP ókostellefon - Bip
De minek tegyenek rá ha nem kell nagyobb hűtés ?
Schmitt Pál szolgálati készüléke: Sony Experia SP ókostellefon - Bip
Én is jobban örülnék. Bár tény, hogy a mai megvalósítás is messze van még az élethűtől.
De pont azért kéne más területnek is fejlődnie, mert az összképet jelentősen rontja, egy gyenge animáció, fizika stb. Sőt minél látványosabb, szebb maga a grafika, annál jobban zavaróbb, ha a többi rész nem nőtt fel hozzá.
Határeset, próbáld a lényeget meglátni az irományban De segítek, az alapösszefüggés: ami mocskosmód gyorsan számol, az nagyon melegszik. (vannak ugyan kivételek, khmmfx, de ez az alaptétel egy gyártástechnológián-csíkszélességen)
A hozzászólási jogosultságodat 2 hónap időtartamra korlátoztuk (1 hsz / 10 nap) a következő ok miatt: Az ÁSZF III 10/8. pontjának megsértése - trollkodás - miatt. Többször és többen is kértek már, hogy hozzászólás írásakor használd a linkelés funkciót, mert ennek elmaradása sokak számára zavaró.
Ezt az állítólagos alaptételt a CPU és a GPU már felrúgta. A CPU számítási teljesítménye egységnyi energiaigény mellett sokkal kevesebb, mint a GPU-é.
Ha ekkora fogyasztás mellett tud így számolni, akkor miért kellene többet fogyasztania?
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
Ezt beszéld meg a fizikusokkal. Én feladom..
Írj légyszives privátot, ha bármelyik opencl-es vagy cuda-s renderelőnél 5x gyorsabb teljesítméányt mutat ez a taliga, azonos minőség mellett objektív méréssel/scene-el.
A hozzászólási jogosultságodat 2 hónap időtartamra korlátoztuk (1 hsz / 10 nap) a következő ok miatt: Az ÁSZF III 10/8. pontjának megsértése - trollkodás - miatt. Többször és többen is kértek már, hogy hozzászólás írásakor használd a linkelés funkciót, mert ennek elmaradása sokak számára zavaró.
Ennek semmi köze a fizikához. Egy CPU-n egy utasítás végrehajtása 1500 pJ energiát is felemészthet, míg egy GPU-n ugyanaz az utasítás 100 pJ energiával is megoldható. Ez tervezési különbség.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
De azt nem értem mért akarod az almát összehasonlítani a csirkáhez, csak hogy kötekedhess. Azt akarod bemagyarázni nekem, hogy kb 5x hatékonyabb ez az izé 1500 dollárért, mint egy mai videokártya, és több mint negyedannyi energiát és hőt fogyaszt, mint egy mai videokártya, ha jól értem. (De ez a szorzó még lehet több is a grandiózus hűtást látva)
Asszem elégé felhúzná erre a szemét egy vilamos /infós mérnök ha most idetévedne. Ha ez így lenne, azt hiszem ez az évezred találmánya, simán megérne 3x ennyit is.
A videón én abszolut nem ezt lkáttam, sőt. Nem is tudom min is vitatkozunk, mert hasraütésből benyögtél egy számot, d evalójában fogalmad sincs milyen gyors. Amit én láttam azt még egy felsőbb kategóriás videokártya is lealázza manapság. Biztos előnytelen demo scene-t választottak...
[ Szerkesztve ]
A hozzászólási jogosultságodat 2 hónap időtartamra korlátoztuk (1 hsz / 10 nap) a következő ok miatt: Az ÁSZF III 10/8. pontjának megsértése - trollkodás - miatt. Többször és többen is kértek már, hogy hozzászólás írásakor használd a linkelés funkciót, mert ennek elmaradása sokak számára zavaró.
Mint ahogy a hír is írja a teljesítményt processzorhoz mérik. A GPU-t csak idekeverted.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
Akkor elnézést kérek, nem olvastam végig a cikket. Szánalmas a kártya teljesítménye. GPU-val kompleexebb scene esetén kb 10x-es az előny, átlagos bonyolultságnál 20x. (és még csak a lassabb opencl-es renderelőkről beszéltünk) Szóval megéri e?
A hozzászólási jogosultságodat 2 hónap időtartamra korlátoztuk (1 hsz / 10 nap) a következő ok miatt: Az ÁSZF III 10/8. pontjának megsértése - trollkodás - miatt. Többször és többen is kértek már, hogy hozzászólás írásakor használd a linkelés funkciót, mert ennek elmaradása sokak számára zavaró.
1500 dollárért szoftveres licencekkel? Hogy a fenébe ne érné meg. Ennyiért ilyen gyors VGA-t nem kapsz. Fogyasztásban, illetve az ehhez mért egységnyi teljesítményben pedig ez a legjobb alternatíva.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
Relatív sajnos... FPGA-val tudsz olyan dolgokat művelni pár W-os fogyasztással amire sima CPU nem képes. Ez kis kütyü is azért jó, mert Ray-tracinghez lett igazítva és hatékony. Mást valószínüleg nem tud futtatni.
[ Szerkesztve ]
Schmitt Pál szolgálati készüléke: Sony Experia SP ókostellefon - Bip
Tény, de nem minden esetben cél az élethű ábrázolás... legjobb példa a Borderlands 2, egész látványos, pedig nem sok köze van a valósághoz. Itt a fizika PhysX ezzel szembe sztem sokat dob itt a látványon, semmint bármilyen ray-tracing.
[ Szerkesztve ]
Schmitt Pál szolgálati készüléke: Sony Experia SP ókostellefon - Bip
Nem rossz a kép, egy ray-racingtől.
Viszont nem akkora durranás a live render, vannak rendererek amik path-tracingel képesek ugyanezt elérni.
Ott van a SmallLuxGPU, már két éve ilyet tudott: Link
(kíváncsi lennék ilyen szituációkban mit tudna ez Link persze nem fair causticot erőltetni egy raytracerre)
A kulcs a materialok bonyolultsága. A SLG is azért hasít ennyire, mert kevés és egyszerű matot tartalmaz. Jobban megnézve elég kevés material van ebben a sceneben is, a transparent, amit mutogat elég primitívnek tűnik. A modell sem épp high-poly. Azt nem tudtam kivenni, hogy ambient occlusion, vagy valós HDRi light van a képen. Látszik, hogy a teljesítménnyel szeretnék megvenni a vásárlókat.
Nyilván az SLG nem professzionális felhasználásra való, nem arra tervezték, csupán egy demo. Profi munkára ott az octane render Link. Egy jó képességű CUDAs kártyával megtámogatva hihetetlen dolgokra képes. Mondhatnám még a V-ray RT-t is.
Ezzel az egésszel arra célzok, hogy nem feltétlenül a teljesítmény a lényeg, hasonlót már más is tud. Sokkal inkább a megfelelő support,a jó integrálhatóság, skálázhatóság, kiszámíthatóság, szoftverkörnyezet stb. Ott van pl. a V-ray RT, fényévekkel gyorsabb, mint a sima változat. Professzionális körökben mégis, a legtöbben rendes V-rayt használnak, mert megbízhatóbb, fejlettebb a material rendszere. Amennyi időt a CPU renderrel vesztenek, behozzák a munkafolyamatban. Ez übereli a 4x-es teljesítményt.
Itt üthet nagyot egy dedikált hardver (hiába a mai videokártyákat játékra/viewport megjelenítésre tervezték nem renderelésre), ha megfelelő hátteret teremtenek hozzá.
Én bízok benne, hogy sikerül nekik.
[ Szerkesztve ]
A bizonyíték hiánya nem a hiány bizonyítéka
Aki ilyennel foglalkozik (a szoftver) az mennyit tanult, hol, és az mennyibe került?
// #ublockO-HardMode // anti-blockadblock-er // PH! új arculat: 1/ 500 // szeksziboj -nálam van egy pirospontod! // Találtam sárga fényű lézert! (kézit, ceruzaelemest) https://youtu.be/XQnmMjYHgcM //
Nem kimondottan ekkora a különbség... Egyszerű jeleneteknél van 10szeres kb, vagy egyszerű renderelőknél. Ha ugyanazt akarod megcsinálni mint a komolyabb raytracerekben akkor úgy hal szerteszét a gpu, hogy szép nézni. Az octane, lux és bármilyen gpus verzió szörnyen buta cucc.
Ennél a kérdés az, hogy milyen programozható felületet biztosít, és abban mik a lehetőségek. Viszont a 16 giga ram nagyon becsületes, és bőven jobb mint a gpu-k cucca. (nem véletlen senki sem használ gpu-t komolyabb renderekre... vagy ahol igen, ott is limitáltan)
raytraceisten és csodamedic
Ezzel nagyon egyet tudok érteni, ahogy írtam is.
Egy időben én is odáig voltam a GPU renderelőkért, de rá kellet jönnöm, hogy csak játékszerek.
Abu:A Xeon Phi-ről mit tudsz? Használható lenne renderelésre? 500-1000 dollárral drágább, de nincs szoftverhez kötve.
Azért rendes Luxot nem nevezném butának (az SLG-t igen), meglehetősen komplex kernele van, nincs is benne tiszta GPU render, csak hibrid (a munka nagy részét ilyenkor is a CPU csinálja). Viszont semmiképp sem professzionális, nincs megfelelő supportja
[ Szerkesztve ]
A bizonyíték hiánya nem a hiány bizonyítéka
Én sem értem, hogy egy olyan területre, ahol a teljesítmény a legfontosabb, miért ilyen kis spórolós chipet építettek. Nyugodtan lehetett volna 5x nagyobb fogyasztású, ennek megfelelő teljesítménnyel. Úgy már maga mögé utasította volna a GPU-kat. Jelelnleg az előnye inkább csak az alacsonyabb fogyasztás. Bár pl. egy renderfarmnál ez is számít.
(#18): DX? Inkább OpenGL. A legutóbbi időkig raszterizált volt a preview rendering, csak mostanában jelent meg néhány GPU-s path tracking alapú megoldás.
(#38): Ha egy GPU 5-10x (néhány esetben 50x) hatékonyabb tud lenni bizonyos feladatokban, mint egy CPU, akkor miért olyan meglepő, hogy ez a célorientált cucc pedig a GPU-nál hatékonyabb az adott célfeladatban?