A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Gyorskeresés
Legfrissebb anyagok
- Bemutató Spyra: akkus, nagynyomású, automata vízipuska
- Bemutató Route 66 Chicagotól Los Angelesig 2. rész
- Helyszíni riport Alfa Giulia Q-val a Balaton Park Circiut-en
- Bemutató A használt VGA piac kincsei - Július I
- Bemutató Bakancslista: Route 66 Chicagotól Los Angelesig
Általános témák
LOGOUT.hu témák
- [Re:] [sziku69:] Fűzzük össze a szavakat :)
- [Re:] [Tüzi:] Geek-hatarozo
- [Re:] [Luck Dragon:] Asszociációs játék. :)
- [Re:] [sziku69:] Szólánc.
- [Re:] Spyra: akkus, nagynyomású, automata vízipuska
- [Re:] [Mr Dini:] Ha szeretnéd rootolni az LG Smart TV-d, tedd meg most!
- [Re:] [gban:] Ingyen kellene, de tegnapra
- [Re:] eBay-es kütyük kis pénzért
- [Re:] [D1Rect:] Nagy "hülyétkapokazapróktól" topik
- [Re:] [attilasd:] A laposföld elmebaj: Vissza a jövőbe!
Szakmai témák
PROHARDVER! témák
Mobilarena témák
IT café témák
GAMEPOD.hu témák
Téma összefoglaló
Hozzászólások
Yutani
nagyúr
A bányászláz is lecsengőben van
WUT? Folyamatosan növekvő ETH hálózati hashrate és diff mellett lecsengőben van?
#tarcsad
Alogonomus
őstag
Felvásárolnak minden elérhető kártyát a bányászok, vagy roskadoznak a polcok, és egyre csökken a kártyák bolti ára?
A hashrate növekedik, de egyértelműen nem az egyre több rendszerbe állított VGA miatt. Az ethereum pedig a novemberi $4800 utáni hullámzások végén most a $3000-t sem éri el. Az otthoni hobbibányászoknak most nem éri meg otthon néhány kártyával szórakozni, jelenleg a GWh léptékű gigászok időszaka van, akik viszont célhardvert használnak.
Petykemano
veterán
Az oriasi L2 elmeletileg ellensulyozza a kisebb memoriabuszt.
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
És ez milyen frankón működött 4K-ban az RDNA2-n - oh wait
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-FreaK-
veterán
Ez biztos, hogy bottleneck a kevés memória? Van erre valami teszt ami egyértelműen megmutatja, hogy hátrány a 12gb alatti memória?
3080 10gb-ot készülök venni (de lehet várok év végéig), 3440x1440-re, egyelőre nem láttam nyomát, hogy olyan nagy hátrány lenne a kevés memó. A 12gb-os változat valami nagyon minimálissal gyorsabb csak, cserébe jóval drágább.
Persze ezt is rengetegszer írja mindenki, mint a "kevés a 6 mag"-ot, de jelenkori részletes teszt nincs erre vonatkozóan, a jövőről meg csak találgatni lehet.
Televan74
nagyúr
Sokan a jövőnek szeretnének gépet építeni! Én meg ma használom!
Amikor nincs remény! Jusson eszedbe nincs isten, csak én!
GeryFlash
veterán
2022 Q3-ban beruházni 10-12GB VRAM-ra 250+ ezer Ft-tal úgy hogy 2023-ban több tucat UE5-s játék jön nem hiszem hogy túlbiztositás kategória.
Hi, i'm new to APHEX TWIN, so i was wondering how much the IQ requirements was to enjoy his stuff. and understand all the underlying themes, because its really complex stuff. I have IQ of 119 but i heard that you need atleast 120 is it true?
-FreaK-
veterán
És hány UE5 játékkal készült már teszt, ami azt mutatja, hogy kevés a memória? Ez továbbra is csak feltételezés.
Az L3 .
[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
nakos1212
senior tag
Lásd feljebb a Doom Eternal 4K RT képet amit beszúrtam, a 3070 lassabb mint a 3060...
(2020-as jjól optimalizált játék, nem valami next-gen UE5 csoda)
[ Szerkesztve ]
paprobert
senior tag
Használat közben csak olyan állapot létezik, hogy túl kevés.
Olyan, hogy túl sok, nem.
Összehasonlíthatatlanul fejfájásmentesebb egy olyan kártyát használni, ami nem az aktuális igények + 1GB-ra van belőve, hanem korlátok nélkül, szinte el lehet felejteni vele a memóriaigényt, mint tényezőt.
640 KB mindenre elég. - Steve Jobs
Televan74
nagyúr
Függ a felontástól és a grafikai szinttől. De ha valaki 4K/Ultra 120fps -t szeretne égesse csak a pénzt rá.
Ha esteleg nem lenne elég a 12GB a közeljövőben(amit én kétlek) akkor lejjebb veszem a grafikát ultráról high -ra. De még egyelőre a 8GB is elég nekem(1080p -n).
Amikor nincs remény! Jusson eszedbe nincs isten, csak én!
A 3080 megjelenésekor volt már olyan játék, ahol a 10GB már csak döcögősen volt elég. Jó eséllyel már most lehet olyat találni, ahol a 12 is kevés - elsősorban 4K-n, de lehet, hogy lejjebb is.
Nyilván az egész problémakör egy darabig (vszleg jó darabig) orvosolható a textúrák ultra->high átállításával, de ez nem mindenkinek fér bele.
#37760 b.: aminek ebből a szempontból rengeteg jelentősége van
[ Szerkesztve ]
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
nakos1212
senior tag
Ne is férjen - ha ennyi pénzt ellocsolok egy kártyára, maxon legyen minden...
Abu85
HÁZIGAZDA
Ha csak az L2 gyorsítótár növekszik, akkor nem ugyanarról lesz szó, mint ami az RDNA 2-ben történt. Az RDNA 2-ben az Infinity Cache egy victim cache volt, ami a tile-alapú leképezést segítette abban, hogy ne kelljen egy csomó esetben elmenni a VRAM-ig. Emiatt az Infinity Cache nem is volt alapértelmezetten a cache-rendszer része, ami egy koncepciónak számított, mivel a cache-rendszer részeként összeszemetelte volna a GPU az egészet, és nem tudta volna ellátni a feladatát.
Ez a működés az RDNA 3-ban is megmarad, kiegészülve azzal, hogy elég méretes cache-ről lesz már szó, így használható arra is, amire az RDNA 2-ben nem használja senki: a teljes BVH gyorsítóstruktúra tárolására. Ugye utóbbira egyszerűen kevés 128 MB, mert teszem azt 80 MB-ot elhasználsz egy nyolc szint mélységű BVH-ra, akkor marad 48 MB a tile-alapú leképezés segítésére, ami meg már nem működik hatékonyan. Viszont az RDNA 3-ban már fél gigabájt is lesz egy Infinity Cache, és ott már úgy ellőhetsz 80 MB-ot, hogy nem kell tartani annak masszívan negatív hatásaitól.
Valószínűleg az NV is erre a 80 MB-ra szeretne nagy L2 gyorsítótárat, mert ha csak szimplán teszem azt 96 MB-ra növelik az L2-t, azzal a tile-alapú leképezést nem segítik, mert az L2 esetében nem jó, ha victim cache lesz, enélkül pedig úgyis szétszemeteli a GPU.
#37760 b. : Nem, az nem L3. Nem véletlenül nem ezt írják rá, hanem Infinity Cache. Az Infinity ugyan egy brand ebből a szempontból, de azt is jelzi, hogy a cache nem része a GPU cache-rendszerének, hanem egy független tároló, amit a GPU ALU-k biztos nem fognak összeszemetelni a működés közben, így nem jelenik meg benne a félkoherencia problémája. Nyilván az AMD is csinálhatta volna azt, hogy az L2-öt felhizlalják 128 MB-tal, de jó okkal nem tették, úgy nem tudnák segíteni a tile-alapú leképezést, és akkor nem ér semmit a szűkebb memóriabuszra való törekvés.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
Alogonomus
őstag
A több memória mindenképpen többet fogyaszt. Jelenleg az RTX 3080 rendelkezik két különböző verzióval, ami ugyanolyan sebességű memóriákból, de eltérő mennyiséget tartalmaz.
RTX 3080 Suprim X 10 GB Idle: 11 W, Multi monitor 22 W.
RTX 3080 Suprim X 12 GB Idle: 18 W, Multi monitor 32 W.
Persze lehet azt mondani, hogy az a 7 és 10 watt különbség azoknál a kártyáknál nem számít, de ha 2 GB extra memória ennyit okoz, akkor a 12 vs 24 GB esetén a 12 GB többlet valószínűleg már 30-40 wattal is megemelné a kártya nyugalmi fogyasztását a semmiért, ami valószínűleg ki is zárná a fan stop opció esélyét.
EZ két különböző kártya és GPU nem csak plusz 2 GB Vram van rajt amtől idle 50% kal magasabb a fogyasztás. 24 GB( 24x1 GB modulnál) GDDR6X fogyasztása 60W és 24 GB GDDR6X 24 GB (12 db x2 GB modul ) 50 W
RTX 3080 vs RTX 3080Ti:
GPU Variant:GA102-200-KD-A1 vs GA102-225-A1
TDP:320 W vs 350W
Shading Units:8704 vs 10240
TMUs:272 vs 320
ROPs:96 vs 112
SM Count:68 vs 80
Tensor Cores:272 vs 320
RT Cores:68 vs 80
L1 Cache:128 KB (per SM) =128 KB (per SM)
L2 Cache:5 MB vs 6MB
A nagy probléma az volt hogy két oldalasra kellett pakolni a 3090 re az 1 GB modulokat és így jelentősen többet evett az egész memóriavezérlő és PCB mint a 3090Ti nél ahol egy oldalas lett a 2 GB moduloknak köszönhetően az elrendezés és 70-75 fok környékén karistol a GDDR6X míg a kétoldalasnál a 3090 nél a 90 fokot is elérhette.
AZ igazi előnye a GDDR6X nek az Adanál jön el a most már elérhető két gigás modulokkal.
[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
Ok,Sejtettük hogy szar lesz.
Köszi a sok RDNA3 infót. jó lenne Adáról nyomnál valamit ide, biztos tudsz valamit ha már a vizet tudod ám.
[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
Jacek
veterán
Mind a ketto 3080 sima csak van 10 es 12gb-os, ti az mas teszta.
+Jacek
jah bocsánat, rossz adatok, a Ti -t írtam be, de amúgy az is kevesebbet eszik idle mint a 3080 10 GB fenti adatokkal...
Itt is van különbség a ramon kívül.
RTX 3080 10 GB vs RTX 3080 12 GB:
GPU Variant:GA102-200-KD-A1 vs GA102-220-A1
TDP:320 W vs 350W
Shading Units:8704 vs 8960
TMUs:272 vs 280
SM Count:68 vs 70
Tensor Cores:272 vs 280
RT Cores:68 vs 70
de a fogyasztás a hozzá adott plusz VRM és PCB miatt magasabb, TPU szerint többet eszik mint a Ref 3090...
[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
Bocsánat, rossz kártya adatokat írtam, neked szántam a fenti hozzászólást nem magamnak .
[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
[link]
"11 months ago, I posted a tweet about the performance estimation of AD102(2.2x), Navi31(2.5x) and GH202(>3x). Then I deleted that soon, because I didn't want to start a war."
"I must clarify that the current AD102 is NOT the original AD102. Ada Lovelace is no longer a simple Ampere refresh, although it was like this in the beginning."
tehát az Nvidia megváltoztatta az AD 102-t menet közben és erősebb lesz.
[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
Devid_81
nagyúr
Mindez azt jelenti, hogy a konkurencia olyan lesz amihez hirtelen felkellett noniuk
Sebaj, mar alig varom, hogy jojjenek ezek az uj csoda VGA-k, bar penzem soha tobbet nem lesz csucs VGA-ra, de nah
...
Jacek
veterán
csucs mennyi lesz most 3000? .
Most akkor mcm vs mono lesz a csucson? Mert akkor kivancsi leszek az nv milyen fluxuskondenzatort kenytelen betolni
Alogonomus
őstag
Igen, minimálisan több egységet hagynak bekapcsolva a 12 GB-os GA102 chipen, meg nyilván a memóriavezérlőből is 2 extra csatornát kell engedélyezniük. A GPU esetén az a 3% plusz feldolgozóegység mérhetően nem befolyásolhatja a fogyasztást, főleg nem terhelés nélküli állapotban, amikor üresen pörögnek, ha egyáltalán pörögnek, és nincsenek tömegesen kikapcsolva olyan szituációban.
Ha a GH 202 3x Oyan gyors,mint a 3090 vajon mit hozhattak at belole?
Elmeletileg az elso pletykak szerint az MCM lett volna.
[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
Devid_81
nagyúr
Ha lehet egy tippem akkor nagy pofaras esesek (jo iranyban) es hatalmas teljesitmeny ugrasoknak lehetunk most majd tanui.
Lehet, hogy 500-1000Wattok fognak tuzet rakni a gepben jatek kozben, de nehogy "megerje" a vegen
Mondjuk picit bajban vagyok en ezzel a fogyasztassal meg mindig, egyszeruen nem akarom elhinni, hogy 1db GPU-ba ennyi aramot akarjanak beletaposni es hutheto is marad mellette.
Nehogy meglepi legyen itt a vegen GPU+Tensor cucc kulon tokozasban, raszterben X fogyasztas Ray Tracing mellett meg X*2 vagy akarmennyi is kell extraban neki.
Felkellene ebredjek tudom
...
Szerintem is ez lesz a képlet hogy magas fiogyasztás de cserébe mondjuk a 3090 teljesítménye leesik aközépkategóriába. Mondjuk nem lenne rossz ha ezt a teljesítményt ( 3090)200w ból lehoznák a cégek.
Én továbbra is azt mondom nem szabad felülni mindennek. Pont gV vel beszéltük ezt, ma reggelre meg Dylan Patel ezt dobta ki a Twitterre. [link]
Nagyon Blikk és Bors már sajnos az IT újságírás.
Biztos hogy magas lesz a fogyasztás, de nem elmebetegek sem az Nvidiánál sem az AMD nél.
[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
Ez olyan, mint amikor anno az 5800XT-ről ment itt a találgatás. Sejthető volt, hogy cca. rádupláznak a 4800-ra ALU-számban, de egy kolléga itt addig hergelte magát, hogy megjelenés előtt 1-2 hónappal már 4000 ALU-nál tartott. A végén 1600 lett
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
[link]
"Ada's frequency is very close to navi3's."
Pár napja posztolta szintén Greymon hogy az RDNA3 3 GHz-t is elérheti.
"I can only say that the two products have improved a lot compared to their predecessors, but if you want to ask me directly which one is better, I'm sorry I can't answer, because no one knows the specific improvement by percentage."
Mindkét architeltúra nagyon sokat változott a kezdetekhez képest.
nem csak a teljesítményük vagy fogyasztásukban lesznek egyediek.
[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
Mondjuk ha tényleg ilyen sokat gyorsulnak, és tényleg ilyen magas lesz az órajelük, akkor elengedsz 15-20% órajelet, és hirtelen nem fognak 600 900 1200 3215152 wattot enni...
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
Devid_81
nagyúr
Komplikato
veterán
Van egy olyan érzése az embernek, hogy a 4x teljesítmény (és most nem csak a csúcs HW-re gondolva, hanem összes butábbra lefelé) nem csak a fogyasztás lesz sokkal nagyobb, hanem az ára is. Másrészt ha nem kamu az a pár infó és videó, akkor azért gyúrnak ennyire számítási kapacitásra, mert NV rágyúr az AI (ML) alapú realtime Path Tracing-re. Meg lepne ha AMD oldalán tudnának rá versenyképesek lépni.
"Figyelj arra, aki keresi az igazságot és őrizkedj attól, aki hirdeti: megtalálta." - (André Gide)
GeryFlash
veterán
Real time path tracinghez korabban Abu azt mondta hogy ilyen 60-100 TFLOPS teljesitmeny kapacitas kell. Ha minden igaz az NV high end kartyaja 100TFLOPS lesz, de ugye ez nem annyi csak trukkozes, regi rendszerben ezt kb 0.6-07.tel kell szorozni. Es akkor ez csak a high end kartya, a gamerek kb 1%-at fogja erinti. Szerintem ez meg legalabb egy generacioval kesobb lesz aktualis.
Hi, i'm new to APHEX TWIN, so i was wondering how much the IQ requirements was to enjoy his stuff. and understand all the underlying themes, because its really complex stuff. I have IQ of 119 but i heard that you need atleast 120 is it true?
Nagyon sok ferdítés van már szerintem .Direkt csinálják a cégek ezt. Már a szivárogtatók sem tudják mi az igazság pár hónappal a bemutatás elött és teszt fázisban lévő VGA-k nál...
NV-t előnye szinte biztos , hogy megmarad azt gondolom, RT ben.
ma meg már 150 tflops.... az Ada.. egyre viccesebb az egész.
[link]
"If Ada has a modified version of Hopper SM as @kopite7kimi suggested, it's actually possible to reach 150+ TFlops"
[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
hokuszpk
nagyúr
hát.
most, hogy a csúcs Radeonból hirtelen eltünt ~3000 core, rá kell gyúrni a konkurrencia alázására
Első AMD-m - a 65-ös - a seregben volt...
Holnapra itt elérjük a kétszázat. Az OTP meg esik.
[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
hokuszpk
nagyúr
"Az OTP meg esik."
az hagyjan, kinéztem az ablakon.
itt is be van borulva rendesen
Első AMD-m - a 65-ös - a seregben volt...
ilyenkor kell elővenni szépen ezt a fiókból
Ma megjött az EVGA 3080 12 GB is, el sem hiszem , tiszta bőség zavarában vagyok.2 kártya 2 nap alatt.
Az EVGA baromi jó kártya lett ,alig hallani, és 650 wattos táppal tökéletesen megy. Ez a kis 3060 viszont csalódás ahhoz képest hogy MSI Gaming X. Tök hangos tud lenni. Szóval van mitől félni ,ha 600 wattot zabál majd egy Ada, kell hozzá jó megoldás a gyártóktól.
[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
GeryFlash
veterán
Csak kivancsisagbol: miert ruhaz be barki 2022 majusaban egy current gen kartyara es nem var az uj generaciora?
Hi, i'm new to APHEX TWIN, so i was wondering how much the IQ requirements was to enjoy his stuff. and understand all the underlying themes, because its really complex stuff. I have IQ of 119 but i heard that you need atleast 120 is it true?
A 3060 fiamé, ő egy 6+ éves GTX 1060 nal játszott és nem bírta már a játékokat amiket szeret. ( Assasin Creed és GTA sorozat) és ballagási ajándék lett neki.
Én anno pár hónapja feliratkoztam EVGA-nál erre a 3080 12 GB kártyára prémium memberként és értesítettek múlt héten hogy meglett én jövök. Nem mondtam vissza, de nem tudom megtartom e ,mert még úgy mond jó áron el tudnám adni de nekem sincs már garancia a 3 éves RTx 2070 kártyán amúgy...
Eddig nem volt értelmes áron ez a generáció, ha volt egyáltalán, mostanában kezd elérhető lenni. Amúgy nálunk még mindig erősen emeltek az árak, de kint már tényleg viszonylag jó áron hozzá lehet férni.
Ami durva még a sztoriban hogy a fiam 6 éves kártyája 105 ezer forint volt anno, most 100 ezerért viszik el pillanatok alatt.5 ezer forint bukó 6 év alatt. Az én Strix kártyám 178 ezer volt most 180 ezerért simán elviszik. 2 ezer forint nyereség. ha most azt veszem 200 ezerért( 390 volt az EVGA) kaptam több lépcső előrelépést és 3 év garit. a fiam meg 85 ezerért 3x teljesítményt és 3 év garit.
Azt gondolom legalább 12 hónap mire elérhető lesz bármilyen új generációs kártya, és ott a "Ha."
[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
hokuszpk
nagyúr
nemtom.
én is nemrég vettem 6800XT -t
lehet azért, mert végre lehet kapni. vagy ilyesmi.
Első AMD-m - a 65-ös - a seregben volt...
gV
őstag
185-ért kapni 3év garral 3060-at (2070S teljesítmény), de valaki megveszi 180-ért a 2070-et gari nélkül
Igen ennyiért mennek.
Boltban azért ez az MSI 3060 inkább 210 ezer nem 180 és az nem Rog strix.
A Strix 3060 250 ezer től.
Felbontott volt ,de 3 év garisan jutottam hozzá annyiért.
Ez sima 2070 teljesítmény amúgy, nem éri el a supert a 3060, de néha még a 2070 is gyorsabb tud leni CPU bottlenecknél. [link]
kb 10-15 % kal elmarad a 2070 szupertől az én Rog Strixem pedig OC val és magasabb fogyasztással ( gyári dual BIOS ) kb alapórajeles Supert hozza teljesítményben. Lesz majd teszt logouton majd ott meglátod az eredményeket is, 3 generációt vetek össze , lesz nálam hamarosan egy 2060 Manli.
[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
gV
őstag
jó, igaz. én látogatom a GameGPU-t, az ott látottakból indultam ki.
Interceptor
addikt
6 év alatt azért bőven romlott a forint is, de ja alapvetően kevesebb a bukó mint amilyen "normális" esetben lett volna.
Nem kell drága gép, csak játékra kell
GeryFlash
veterán
Hmm kopite becslese szerint az ADA 200TFLOPS-ig is elmehet
Hi, i'm new to APHEX TWIN, so i was wondering how much the IQ requirements was to enjoy his stuff. and understand all the underlying themes, because its really complex stuff. I have IQ of 119 but i heard that you need atleast 120 is it true?
Téma tudnivalók
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az NVIDIA éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.