Hirdetés
- sziku69: Szólánc.
- Lenry: Melléképületblog - 4. rész - Kocsibeálló
- Ismerkedés a Zyxel NSA325 v2-vel
- gban: Ingyen kellene, de tegnapra
- D1Rect: Nagy "hülyétkapokazapróktól" topik
- sziku69: Fűzzük össze a szavakat :)
- Luck Dragon: Asszociációs játék. :)
- Magga: PLEX: multimédia az egész lakásban
- Random25: Windows 11 telepítés Pendriveról
- GoodSpeed: Segway-Ninebot F3 E elektromos roller.
-
LOGOUT
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
zuchy
őstag
Igen, GPGPU lesz, hogy nem csak grafikai számításokhoz legyen jó.
Nv mindig is ilyen volt. Mindig is felsőkategóriára mentek magas előállítási költségekkel és még magasabb eladási árakkal. Ha nem akarnak megint szívni mint a GT200-al, erősebbnek kell lennie a Radeonoknál. -
Dark KillerX
addikt
Sztem mostanában inkább a Vram,ami megfoghat egy felsőkategóriás kártyát.Jó példa erre a 4870 512MByte.Mert hiába nyers számolási teljesítmény,és a DDR5 miatti magas memória sávszélesség
,ha az 512MByte 1600 felbontás fölött sokszor kevésnek bizonyul,még AA nélkül is.Ergo evvel arra akartam utalni,hogy a mostani csúcskarik memória sávszélessége bőven elegendő már most is.
-
rup1u5
nagyúr
-
VinoRosso
veterán
Hát ennél jobban nem fogod látni, mert alá is húztam. Na jó...lehetett volna még félkövérbe is tenni akár
Egyébként ha olvasod a cikket nem csak nézed, abban a részben pont nem a B.i.B-ről kérdezték őket, hanem arról, hogy úgy "általában" megéri e dx10re fejlesztni, mikor ugyanazokat az effekteket meg lehet csinálni dx9-el is. Erre azért több mint furcsa válasz az, hogy "azért fejlesztünk dx9re, mert az Ubisoft szivat minket".
-
Abu85
HÁZIGAZDA
válasz
VinoRosso #443 üzenetére
Nem látom az ellentmondást, pontosan ezt mondta Jakub Klarowicz is. DX9-re és DX10-re egyszerre nem volt idő. Meg eleve a Techland nem ilyen összecsapós csapat. Ha valamit jól csinálnak az a grafika.
Annyi lett volna a különbség, hogy lett volna AA támogatás is, de akkor a DX9 kiesik és ezzel együtt a Vista felhasználók is.A nagy sebességet a DX10.1-ben lehet nyerni. A DX10-ben problémákra vannak megoldások némi teljesítményugrással.
-
VinoRosso
veterán
áhh már azt hiszem hogy átálltál az nvidia pártjára mert állandóan zöldségeket beszélsz
. Kerek perec le van írva, hogy nem hoz elég teljesítménynövekedést, és túl sok erőfeszítésbe kerülne elkészíteni. Eleve dx10-es motort kellett volna írniuk, olyat, amilyen a stormrise, és akkor tényleg megmutatkozna a dx10 előnye. Attól még hogy van egy renderer a motorban, ami tud dx10-et, nem lesz dx10 alapú a játék. Ahhoz h dx10 alatt megteremje a gyümölcsét a fejlesztésbe fektetett munka, teljesen új alapokra kell helyezni az egészet. Egészen addig míg ez meg nem történik, alig lesz fps nyereség, vagys megeshet az a blama, hogy dx9ben jobban fog futni a játék mint dx10ben, ahogy ez a SoC, Clear Sky, Crysis, WiC stb esetében meg is mutatkozott.
-
VinoRosso
veterán
válasz
Beowulf_78 #431 üzenetére
mindeki azt ott próbál előretörni, ahol reális esélye lehet. G80 után az atinak nem volt más választása, mint innovativnak lenni, mert egyedül így tudtak leghatékonyabban teljesítménynövekedésre szert tenni. Ezért erőltetik a dx10.1-et, de a bökkenő az, hogy szoftver oldalról nem olyan egyszerű az átállás, mert egy játék feljesztési ideje nem mérhető össze egy VGA-éval. Egy VGA-nél a dx9-dx10 illetve a dx10 dx10.1 váltás max 1- fél év, és ha kell onnéttól kezdve el tudják árasztani vele a piacot, viszont a szoftveres átállás nem ilyen egyszerű. Ha valaki dollár millókat beleöl egy sw kifejelsztésébe, nem akar fél-egy év múlva egy újat piacradobni, egyszerűen nem is tudna, mert évekkel korábban el kell ahhoz fejleszteni, a kb 2-3 éves fejlesztési idő miatt. Ebből általában legalább ugyanennyi ideig szeretne megélni, és emiatt ezeknek a termékeknek az életciklusa is jóval hosszabb. Nem fél- egy éves ciklusban cserélődnek hanem minimum 3 de inkább 5-6 éves vagy még több. Egy 8800 GTS 640 ma már nem csúcskártya de 2 éve még nagy király voltam vele viszont UT3, Xray, Cryengine még mindig ott vannak a toppon, jönnek ki rájuk játékok. Ergo anno az architektúra, ami jól teljesített abban, addig jó piaci helyzetben lesz, amíg ezek eltejedtek lesznek. Az nvidia erre alapozott, mert a g80 jó volt ezekben, az atinak ezért nem volt esélye másra, mithogy várjon arra, amig ezek kiöregszenek.A váltás meg nem egyszerű, mert a deveknek is akkor éri meg technológiát váltani, ha a régiből már nem lehet kipréselni eleget. Toldozgatni foldozgatni nem sok értelme van, mert egy dx9es motorból fabrikált dx10es nem hozza azt a teljesítményt amit kellene neki. Egy full dx10.1es motort fejleszteni meg megint 2-3 év, tehát legkorábban 4 év, ha már van egy dx9es gammájuk. Valószínűleg emiatt kevés igazi dx10.1es játék lesz, mert mire ezek a fejlesztések piacra kerülnek, addigra már lesz dx11, és dx10.1ről dx11re váltani már egyszerűbb.
-
Abu85
HÁZIGAZDA
válasz
VinoRosso #430 üzenetére
Hát a PH-n dolgozom. Ez pont elég ahhoz, hogy a Klarowcz féle fazonok szóba álljanak velem.
A Techland Chrome Engine 4 motorja DX10-re készült. Egyszerűen az Ubisoft miatt kell a mostani Call Of Juarezt DX9-ben kiadni, nincs idő két rendert összetákolni. Sokkal jobban szeretnének a játékosok korrekt játékélményt, mint AA támogatást.
Mit kellett volna mondani a szóvivőnek? Azé nincs DX10, mert nem fért bele az időbe? Ez nem hangzik jól. Mellesleg annyiban igazuk van, hogy DX10 mellett még a shadereket is meg kellene írni az AA-hoz, így meg el van intézve, egy "nem támogatja a technika az élsimítást oszt jólvan" mondattal.Világos, hogy az utóbbi az egyszerűbb.
-
T.Peter
őstag
Azért nincs, mert ahogy Abu is írta, Deferred Shading a motor. "A reformok kora" című cikkében ír erről bővebben (A Direct3D 10.1 címszó alatt lévő 2. bekezdésben).
-
jozsef11
tag
Ha az nv nem fog tudni kijönni valami nagyon jó ár/érték DX11-es karival az éven akkor nagyot fognak bukni. Főleg ha az ati kiadja a nyár végén az 5870-es szériát.
-
rocket
nagyúr
Ugytunik Charlie megint bal labbal kelt fel
Az biztos nagyon nagy a csend a 40nm-es GT2xx GPU-k korul ami nem jo jel szokott lenni.
A konkurencia nyomasa egyre nagyobb igy elkene hinteniuk nemi morzsat, hogy legalabb beszeljenek roluk, nem jellemzo az NV-re ez a fejuket a homokba dugjak strategia. -
Hakuoro
aktív tag
-
biggamer
veterán
Új játékok NVIDIA PhysX támogatással : [link]
-
Beowulf_78
addikt
válasz
VinoRosso #430 üzenetére
Én is ezért mondtam amit mondtam...hova a faszba rohan az AMD-ATi? Semmi sem dőlt még el. Akár a nagy vesztesei is lehetnek a csatáknak, mert ez is benne van még, ezért nem értem az álláspontjukat. "Kötélhúzó verseny" zajlik az API-k között is, az OP rendszerek között is, A 2 nagy GPU gyártónál is. Nincs elfogadott irány, mindenki próbálja ráeröltetni a high tech-et a jónépre, vegyél DX10.1 karit, használj Win7-et, mert jönnek a DX11 karik és játékok..vicc amit művelnek. Aztán itt az első blama a COJ 2. Nem hogy DX10.1 de még DX10 se kerül bele. Nesze neked fejlődés. Persze lehet szépíteni, hogy ezét meg azért, meg nincs idő rá...persze. Ez csak üres magyarázat, semmi több. De gondolom nem publikus valós érvek is vannak..ez a DX9 a kitaposott út, és nem akarnak befürödni egy esetleges túlságosan hardverigényes DX10 motyóval. Lásd COJ első része. A mai napig ATi kártyákon lényegesen jobban megy, mint nV-n, és hát azokon se túl régóta megy jól. 1920x1200 full az még a GTX295-öt is megfogja, ippeg-hogy játszható. Bár lehet nem megy rendesen az SLI. Végülis...ATi-ra optimalizálták.
Amikor viszont kiadták alíg tudott vele valaki normális felbontásban játszani. 3870 X2 is szopatta, 1680-ban játszhatatlan volt, és még nem is volt full-full. 1280-ban toltam végig szégyen szemre egy 103k kártyával.2 éve nem volt megfelelő hardver a játéhoz, ami gondolom nem kis bevételkiesés. Ezt akarják most elkerülni. Ennyi.
-
VinoRosso
veterán
Te konkrétan hol dolgozol, hogy Klarowcz féle fazonokkal diskurálsz? Megkérdezhetnéd tőle, hogy ha nehezebb dx9re fejleszteni, akkor miért nem gyúrnak rá dx10re. A szó szerinti fordítása a nyilatkozatának az, hogy elég nehéz használni a dx10 featureöket hogy egy kis javulásnál többet érjenek el a játék minőségében. Lehet, hogy én nem tudok magyarul, de nálam ez köszönőviszonyban sincs a magyarázatoddal. Na meg meg kéne kérdezni még pár gurut, hogy miért nincs elárasztva a piac dx10es technológiákkal, ha annyival egyszerűbb használni mint a dx9et. Elvégre az egyszerűség az egy egyszerű elv, olyasmi mint az energiaminimum elve, van egy csomó "lusta" fejlesztő, akik minél könnyebben szeretnének eredményeket elérni, és arrafele gravitálnak, amerre ezt a leghatékonyabban meg tudják tenni. Ergo ha megnézed hogy hol van sok tömeg, ott kell lennie valahol a minimumnak is és ez nem a dx10es bolygó környéke
-
Abu85
HÁZIGAZDA
válasz
VinoRosso #426 üzenetére
A DX10-ben nincsenek vendor specific caps bitek. Ha megírsz valamit DX10-ben, akkor az biztos, hogy menni fog egy DX10-es kártyán. DX9-nél rengeteg a gyártóspecifikus fícsőr, például a render-to-vertex-buffert nem támogatja a GeForce, így ode kell egy vertex texture fetch alapú megoldás ... és ezzel máris dupla munkát végeztünk.
A Techland Chrome Engine 4 az DX9/DX10-10.1 és DX11 motor. Jakub Klarowicz az egyik programozó, vele sokat szoktam beszélni. Speciel a Call Of Juarez második részénél a határidő miatt nincs DX10. Mert az UBI nyár elejére kérte. Ebbe vagy a DX9, vagy a DX10 render fért bele. Az UBI pedig a DX9-et választotta. Ez persze majd azt eredményezi, hogy nincs elsimítás támogatás semmilyen formában sem.
A DX10-nél az interjúban arra gondolhatnak, hogy az API kötelezi a programozókat a shader kódok megírására, azaz az új rendszer már nem tartalmaz fix funkciós shadert, de manapság már mindenki saját megoldásokkal dolgozik, így ez nem jelenthet gondot. Nyilván a DX10 rengeteg problémára tartalmaz megoldást, a DX9-ben meg lehet mondani, hogy az API nem támogatja a color részinfók mintavételét, így az AA-t sajnos buktuk, mert Deferred Shading a motor ... és még lehetne sorolni.Ettől nyilván könnyebb lesz a dolog, hiszen van kifogás, miért nincs AA támogatás.
-
VinoRosso
veterán
DX10-zel a legegyszerűbb fejleszteni, mert minden szabványos
Ne haragudj de ez már megint egy akkora sületlenség...miért lenne valami egyszerűbb, mert szabványos ? A dx9 éppen annyira szabvány, mint a dx10. Ha valami azért egszerű, mert szavbányos, akkor miért lenne egyik egyszerűbb a másiknál?
DX9-et is meg kell csinálni, ami időigény, hisz a két rendszer már nem kompatibilis.
Pont fordítva van, a legegyszerűbb egy dx9-es motort csinálni, ami felruháznak pár dx10-es featurerel, hiszen erre vannak már jól bejáratott módszerek, és van egy csomó újrafelhasználható kód. Teljesen új motort csinálni a semmiből a legköltségesebb mulatság, főleg egy új tehcnológiával, amiben annyi buktató lehet, mint égen a csillag. Ezért tudod megszámolni egyetlen kezeden, hogy hány full dx10-es motor van, mert nem éri meg az a +10-20 FPS.
pl imádott techlanded sem fog ezért dx10-es motort csinálni(holott ők már megtehetnék), mivel tökmind1, hogy a jelenlegi hardvereken 60 vagy 80 fps-el fut a játékuk.
(#425) old gray :én egy évig használtam 64 bites Vistát, végre kijött egy olyan oprendszer, ami használható volt 64 biten. A driverekkel csak annyi problémám volt, mint amennyi bármelyik másik oprendszerrel, illetve amennyi a Vistának általában, a 32bites is éppen annyira belassult tőlük. Nekem a flash is ment, nem kell 64 bites böngészőt használni, ha lassabb is a 32 bites nem annyira, hogy nagyon lerontsa a használhatóságot.
-
old gray
addikt
válasz
VinoRosso #421 üzenetére
Az újdonság varázsa, nagy a hype a win7 körül, ennek ellenére én Vista X64-ről most váltottam XP-re.
Nagyon jó dolog a 64bites op.rendszer, nekem nagyon gördülékenyen ment, csak hát a 64bites driverek, meg adobe sem szeret 64bitre fejleszteni, jó, van silverlight, de az nem u.az
-
Abu85
HÁZIGAZDA
válasz
VinoRosso #423 üzenetére
Számos fejlesztő mondta már, hogy a DX10-zel a legegyszerűbb fejleszteni, mert minden szabványos. Ami baj, hogy a DX9-et is meg kell csinálni, ami időigény, hisz a két rendszer már nem kompatibilis.
A CUDA-ra majd térjünk vissza, ha támogatja az AMD és az Intel is. Addig felesleges köröket futunk.
-
VinoRosso
veterán
válasz
tzsolesz #422 üzenetére
azért azzal várjunk még. win7 - dx közti korreláció nem lehet nem lesz annyira tuti mint ahogyan azt várják, pl Vista + dx10 vonatkozásában hasonlókat lehetett elmondani, aztán se a Vista nem tudta behozni a dx10et, se a dx10 a vistát, bár ez utóbbi jobban dominált. Ha javítanak az api használhatóságán akkor lehet, hogy gyorsan el fog terjedni, de a dx10 is többek közt azért szorult háttérbe, mert nem olyan egyszerű vele fejleszteni, mint ahogy sokan hiszik. Ezért jó cucc pl a CUDA, mert sok terhet levesz a fejlesztők válláról, DX meg csak egyre bonyolultabb lesz, aminek látványbeli haszna nem nagyon van, mert dx9ben már szinte mindent meg lehet csinálni, csak teljesítményben javul, de ha így fejlődnek a vasak, akkor nem nagyon lesz egyelőre olyan engine, aminél megérné belefektetni azt a + energiát.
-
VinoRosso
veterán
válasz
Beowulf_78 #420 üzenetére
Áhh szerintem úgy fognak váltani az emberek win7re, mint a mesében. Nem si emlékszem olyanra, hogy valaha lett volna olyan, hogy egy béta oprendszer hónapokkal a megjelenés előtt ennyire elterjedt lett volna. Az ismerőseim közt is még aki eddig óckodott a Vistától, és Xp mellett tartott ki, egyből ahogy megjöt a béta híre feltették és nem csalódtak.
-
Beowulf_78
addikt
Persze nem vagyunk cégek...
De mindent feltenni a Win7-re és a DX11-re, baromság ill. korai. Főleg már a kezdetek kezdetén. Ez volt az apropója a múltkori hsz-nek is. Döcögősen fog ez beindulni véleményem szerint.
schwartz: Én is váltani fogok. Fájl szintű műveleteknél jóval gyorsabb a Win7. De jelenleg a build 7077-et tesztelve, játék sebességben és böngészőben gyengébb mint a Vista.
-
schwartz
addikt
válasz
Beowulf_78 #417 üzenetére
En tuti valtok... Ruhellem a konzolt s remelhetoleg a DirectX11 majd kiuti nyeregbol...
(a gagyi portokat is)
-
Abu85
HÁZIGAZDA
válasz
Beowulf_78 #417 üzenetére
Nem hiszem, hogy mi átlagfelhasználók cégek vagyunk. Cégként engem sem érdekelne a Win 7 sőt még a Windows sem.
-
Beowulf_78
addikt
-
Abu85
HÁZIGAZDA
válasz
Beowulf_78 #415 üzenetére
Nekem is küldték. Elvileg az AMD kérésére készítették a fejlesztők tesztet. Majd egy közelgő AMD-s anyagban fel lesznek használva az eredmények. Bár hír az nem lesz belőle, de majd berakom a fórumba. Szerintem arra megy ki a dolog, hogy az NV a múlthéten elkezdte szapulni az AMD OpenGL meghajtóját (jobbára mást nem tehet), így most gondolom az AMD az új OpenGL-es Riddick teljesítményeredményekkel akar válaszolni a támadásokra.
Ami lényegében ki van emelve a belső tesztben, hogy a HD 4770 gyorsabb, mint a GTX 285. Majd gondolom pár tesztoldal beveszi a tesztjátékok közé a Riddicket is, és akkor lesznek függetlennek mondható mérések is. A pcgameshardware még csak a pre-alphát tesztelte, bár ott is meredek Radeon fölény volt. -
Beowulf_78
addikt
A HD 4870 X2 a Riddick alatt magas terhelésen dupla olyan gyors, mint a GTX 295
Erre csak annyit tudok reagálni, hiszem ha látom, de ezt az infót addig kénytelen vagyok fenntartásokkal kezelni...mert egyelőre még nincs visszajelzés a fórumokon, hogy fut 4870 X2-es kártyán. Persze nem kizárt hogy nem megy az SLI, és akkor az a 40-70fps GTX 295-nél is lesz 100fps feletti max. AA-val. Esetleg tudsz linkelni tesztet 4870 X2-vel?
-
Dark KillerX
addikt
-
TTomax
félisten
válasz
Dark KillerX #410 üzenetére
Hát nem tudom a Colin Dirt mennyire régi nagy ágyu....
-
biggamer
veterán
válasz
Beowulf_78 #399 üzenetére
Köszi a kimerítő tájékoztatást.
tzsolesz
Szívesen. -
Dark KillerX
addikt
Hát igen a régmúlt nagy ágyúiban mint a Doom3,Prey,Far Cry
valószínű nagyon jól szerepelt az ultra és tényleg elérhette az 1650pro teljesítményét főleg a ddr2-ét
,de az újabb shared íntenzív játékoknál már lehet máshogy alakúlt a helyzett,ja és ezeknél a kártyáknál meg még főleg nagyon sokat számított a Vga ram,hogy mondjuk 800Mhz-es drr2 volt rajta-e,vagy hogy 1400Mhz-es ddr3.
Szerintem.
-
tzsolesz
nagyúr
válasz
Sweet Lou 6 #407 üzenetére
Ja ja, sokszor egy kategória, a 8600GTS a 3870-el a PCX-en az ára miatt.
Egyébként a 3870 GTA4-beli teljesítménye köszönőviszonyban sincs a 8600GT-éhez.
Annyira nehéz megtanulni???3870/9600GT, és 8600GT/2600XT, ez nagyon nehéz eset.
Ráadásul a játékvásárlók félrevezetése. De ez itt már nagyon OFF, úgy hogy bocsi, és léceltem is.
Abu85: Értem, akkor miért nem írtak 2400pro-t.
-
Sweet Lou 6
addikt
Ja ez sok játéknál előfordul. GTA4 a kedvencem: ajánlott vga: 8600GT vagy HD3870...tisztára mintha egy kategória lenne
-
TTomax
félisten
Hát én nem tudom,nekem volt speciel AGP-s 6800Ultrám ,meg 1650prom is...az Ultra egy b@szott kemény kártya volt,akárki akármit is mond...én éreztem olyan erösnek minta az 1650Pro-t,söt...igaz a Pro ha jól emlékszem DDR2-es volt...
-
Dark KillerX
addikt
válasz
tzsolesz #404 üzenetére
Ugyan így pl. a Far Cry2 esetén is érdekes a minimum:
NVidia™ 6800 or ATI™ X1650 or better , mert azért ez sem egy kategória.
De tényleg ki az az idióta aki meghatározz egy játéknál minimumként,egy ilyen eltérő vga párost,mert a 6800 és X1650Xt-Pro(ami kb. Nv szinten megfelel egy 7600Gt-nek és 7900Gs-nek.) Szal tényleg vannak furcsaságok,de nem csak ennél a játéknál. -
tzsolesz
nagyúr
válasz
biggamer #398 üzenetére
► Видеокарта: ATI Radeon HD 2600 XT or NVIDIA GeForce 6800 Ultra
Annyira tudok röhögni mikor meglátok egy ilyen ajánlott VGA párosítást mint ez: 6800 ultra, meg a 2600XT.
A 2600XT minimum 2X erősebb mint az ULTRA, de lehet hogy többször. Megnézném én azért hogy megy egy 2600XT-én, és hogy egy 6800 ultrán. Nem igaz hogy ennyire elvakult fanatikusok ülnek még ilyen helyeken is, ahol meghatározzák a minimum VGA elvárásokat.
A helyes nagyjából így lenne:
► Видеокарта: ATI Radeon HD 2600 XT or NVIDIA GeForce 8600GT(S)
Ellenpéldának pedig ezt szánnám:
► Видеокарта: ATI Radeon HD 2600 XT or NVIDIA GeForce 9600GT/GS
Amúgy köszi a linket, vártam ezt a játékot.
-
keIdor
titán
válasz
Beowulf_78 #393 üzenetére
Xbox360
-
Abu85
HÁZIGAZDA
válasz
VinoRosso #401 üzenetére
A gyári teszt alapján nem nagyon van 100 FPS alatti sebesség, még extrém beállításon sem. A GTX 295-nál már sokkal lassabb volt, persze az mindenképp hozzátartozik a történethez, hogy az SLI még nem működik normálisan. Majd az NV csinál hozzá profilt és az is jól fog skálázódni.
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az NVIDIA éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.
- Sony MILC fényképezőgépcsalád
- Xiaomi 15 - kicsi telefon nagy energiával
- Samsung Galaxy S23 és S23+ - ami belül van, az számít igazán
- Nők, nőügyek (18+)
- Videószerkesztés
- sziku69: Szólánc.
- Zenelejátszó építése, a kiváló hangzásért
- Honor Magic V2 - origami
- A fociról könnyedén, egy baráti társaságban
- NVIDIA GeForce RTX 5070 / 5070 Ti (GB205 / 203)
- További aktív témák...
- 3 hónapos Sapphire Pulse AMD Radeon Rx 7900 XTX 24 GB, 33 hó garanciával!!
- Csere-Beszámítás! MSI Gaming X RTX 4060Ti 16GB GDRR6 Videokártya!
- Csere-Beszámítás! Manli RTX 3070Ti 8GB GDDR6X Videokártya!
- GIGABYTE GeForce RTX 2080 TURBO OC 8GB GDDR6 videokártya (használt)
- Eladó egy használt MSI RTX 3060 Ti Gaming X 8GB LHR videókártya
- Telefon felvásárlás!! iPhone 11/iPhone 11 Pro/iPhone 11 Pro Max
- Telefon felvásárlás!! Samsung Galaxy A16, Samsung Galaxy A26, Samsung Galaxy A36, Samsung Galaxy A56
- Telenor 5G Indoor WiFi Router (FA7550) + töltő
- Telefon felvásárlás!! iPhone 14/iPhone 14 Plus/iPhone 14 Pro/iPhone 14 Pro Max
- ÁRGARANCIA! Épített KomPhone i5 10600KF 16/32/64GB RAM RX 7600 8GB GAMER PC termékbeszámítással
Állásajánlatok
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest