- sziku69: Fűzzük össze a szavakat :)
- sziku69: Szólánc.
- Luck Dragon: Asszociációs játék. :)
- Dany007: Kiakasztó frissítések
- ldave: New Game Blitz - 2025
- gban: Ingyen kellene, de tegnapra
- Fűtés és hűtés klímával, napelem segítségével
- [K2]: A vagyonvédelmi rendszerszerelővé válás rögös útja
- btz: Internet fejlesztés országosan!
- KRTLPC: Ki és hogyan élt túl? Volt ám fennakadás
Új hozzászólás Aktív témák
-
válasz
#15779328 #8347 üzenetére
Pont az lett volna önreklám, ha árral rakom be, hogy gyertek és vegyétek.
Ezek momentán amúgy ki sem kerültek az apróra, és 2-nek fixen gazdája volt.
Amúgy kerestem természetesen, nem vagyok máltai szeretetszolgálat, hogy önköltségen adom.
De persze én vagyok a hülye, hogy 400 alatt adom, mikor az iponon meg 454 volt, meg az apróra is majd 500-ért került fel ebből az eresztésből egy darab. -
válasz
#15779328 #8322 üzenetére
Csak.
Másik, hogy nem, nem 350-ért adom, mert annyiból a nagyker bruttó sem jön ki.
Amúgy meg már van gazdája kb mindnek, ezért sem árral raktam fel, nem vevőt akartam keríteni neki.
Inkább ami miatt linkeltem, hogy lehet nézelődni majd Iponon és társain mert érkezett pár darab foglalásra másnak is. -
edward2
addikt
-
MPowerPH
félisten
válasz
#15779328 #8145 üzenetére
Nehogy azt hidd, hogy csak Mo.-n van ilyen. Nezd meg, UK eBay. Strix 3090, SCAN -bol, £5000 -ert.
Vagy ez, szinten 3090 Strix, ott a szamla, hogy confirmed pre order, tehat meg nincs nala a kartya, sorban all erte, £1710 -et fizetett, es nezd meg, mennyin all a bid. Es persze fogalma sincs, mikor kapja majd kezbe.
-
Kaci84
őstag
válasz
#15779328 #7999 üzenetére
Hát igen sokat lehet ferdíteni ebben a szakmában. Egyébként nem a kártya annyira rossz a 4K kicsit drága még. Köszi a dícséretet, igen zabálja az időt az ilyesmi, csak az a lehangoló amikor kapok 3 likeot meg 1 dislikot :-( Oké vannak hibák, na de akkor is.
ForRedGlory: Hát igen én is azért indítottam az én oldalam, hogy (amíg nem fizetnek le) legyen egy kicsi és pont azért hiteles tesztelő. Pont ezért szereztem be én is csúcshardvert, hogy ne ez legyen a kifogás. 10900k 5.2-ön ha nem elég hát... Igaz HT nincs, de nehogy már 10 mag ne legyen elég 4K-n 40-100fps között.
Most hasonlítom össze 3800X-el, majd felteszem azt is nemsokára.
-
-
ScomComputer
veterán
válasz
#15779328 #7988 üzenetére
Van már neki...
Csak lusta törölni a hirdetést....kapja is banánt... -
lo_jo
senior tag
válasz
#15779328 #7983 üzenetére
Na és ezzel a beállítással mit megy "nem ideális" körülmények között? Eső, utolsó helyről rajtolva, ahol minden előttel lévő autó szórja a vizet, világítanak a lámpák, stb? Mert szépnek szép, de ha nem verőfényes napsütésben mész, lehet, hogy jobban beesik az fps.
Nem kötekedni akarok, hanem kíváncsi vagyok egy olyan esetre is.
-
Kaci84
őstag
válasz
#15779328 #7982 üzenetére
Köszi! Videó legvégén van egy átlag fps összegző kép. Valóban zömmel 60fps környéke. Nincs kimaxolva, de optimalizálva sincs. Lehet 1-2 beállítás 4K-nál felesleges pl. bizonyos szűrők élsimítók stb. Ennyire nem akartam belemenni talán majd egy másik tesztbe.
X Facor: Köszi
-
Zorel
senior tag
válasz
#15779328 #7965 üzenetére
Akkor van szívás, ha valamiért úgy hal meg a kártya hogy integrált vga-ról sem tudod visszatenni az eredeti bios-t a garanciáztatás előtt, de erre azért kicsi az esély. Bár volt egy Giga 980Ti-m ami így halt meg, de ezen kívül még akkor is visszatudtam tenni a vbios-t mikor a kártya már képet sem adott.
Ahogy látom őt nem érdekli a garancia!
"i tried every bios i find on this forum aorus master evga ultra, msi trio, and finally asus strix"Csokilama: Igen, én is próbáltam 2x8pin-es kártyán pl az FTW bios-t de nem volt jó, viszont a Strix bios az jó pedig az is 3x8pines. Overclock fórumon kb az összes 2x8pin-es kártyán a Strix bios-t használják. A power monitorozás valóban bugos, de az órajelet tartják, fórumon ott vannak a bench eredmények. Kivéve az XC3, mert arra jó lett az új FTW3 450W bios.
-
-
-
-
Phoenixres
tag
válasz
#15779328 #7828 üzenetére
Ha olyan mentalitású az ember mint te hogy minden max legyen, akkor kb semmilyen vga nem elég. De az rt-t kicsit megkurtitva már is mindenhova elég a 3080 még 4k-ra is 60 fps felett azt már linkeltem ma. A techpowerupos srácok offolták az rt-t mindenhol. x db játéknál majdnem 100 fps átlag jött ki ezt mindenki lássa.
Csak hogy lásd mennyire pazarlod az erőforrását a kártyának egy példa. Crysis remastered can it run crysis rt mód, 60 fps körül fut wqhd-n. Tele van az anyahajó a hegyben tükröződő felületekkel, mig performance RT módban 14x stabil fpsem van. Az rt minősége minimálisan változott meg csak. Én álltgatom a 3080-al is a grafikát hogy bőven 100 fps felett legyek vagy 141 fps legyen a limitig amit beálltottam a gsync miatt. Nekem a high reflesh rate fontosabb mint a full max grafika. De szerencsére csak az rt-vel kell büvészkednem kicsit mert mindent bir, foleg hogy wqhdn használom.
-
Phoenixres
tag
válasz
#15779328 #7828 üzenetére
Ha kell az rt mindenhol akkor bizony várhatnál még pár generációt hogy elég legyen a kártya akkora felbontásban, amiben tolod. Quake 2 bizony full rt-s cim és wqhd-ben megy 60 80 fps körül. Még jó hogy a fejlesztők nem azt az irányt követik mint ami abban a játékban van.
-
Phoenixres
tag
válasz
#15779328 #7826 üzenetére
A te környezeted és a monitorod, főleg annak a felbontása más, a vak is látja ezt. Én is csak tényekkel jövök, és 4k-ban aa-t is adok a játékoknak igy teszteltem a far cry 5 öt ott is megvan az átlag 91 fps-em. Nem tudom mit akarsz ebből az egészből kihozni, miért nem veszel egy 3090-et akkor ha megteheted? Ott nem fogysz ki a vramból azokkal az értelmetlenül terhelő beálltásokkal amikkel tolod.
-
válasz
#15779328 #7719 üzenetére
OK, köszi!
Amúgy 32:9-ról írtam én is.
De közben választ kaptam a kérésemre, mert találtam egy játékot aminél nálam is működik! Wolfenstein Youngblood. Hibátlanul teszi a dolgát, 70-75 helyett simán van 120fps-em (RT-vel). Remélem, h a CP is támogatni fogja.
-=RelakS=-: Köszi, h ránéztél!
-
gabor0928
aktív tag
válasz
#15779328 #7717 üzenetére
Máshol ekkor differenciát nem mértem, egyedül division 2 alatt volt olyan hogy beállt 28-35 fps körüli értékre, egy gép restart után helyreállt. De nincs semmi CPU terhelés a háttérben.
Nem egy friss rendszer, lehet hogy csinálok egy Win reinstallt és megnézem úgy is.Arra azért számítottam hogy ezzel a procival nem kerülök a rekordok könyvébe, de azért ez akkor is nagyon alja...
-
-
X Factor
addikt
válasz
#15779328 #7556 üzenetére
Ezt hol olvastad, hogy ajánlott, mert én még nem találkoztam vele!
gsync/freesync vs vsync best practices, kereső szavak ajánlottak, de szólok előre, ha nincs kicsit mélyebb rálátás, akkor óvatosan a fórumokkal meg a subreddit találatokkal, mert sok esetben vak vezet világtalant jellegű diskurzus folyik a témával kapcsolatban.
G-SYNC + V-SYNC “On”:
This is how G-SYNC was originally intended to function. Unlike G-SYNC + V-SYNC “Off,” G-SYNC + V-SYNC “On” allows the G-SYNC module to compensate for sudden frametime variances by adhering to the scanout, which ensures the affected frame scan will complete in the current scanout before the next frame scan and scanout begin. This eliminates tearing within the G-SYNC range, in spite of the frametime variances encountered.
Frametime compensation with V-SYNC “On” is performed during the vertical blanking interval (the span between the previous and next frame scan), and, as such, does not delay single frame delivery within the G-SYNC range and is recommended for a tear-free experience (see G-SYNC 101: Optimal Settings & Conclusion).
https://blurbusters.com/gsync/gsync101-input-lag-tests-and-settings/2/ -
X Factor
addikt
válasz
#15779328 #7556 üzenetére
Szóval egy kis magyarázat következzen
MSI AB-ben az egyszerüség kedvéért és mert főleg magamnak raktam össze az OSD-t, a secenként mintavételezett avg cpu clock-t látni ott.
Ennek több oka van, egyrészt milisecenként változik a clock, amit szemmel egy OSD-n elég nehéz nyomon követni. Másfelől 24 szál van, amit ha egyszerre kirakok, szintugy nehéz nyomonkövetni, pláne h. a feladatütemezőnek hála, egységnyi load nem ugyanazon a szálon keletkezik, tehát még az sincs h. konzekvensen 8-16 szálat figyel az ember szeme.
Azon szálak esetén ahol a bf5 terhel, magasabb órajelre boost-ol a rendszer, 4500 körülre. Ennek átlagát rontja azon szálak alacsonyabb órajele ahol nincs terhelés.
Én meg azt veszem ami egységnyi pénzért, adott körülmények között az igényeimet és a felhasználási módokat jobban szolgálja és mellőzök minden spirituális dolgot.
A 73C soknak tűnhet, ha máshoz van szokva az ember, de itt teljesen normális hőmérsékletnek számÍt, nincs jelentősége.
"Csinálj már egy videót, hogy kikapcsolod a vsync-t és feljebb tolod a procit 5ghz-re, én mindig úgy vagyok hogy a több mindig jobb, inkább kapjon mint valami leszabályozzon, és ha kevesebb arra meg ott a gsync!"
Itt nincs 5ghz, és a klasszikus értelemben vett OC sem Így néz ki. No offense, teszt erejéig nyilvan meglehet ezeket csinalni, de minek semmi értelme. Pont azért van ilyen monitorom, mert nem akarom a szinkronizált range-n kivuli framek okozta anomaliakat nézni, ergo minden ami 144fps felett van, nekem csak rontja az élményt. Hiába néz ki egy OSD-n jól a nagy szám, miközben clunky lesz az egész.Jack@l Ha DXR-t benyomom, dlss menjen mellé, vagy anélkül érdekel?
-
X Factor
addikt
válasz
#15779328 #7550 üzenetére
Direkt leirtam, h. driverben gsync és vsync on. 144hz-es a monitor, afelett felesleges mennie. Ott látsz alacsonyabb gpu usage-t, ahol 144 fps megvan, de tudna többet, ezért nem kell 100%-on pörögnie.
3900XT-nél erősebb, kérlek
(Ha majd novemberben kapható lesz az 5900x)
NV gyári Shadowplay. Igy nem kell végre 3rd party tool.
A beépitett instant replay, régóta nagy kedvenc egyébként, még AMD-s karinál kezdtem el használni, ott is valami hasonló a fantázia neve. Mutlis játékoknál, végre megszünt a "most veszek fel, tehát ugyse lovunk semmi szepet vs uh de szep volt kar h. nem vettem fel effekt." Bevan allitva, egy percre és egy bill kombora, mindig kiirja az utolso percet.
vsync on: Mert ez a hivatalos ajánlás, ha adaptive refresh rate-l megáldott kijelződ van. Az ingame limiterek legtöbbször shutteringet okoznak. Az NV féle fast sync-es megoldás, meg jobb mint a semmi, de azért érezni, h. kiestél a 40-144 range-ből, ahol teljesen smooth tearing mentes gameplay-t kapsz. Plusz Gsync/Freesync esetén nem jelentkezik a vsync negativ input lag novelo hatasa. Hisz minden frame mindig szinkronban van a kijelzovel. -
lo_jo
senior tag
válasz
#15779328 #7454 üzenetére
A szlicium novesztes es a kazangyartas kb olyan relacioban lehet, mint a t34 es egy tesla. A partnerek csinaljak azt, ami a kazangyartas, “osszelegozzak” alkatreszekbol. De a samsung csak a kesz chipet adja, aminek a gyartasa a mai napig urtechnika az osszeszereleshez kepest.
Persze ez is sarkos leegyszerusitese a dolgoknak, mert a partnereknek sem trivialis, hogy itt a chip, itt a vrm, itt a ram es kesz, de kozelebb van a kazanhoz, mint a chip legyartasa. Az meg nem ugy megy, hogy a samsungnak leadott tervvel kopogtatunk a tsmc-nel, hogy ezt szeretnem 7nm-en. (Ami raadasul nem egy tenyleges meret, hanem egy viszonyszam)
-
likeaRAINBOW
senior tag
válasz
#15779328 #7437 üzenetére
azért egy kazán gyártást összehasonlítani egy 7 nm-es chip gyártással elég kemény imo
én voltam a komáromi Nokia gyárban, ahol több hét volt (hónap), amire egy új termékhez felhúztuk a komplett gyártósort, teszteléssel mindennel. És ott kész chipek voltak, "csak" fel kellett pattintani a nyákra az smd alkatrészeket.
-
#15779328
törölt tag
válasz
#15779328 #7187 üzenetére
Még annyit hozzáfűznék, hogy a 5120x1440 -es felbontáshoz kell az smaa4x!
Akinek van 32:9-es monitorja az látni fogja.(#7188) Találtgyerek:
50% felé nem nagyon mennek a ventik, gyári szabályozással nagyon halk, de így sem mondanám hangosnak, bemérem majd, elvileg valahol van eszközöm hozzá. -
PitLee
őstag
válasz
#15779328 #7110 üzenetére
Nem értek az SLI-hez, de e cikk alapján mintha reszeltek volna neki ?
PH cikk"Az AMD az előző év nyarán jelentette be, hogy az új Radeon RX 5000 sorozat már nem támogatja tovább a hagyományos CrossFire-t, míg az NVIDIA a tegnap kiadott új meghajtó mellett jelentette be, hogy vége az SLI-nek az Ampere architektúrára épülő GeForce-okon, és a következő év elejétől már a régebbi kártyákhoz sem adnak majd ki új SLI profilt, függetlenül attól, hogy az adott játék tudná-e támogatni a technológiát vagy sem."ű
Ui : közben tovább olvastam a cikket és nem ennyire borús a helyzet "van élet a halál után" -
KillerKollar
őstag
válasz
#15779328 #7036 üzenetére
Itt egy videó a Shadow of The Tomb Raider beállításairól részletesen, a linkelt timestamp-nél épp az AA-ról beszélnek.
Amit te használsz, az a SMAAx4, a táblázat azt mutatja, hogy mekkora performance hit-el járnak a különböző AA beállítások, SMAA T2x, TAA, SMAA, mind egymás nyakán vannak 1-2% a különbség, az SMAA x4 amit te használsz? 57%-os teljesítménycsökkenést mutat az SMAA Tx2-höz képest majd 62%-os teljesítménycsökkenést jelentett a sima SMAA-hoz képest is. Az úriember el is mondja a videóban, hogy egyrészt 4K-ban nem olyan fontos, hogy milyen AA-t használsz, másrészt az SMAAx4-et senkinek sem ajánlja mert látványban észrevehetetlen a különbség, még alacsonyabb felbontásoknál is, a performance hit viszont brutális, így nem meglepő, hogy szarul fut nálad a játék. Mivel senki nem használ SMAAx4-et 4K-ban, így sajnos direkt összehasonlítást nem találtam, hogy hogyan fut olyan kártyákon amin több a VRAM.Cod meg Assassin's Creed video-t engedjük el inkább
8x Supersampling az mekkora felbontásra is jön ki 4K-ról?
Assassin's Creednél is 8K-ra feltoltad, szóval igen, ezzel bebizonyítottad, hogy 8K-ra nem elég a kártya. Ki mondta, hogy az? 4K-ról volt szó.
Egy szó mint száz, jelenleg nincs játék ahol NATÍV 4K-ban (nem 8K-ra meg 16K-ra felskálázva) elfogyna a 10GB VRAM, olyan van, ahova nem elég a 3080 ereje sem 4K-ban max beállítások mellett, de ott a 3090 sem sokkal erősebb, pont azt a +10-15%-ot hozza mint máshol. Az, hogy 1-2-3 év múlva lesz-e senki sem tudja.
És hogy hogyan lehetne rövidre zárni ezt a vitát? Egyértelmű. Mutassatok egy összehasonlítást, ahol a Titan RTX veri a 3080-at 4K-ban ugyan olyan beállítások mellett. Kész. A 3080 az erősebb kártya, de a Titan RTX-en 24GB memória van, tehát ha a 3080 kifogy a memóriából, a Titan RTX-nek fel kell vele törölnie a padlót.
-
Zorel
senior tag
válasz
#15779328 #7099 üzenetére
Írtam, hogy nem tudsz az SLI-ről valamit is? "Olvass a sorok között!"
Jeleztem, hogy ezekre az igényekre alapból nem vettem volna 3080 10GB-ot, mivel Te megvetted, gondoltam segítek, hogy a 3090 jobb döntés lett volna, de lehet abból is inkább 2db azzal talán nem lennél csalódott.Kicsit kezdesz átmenni személyeskedésbe és ez nagyon nem tetszik szóval nem folytatom még mielőtt netes szájkarate lesz, lényeg, hogy te tudsz mindent ezért vagy csalódott én meg a fogalmatan.
Részemről ennyi!
-
Zorel
senior tag
válasz
#15779328 #7094 üzenetére
8K-ra eddig sem volt a 3080 ajánlott és nem is arról beszéltünk. Azt próbáltam jelezni, hogy a Te igényeidnek a 3080 20GB és a 3090 24GB sem felelne meg. Helyedben 3090 SLI-vel próbálkoznék, mert 4K-ba ilyen (többnyire értelmetlen) beállítások mellett, azzal tudnál megfelelő FPS számokat kapni. Illetve azzal már talán a 8K is élvezhető lenne.
-
Zorel
senior tag
válasz
#15779328 #7080 üzenetére
Abban igazad van, hogy 4K mellett is jól jön az élsimítás, de pl SoTR esetén teljesen felesleges az SMAAx4, már x2 is elég és úgy 8-9GB a VRAM igénye, de x4en már közel 10GB amit kér, de még nem fogy ki. Nem azért van 30-40FPS-ed mert nincs elég VRAM, hanem mert elfogy a GPU, 3090 esetén se lenne sokkal több FPS-ed pedig ott van 24GB VRAM.
-
ladyka
csendes tag
-
-
X Factor
addikt
válasz
#15779328 #7036 üzenetére
Szóval én nem tudom, hogy nálad mi megy félre, de Control-t pont most kezdtem.
Igaz 3440*1440, nem 4k, de 8m pixel vs 5m pixel nyilvan van kulobseg, de ekkora nem lehetne. Illetve pl a dlss miért nincs engedélyezve?
Teljesitmenyben iszonyatosna sokat hoz és direkt több pályarészen megálltam, h. a nativ vs dlss felbontas kozott latok e kulnobseget es nem. Mindezt ugy, h. ultra wide eseten nem reg sikerult kipatchelniuk, mikozben 3840*2160-ban mar regota remekul megy.
De, ha kell veszek fel gameplay-t, aztán felrakom yt-re. -
KAMELOT
titán
válasz
#15779328 #7036 üzenetére
Papa ez lezabálja a füledet is. Nem értem, hogy 2020/2021 kiadunk egy vgat aztán spórolnak a ramon. Így kéne kinézni.
3070..16gb
3080..20gb
3090..24gb
Megnéztem side-by-side a paramétereket. 2080ti vs 3080 és a 3080-javára a +Gpixel/s és Gb/s végett jobb a Fps.
Ha a CUDA-ból indulok ki, akkor meg 2x teljesítményt kéne kapni, de ez nem így van. Olyan mintha egy erősen tuningolt Ti lenne, kisebb hőtermeléssel. -
válasz
#15779328 #6391 üzenetére
Azért eddig eléggé szokatlan dolgokkal mérted basszus, de tényleg, nem csoda, hogy ilyen "szar" a kártya
AC: 200% Scale 32:9-be
Crysis: Hulladékul van megírva, nem véletlenül can it run crysis a max graf neve
Control: Szinter Microsoft Flight Simulatorral egy kaliber gépigényreMindenesetre itt is 3090 lesz a befutó, szóval abszolút megértem ha valaki azt választja.
-
gabor0928
aktív tag
válasz
#15779328 #6386 üzenetére
Ezt a kártyát 4K-ra tervezték, nem nagyobb felbontásra. 4K-n nem fogysz ki a ramból továbbra se, de az x2-es szorzó 4x-es pixelszámot jelent egyébként.
5120x1440 = 7 372 800 pixel
10240x2880 = 29 491 200 pixelPont azt mondtam hogy 8K- ultra mellett diavetítés van, erre már kevés a VRAM, nálad csak kb 7K-ra jön ki, így valamivel szebb az eredmény.
-
Devid_81
félisten
válasz
#15779328 #6356 üzenetére
Nah tessek mik ki nem derulnek.
2080Ti OC sacc per kb = 3080, parszor emlegettem mar, nem lepodtem meg (pont ezert marad az enyem nalam)
4K-ra keves, mint mondtam a 4K-hoz ezek a VGA-k sem feltetlen elegek, csak gondolj bele most talalsz olyan jatekot amiben kevesnek erzed, 2 ev mulva?Ezen se lepodok meg, en mondtam, hogy ez sem eleg 4K-ra, paran hulyenek neztek (kb a topik 95%-a)
Kifut a 10GB rambol?
Ezen sem lepodok meg, a 11GB-ot is latom elfogyni en is mar 2-3 jatekban (2560x1440-ben) akkor 4k?Vard meg az AMD-t, aztan ha a hirek igazak majd lesz Big Navi utan 20GB-os verzio a 3080-bol, bar eroben nem lesz tobb, viszont penzben tobb marad a penztarcadban.
A 3090 nagyon tulvan arazva ahhoz kepest amit tud, ha most csak a 10% amivel erosebb elfogadod es az neked mar eleg akkor legyen, de gondolj arra, hogy most vagyunk a generacio elejen.
Durvan 2 ev alatt mennyi uj jatek lesz innen kezdve amiben a +10% sem lesz mar eleg?
De legyen a Te dontesed, amit meg bevesz a gyomrod anyagilag, es a penztarcad is birja stb -
-
-
MPowerPH
félisten
válasz
#15779328 #6361 üzenetére
Azt megkoszonnem, mert tenyleg erdekel. Mar kerdeztem korabban is, leven nalam az ACC ReverB -vel 11GB VRAM -ot allokalt maganak, magyaran 3080 -al elvileg kifutna. 1080Ti -al is elvileg kifutott, de nem lett diavetites belole.
Szamomra ez rossz hir lenne, mert ez esetben vagy nekem is a 3090 -re kellene allokalnom a tarcamat, vagy megvarni, mig jon a 3080 20GB VRAM -al. Maga a GPU ereje szerintem boven jo, es eleg lenne, en is a memoria miatt aggodok, nem tul jovotallo.
Masodik lehetoseg az AMD lesz, de akkor meg a GSync miatt monitort kell cserelnem.DextyPremium: VR -ban siman latsz 10GB plusz VRAM hasznalatot. Ami persze nem valos, allokacio, nem tudni, abbol valoban mennyi kell neki.
Új hozzászólás Aktív témák
- Telefon felvásárlás!! iPhone 14/iPhone 14 Plus/iPhone 14 Pro/iPhone 14 Pro Max
- BESZÁMÍTÁS! Asus B450 R7 2700X 16GB DDR4 512GB SSD RTX 2070 8GB Rampage SHIVA Thermaltake 500W
- Szinte új, minőségi, állítható ritkítóolló
- Telefon felvásárlás!! Samsung Galaxy S25, Samsung Galaxy S25 Plus, Samsung Galaxy S25 Ultra
- Bomba ár! Dell Latitude E7440 - i7-4GEN I 16GB I 256SSD I 14" FHD I HDMI I Cam I W10 I Garancia!