- Luck Dragon: Asszociációs játék. :)
- gban: Ingyen kellene, de tegnapra
- bitpork: Phautós tali a Balcsinál 2025 Augusztus 2 napján (szombat)
- droidic: Időutazás floppyval: A 486-os visszavág PCem-men
- Mr Dini: Mindent a StreamSharkról!
- Argos: Adjátok vissza a netet! - szeretnék elaludni!
- sziku69: Fűzzük össze a szavakat :)
- sziku69: Szólánc.
- D1Rect: Nagy "hülyétkapokazapróktól" topik
- Autódiagnosztika: a gyakorlatban
Hirdetés
-
LOGOUT
Sziasztok, udvozlunk mindenkit Magyarorszag legnagyobb VMware forumjaban!
Új hozzászólás Aktív témák
-
kraftxld
félisten
válasz
Panthera #4199 üzenetére
Egy host? Milyen hardver? Már az 5.x is elég régi
Igen, meg lehet csinálni.
Én épp most kaptam egy 4 node-os HP DL360 G5-os clustert, esxi 5.0-val. Ezer éve nem volt rajta frissítve semmi. Frissíteni vcenter 6.5 U1-re meg esxi 5.5re aztán így kihúzza amíg új vasat nem vesznek.
Belső vhd mentés meg micsoda? -
Üdv!
Esxi 4 -› 5 frissítés lehetséges a kezelt VM újrahúzása nélkül? Az a gondom hogy a friss Veeam nem tudja menteni licence probléma miatt. Alapból nincs bajom a jelenlegi esxi verzióval, csak ez a belső VHD mentés nem a legtutibb.
-
Próbáltam az hőmérséklet és egyéb érzékelőket belőni, de nem találtam rá működő megoldást. Viszont annál több olyan találat volt, aki küzd a problémával. Nálam ezt írja.:
This system has no IPMI capabilities, you may need to install a driver to enable sensor data to be retrieved.Próbáltam abba az irányba menni, hogy esetleg utólag telepítek a Delltől IPMI driver-t de erről nem sokat találtam... Lehet utólag telepíteni egyáltalán?
-
emre33
addikt
Sziasztok!
VMware Workstation Pro, SSD fut két Win7.
Melyik a jobb megoldás? Egy nagy vmdk fájl, vagy darabolt több fájl 2GB méretben?
jelenleg ugy hazsnáloml, hogy nem foglalja le az összes helyet, csak amennyit használt (Biztonsági mentés szemponjátból gyorsabb)
De ha figyelembevessszük az SSD írási élettartamát és a gp terhelését darabolt fájlokkal ugye jobban járnák?
vmware-vdiskmanager.exe segítségével (1-es paraméterrel) gond nélkül tudom ugye konverálni?
-
válasz
CsodaPOK #4187 üzenetére
Itt is hasonló célok vannak
De azért vannak fenntartásaim vele. Pl. most átállítottam vsan-ra a labort, ahogy feljebb említettem, és egyszerűen nem találtam meg a módját annak, hogy hogyan lehetne a scaleiot graceful módon leállítani
Az összesen kb. 1500 oldalnyi doksiban elég otthonosan mozgok már, de nem találom (mert nincs benne
) hogy hogy kellene lekapcsolni. És ez csak a jéghegy csúcsa.
Egyébként megvan a véleményem a HCI san-okról (főleg amikor mamut cégek akarják a meglevő all-flash valódi SAN helyett), de hát ez a trend, ez kell szeretni.
-
VSAN 6.6 esetén feltétlen LACP-znem kell, ha szeretném hogy 2x10G uplinket használjon? Találtam pár régebbi postot, amiben azt írják, hogy ha csinálok 2db vswitchet, 2db vmk interfésszel külön subnetbe, akkor szintén mennie kéne (hasonlóan ahhoz, mint amikor ugyanígy csinál az ember multipath iscsi-t). Viszont nem megy. Van rá valami megoldás, vagy mindenképpen vds+lacp kell?
-
válasz
CsodaPOK #4182 üzenetére
Állítólag ugyanazon a vason jobb teljesítményt nyújt, mint a VSAN.
Két hét POC-olás után most kezdtem el átállítani a környezetet VSAN-ra, szóval (remélem) ki fog derülni. Az biztos, hogy a ScaleIO elég meggyőző volt, mindenféle optimalizáció és tweak nélkül ki tudtam vele koppantani a 2x10G-s interfaceket olvasás esetén (64K random read, IOmeter-el generálva, cachek nélkül). Statikus 2.6GByte/sec-et mértem 60k iops mellett. Ez több mint 20Gbit, de úgy jön ki a dolog, hogy az iometert futtató host olvasott a local ssd-iről is. Magán a fizikai switchen 9.6Gbit-et mértem a két porton egyenként a többi host switchportjainak a kihasználtsága (3x2db NIC) pedig 30-33%-on mozgott eközben. A mért értékeket alátámasztották a hostok performancia chartjai is (network és storage adapter) illetve a ScaleIO beépített saját egyszerű toolja is.
Írásban sajnos gyenge a vas, így arról nem tudok érdemben nyilatkozni. Read-intensive SSD-ket kaptam hozzá, a google által fellelhető user benchmarkokat ki tudtam belőlük préselni ScaleIO-val is (500 Mbyte/s, 10-15k iops), de itt nem a SCIO volt a szűk keresztmetszet nyilván, illetve annyiból igen, hogy írás esetén nem tud annyira párhuzamosítani a device-ok között mint olvasásnál.
Sok esetben érezni rajta viszont, hogy még van vele dolga az EMC-nek bőven. A toolok pl. katasztrofálisak. 3-4 eltérő management felületen lehet támadni (vsphere plugin, javás kliens oldali gui, cli, stb..), és van amit csak itt lehet beállítani, van amit ott. Teljes agyhalál az egész néha. Cserébe egyéb területeken meg faék egyszerű, és józan paraszti ész alapján fejlesztett dolgok köszönnek vissza. Szóval kissé furcsa itt-ott.
-
Brenor
aktív tag
Sziasztok!
Nosztalgiából feltelepítettem a win98-at a Vmware-re és próbáltam régi játékokat rátenni, de egyik se indul el. Ezzel a programmal nem lehet régi dosos játékokat életre kelteni?
-
CsodaPOK
senior tag
válasz
kraftxld #4179 üzenetére
Állítólag ugyanazon a vason jobb teljesítményt nyújt, mint a VSAN.
Tud működni storage node only és HCI konfigurációban is. Licencelése TB alapú, sok esetben jobban jön ki, mint a VSAN, főleg mixelt környezetben. Dell eléggé nyomja mostanság.Amit én láttam belőle, az alapján egyszerűen konfigolható, elég rugalmas felépítésű. A riportolás, monitoring nem tűnt nagyon acélosnak a felületén.
-
válasz
kraftxld #4179 üzenetére
Nem, külön termék, az az állítás hogy from scratch kezdték el fejleszteni, se meglevő EMC se VMware kód nincs benne
Gondolom még a felvásárlás előtt indult, és nem akarják elkaszálni, mert jól teljesít, vagy a franc tudja, az is lehet, hogy mergelik majd a jövőben a kettőt, passz..
Annyiból másabb mint a vsan, hogy tud mixelt környezetben is működni. A backend (de a frontend is) futhat bármilyen kukás gépen (esxi, linux, windows támogatás van mindkettőre). Aztán ezek keresztbe-hosszába legózhatóak. Pl. natív linux backend node-okra tud csatlakozni esxi frontend, vagy fordítva, mindezt akár vegyesen. De ha tisztn esxi-k alá deployolod, akkor ugyanolyan HCI megoldást kapsz mint a vsan.
Legperverzebb felállás ami eszembe jut: egy vSphere clusterre telepített ScaleIO szolgáltat datastore-okat a magának a vSphere clusternek meg mondjuk a szomszéd rackben levő Hyper-V-nek is. És ha esetleg a Hyper-V hostokban van disk, akkor azt is be lehet tolni, mert a backend komponensek telepíthetőek rajuk is, a ScaleIO meg nem tesz különbséget a között, hogy milyen OS van a nodejai alatt. Szóval elég beteg, de ugyanakkor érdekes is.
-
EMC ScaleIO-val nem játszik véletlenül valaki? Laborkörnyezetben tesztelgetem a 2.x-et, ha esetleg van másnak is tapasztalata akár POC akár éles környezetben, akkor megoszthatnánk a tapasztalatainkat.
-
válasz
MrSealRD #4175 üzenetére
Egy kábelre mehet nyugodtan a két diszk.
Miután rákötötted azért nem árt egy RAID tömböt létrehozni
Command linera meg ott van a hpacucli
Firmware update szintén command line
Annyit tennék hozzá hogy én kb így csinálom (nem kell a gui-val bohóckodni)
Persze keresd meg a legújabb verziót#Smart Array update 4.68 (10 Sep 2013)
cd /tmp
wget http://ftp.hp.com/pub/softlib2/software1/sc-linux-fw-array/p46370071/v89724/CP021157.scexe
chmod +x ./CP021157.scexe
./CP021157.scexe -
Még egy béna kérdés sorozat.
Nem csináltam ilyesmit eddig. Szóval veszek miniSAS - SAS / SATA kábel(eke)t. Ha 2 lemezt használok akkor van különbség hogy 1 kábelt veszek és annak 2 ágát használom fel, vagy és így a kártya egyik portját használom fel, vagy a két portra külön kötöm a lemezeket?
Rákötöm a két lemezt, és ESXI kap egy restartot, akkor várhatóan magától telepít driver-t vagy külön kell beadni neki?
FW update lehetséges ESXI alól vagy kell valami Win-es guest?
-
-
Milyen vezérlőt ajánlotok RAID1 tömbhöz ha fontos az ESXI kompatiblitás?
2x2TB lemez lenne rákötve, otthoni környezet saját célra. Backup lesz róla külön. Ami fontos, hogy ár/érték arányban jó legyen és gyors. -
almi
senior tag
Szia!
Köszi, viszont ehhez le kell állítanom a vm-et, amit nem szeretnék.
Egyébként a Template/Export OVF Template menüben találtam hasonló opciót, erre gondoltál?
Mert ezzel is csak a datastore-ra tudok ilyen templatet csinálni, amit utána még le is kell töltenem.
VMware vSphere® 6.5-öt használok web client-el, de sajnos nem találtam ilyen opciót- hogy export to OVA. -
almi
senior tag
Sziasztok!
Van arra valami egyszerű és nagyszerű megoldás, hogy egy remote esxi hostról tudjak klónozni egy VM-et a saját esxi hostomra? Site-to-site VPN-en keresztül szeretném mind ezt, szóval a láthatóság meg van oldva.
Létezik erre valami nagyszerű megoldás, vagy csak simán kezdjem el letölteni a datastoreról a letöltendő vm mappájából a fájlokat, majd másoljam fel a saját datastore-omra és vegyem fel az inventoryba?
Ha ez a megoldás, akkor a letöltést meg tudom csinálni úgy, hogy fut az adott vm, vagy először ott a remote hoston kell klónoznom a gépet és úgy letölteni a fájlokat? Ha jól tudom, klónozni lehet futás közben is.Köszönöm!
Üdv.,
almi -
Henrico
tag
Segítségeteket kérném.. adott egy virtuális XP és az alá szeretném bemountolni a fizikai USB-s FDD-t, DE akárhogy varázsolok, mindig B: lesz belőle..
Mi a megoldás? Köszi! (A: kellene) -
Köszi a válaszokat, egyelőre kísérletezem. nVidia karival FLR gondok lehetnek (guest shutdown esetén simán magával rántotta az egész hostot szép rózsaszin halál formájában), de az /etc/vmware/passthru.map-ba ezt beillesztve úgy néz ki megoldja.
10de 1b81 d3d0 false
10de 10f0 d3d0 falseKicsit nagyobb az overhead mint KVM esetén, de nem vészes. És USB3.1-es portot még nem szereti, mert állandóan azt mondja, hogy függősége van és indítsam újra a hostot, de újraindítást követően is ugyanez a gondja. A VMkernel.Boot.disableACSCheck=TRUE elvileg ezt is orvosolja, majd megnézem.
-
Sziasztok,
Van egy kis gondom, Ti biztos tudtok segíteni.
Kb. 5 éve van itthon egy Dual Xeon E5-2680 Supermicro server 128GB ECC-vel. Ezen jelenleg is KVM fut, az utóbbi 3 évben már Proxmox alatt. A VM-ek főleg FreeBSD, Linux, MacOS és W10 ill. egy W2016 server. Ez amolyan allinone szerver, mert ezen van a desktop is PCI passthrough-val átadva a VGA/WIFI/USB portok stb.
Semmi gondom vele, jól működik.Sajnos már nem a legújabb a hardver és szeretnék használni NVME SSD-ket USB 3.1-et és jó volna erősebb CPU is. Ezért tavaly amikor megjelent, vettem egy AMD Threadrippert Gigabyte X3999 Designare alaplapoban egyelőre van 64GB DDR4. Erre szeretnék majd áttérni. Sajnos a kezdeti próbálkozások a KVM-el elég csúfosak voltak, mert a PCI passthrough nem ment vele (biztos Ti is ismeritek a történetet, AGESA patch-ek) és azóta sem sikerült teljes megoldást találni, pedig rengeted féle képpen próbálkoztam, még Xen felé is tettem egy próbát, de az a guest UEFI támogatás hiánya miatt végül kuka lett.
És itt jön a képbe a VMware, amit elég jól ismerek, mert munkahelyen azt használjuk már pár éve kb. 400 guest egy 6-os clusteren, de eddig úgy gondoltam, hogy ez otthon ágyúval verébre kategória. Hát úgy néz ki nem maradt más választásom, mert már meguntam a Linux KVM tökölődést és nem látom az alagút végét. (Eddig úgy néz ki, hogy az AMD VEGA-val megy a PCI passthrough de elég labor körülmények között).
Szóval teszt jelleggel felraktam a legújabb ESX 6.5 szervert, alá a VCSA-t.
Na ezzel kapcsolatban lenne pár kérdésem:
1. ESXi alatt mi a szokás HT on vagy off? KVM esetént én kikapcsoltam, mert desktop alatt látható kisebb lagokat és performencia vesztést okozott.
2. Egy 1TB-os HDD-t próbáltam RDM-el hozzáadni a W10-hez, de nem sikerült. vmkfstool-al megcsináltam konzolon a linket,, de amikor hozzáakartam adni, akkor hibaüzit kaptam (sajnos nem írtam le mi volt az, de majd újra megpróbálom és leírom). Bár ez a módszer a 6.0-val még emlékszem, hogy működött.
3. VGA kártyák PCI passthrough-val van valakinek tapasztalata? Újabb Nvidia (GTX-1070) és AMD (RX-480) karik mennek gond nélkül? Vagy kell valami trükk, hogy windows alatt működjenek ezek?
4. USB bill/egeret oda lehet adni VM-nek? Szokott ezzel gond lenni? Pl. elveszti a kapcsolatot ez egér?
5. MacOS támogatással hogy áll? Mert VM deploy-nál ott van a lehetőség, de még nem próbáltam.Egyelőre ennyi, biztos lesz még kérdésem. A cégnél nem használunk semmi ilyen különleges dolgot, ott többnyire csak linux és windows szerverek mennek, azokon meg semmi extra dolog nincs beállítva.
-
Rocko007
aktív tag
Sziasztok,
Lenne egy esxi 6.5 free home lab szerverem. (HP ML310e Gen8) ugy nez ki, hogy lesz egy felszabadulo m2-es SSD-m, ami egy riser card segitsegevel tervezek beepiteni a vasba. DAS van alatta ami egy LSI 9260-8i + BBU + cachecade 2.0&fastpath kartyan log 6x4 TB WD RED RAID6-ban es 2x EVO 850 RAID RW cache-nek. Az m2-es SSD-t VM szintu read cache-nek tervezem, otthoni, laborozos kornyezetben van-e ertelme illetve lehetne-e hasznalni?
-
válasz
Panthera #4147 üzenetére
Ha nincs beállítva Memory reservation, akkor létrehoz a datastore-on egy a VM memóriaméretével megegyező méretű .vswp file-t.
Ha van reservation, akkor a VM memóriamérete mínusz a reservation a méret.
Értelemszerűen ha a teljes VM memóriát reserved-re állítod akkor nem lesz .vswp file.
Mondjuk akkor meg nincs TPS meg ballooning szóval ezt csak végszükség esetén. -
Üdv!
Egy teljesen új vm-et akarok elindítani, de ezt a hibaüzenetet kapom:
"Insufficient disk space on datastore".A vason egy datastore van, amelyen ez lenne a 2. vm. Utóbbira még semmi nincs telepítve, ezért nem értem, hogy mi baja van. Van ötletetek?
-
hzcs
senior tag
válasz
kraftxld #4138 üzenetére
Vagyis ha jól értelek, akkor a lemezképfájlt kellene mentenem, a vmdk-t? Azt hol tudom beállítani? VCenterben?
Jelenleg cobiannal megy a mentés inkrementális módon. Valószínűleg nem ez a legjobb megoldás, ha tudtok jobbat (ami nem külön licences), ne tartsátok visszaAirlac: nem volt pontos fogalmazás a nagy adat
sok adat, több terabájt, amik között találhatóak több gigás videóállományok és pár kb-os word doksik is.
-
hzcs
senior tag
HP P2000, 2 darab HP MSA2040 tálcával. Elvileg tud VAAI-t, de hogy be van-e kapcsolva, nem tudom. Akik telepítették, úgy emlékszem kikapcsolták a vmwareben, mert az esxi 5.5-ben javasolják a kikapcsolását, de amikor 6-ra frissítettek, nem tudom visszakapcsolták-e.
A storagen nem közvetlenül az adat található, hanem a vmware fájljai, a virtuális diszkekkel. Amikor egyik vm-ről másolok egy másik vm-re, ami ugyanazon a fizikai gépen van, akkor a storagen az egyik vmdk-ból kerül egy másik vmdk-ba, ezért írtam, hogy a sebesség a storage sebessége. (ingadozik, maximum 2 gigabittel szokott menni feladatkezelőből mérve)
Hogy/mit: felhasználói adatokat fájlszinten biztonsági másolatként.
-
Nem fog a VDS segíteni. Hogy/mit másolsz? Milyen az a storage? Tud VAAI-t?
"Ha pl. az 1-es szerveren futó vm-ről másolok a szintén 1-es szerveren lévő, ugyanabban a VLAN-ban található szerverre, akkor a sebesség a storage sebessége."
Nem, ilyenkor nem hagyja el a gépet az adat, "memóriába" másolsz, ezért.
-
hzcs
senior tag
Helló!
Adott 6 darab fizikai szerver, ESXi 6-tal (Vsphere 6 standard), és Vcenter. A gépeken 4 fizikai hálókártya van, valamint egy 3 tálcás storage, amin az adatok vannak (az ESXi sd kártyán).
Több virtuális szerver van, valamint a vcenterben több VLAN-t állítottam be.
Ha pl. az 1-es szerveren futó vm-ről másolok a szintén 1-es szerveren lévő, ugyanabban a VLAN-ban található szerverre, akkor a sebesség a storage sebessége. Viszont ha egy másik fizikai gépen lévő, de ugyanabba a VLAN-ba tartozó gépre, akkor a sebesség a switch sebessége (gigabit). A kérdésem az lenne, hogy megoldható-e valahogy, hogy ilyen esetben se menjen az adat át a fizikai hálókártyán, hanem egyből a storagen történjenek a változások? A fizikai szerverek üvegszálon csatlakoznak a storagehoz 8 gigabites sebességgel.
A Vcenterben a VLAN-ok virtual switchben vannak beállítva. Elképzelhető, hogy Distributed Switchet hozzáadva már így működne az adatcsere, ahogy elképzeltem?Köszi!
-
-
almi
senior tag
Köszi! Igazából a cél az az lenne, hogy külön tartományból kapjanak IP-t a VPN-es userek.
Bele kell, hogy lássanak a másik subnetembe, csak ne abból kapjanak IP-t.Ha VLAN-ozok, akkor elegendő csak a 2. subnetet egy VLAN-ba tenni, vagy a LAN subnetemet is egy másikba kellene? Vagy az maradhat VLAN nélkül a többi 3 portgroup-on?
-
almi
senior tag
Sziasztok!
Van egy esxi hostom egy uplinkkel, ami egy mikrotik routerre van kötve.
Van egy vSwitch-em az esxi-n 4 portgroup-al. Egyelőre minden portgroup-on lévő VM ugyan abban a subnetben van.A kérdésem az az, hogy ha csinálok a routeren egy 2. subnetet, akkor tehetek-e különböző portgroup-ra ebből a subnetből VM-eket csak úgy simán, vagy külön külön VLAN-okba kell megcsinálnom a subneteket és úgy beállítani a VLAN ID-ket az adott portgroup-oknak?
(Egy OpenVPN szerver lenne külön portgroupban static IP-vel a 2. subnetben.)
Köszi!
Üdv.,
almi -
Thusor
őstag
Van egy HP Workstation Z600-as gépem amiben két darab Intel Xeon X5650 processzor, Nvidia GT 1030 és Nvidia GTX 1050 TI videókártyák vannak. A processzor támogatja az Intel VT-x, VT-d, EPT virtualizációs technológiákat. Az operációs rendszer egy Windows 10 Pro. Az lenne a kérdésem, hogy lehetséges-e windows 10 Pro rendszerre feltenni egy VMware Workstation Pro-t amin egy Ubuntu linux futna VM-ben és elérné az Nvidia GTX 1050 TI videókártyát CUDA programozáshoz? Tehát fizikailag hozzáférhetővé válhatna e a VM számára a videókártya? Nvidia GT 1030-as kártya csakis a videó megjelenítésre dedikált kártya a windows rendszeren.
-
bugizozi
őstag
Nem az enyém hanem a zügyfélé
Végül segített ez a leírás, sikerült megcsinálni: VPX_TEXT_ARRAY table growing in size causes the vCenter Server database to run out of space (2005333)
Annyi, hogy amit itt írtak SQL parancsot, azt még ki kellett egészítenem. A teljes táblában 600k sor volt, azt nem tudta egyszerre törölni, mert megtelt a transaction log fájl. Így darabokban töröltem. Megnéztem, hogy a TYPE_ID oszlopban kb 4 féle szám szerepel felváltva, így le lehetett bontani a táblát több 100k-s sorra, és így már lefutott a törlés, nem telt meg a log fájl. (a parancs végére én biggyesztettem oda az " AND TYPE_ID=3" részt.
DELETE FROM VPX_TEXT_ARRAY
WHERE NOT EXISTS(SELECT 1 FROM VPX_ENTITY WHERE ID=VPX_TEXT_ARRAY.MO_ID) AND TYPE_ID=3Persze minden törlés után shrinkeltem a log fájl.
-
bugizozi
őstag
válasz
bugizozi #3448 üzenetére
Sziasztok!
Megint betelt a vCenter 5.1 adatbázisa. Itt már egyszer megcsináltam, hogy az eventeket csak 30 napig tartsa meg: [link]
Átnézve az adatbázist, a VPX_TEXT_ARRAY tábla túl nagy, majdnem 3 GB.
Megpróbáltam azt kipucolni, de nem futott le amit itt írtak [link] Hibaüzenet: megtelt az SQL transaction log. 500 MB-ra volt állítva, átállítottam 2 GB-ra, akkor is megtelt.
Megpróbáltam kézzel törölni sorokat a táblából, de arra meg timeout-ol.Van valakinek esetleg ötlete még, hogyan lehet csökkenteni az adatbázis méretét?
Köszönöm!
ps: Windows Server 2003-on fut és SQL2005 Express van alatta.
-
kraftxld
félisten
Ez nem rossz ötlet, még át kell matekozzam.
Ebben az esetben 64GB-os memóriamodulokat kell használni, meg alacsonyabb lesz az alap GHz turbo nélkül. De sokat lehet fogni a licenszeken.
Ráadásul később lehet, hogy a mocskosrohadékrablótolvajakarom mondani, nagyon kedves és mindenben főleg licenszelésben rugalmas Oracle cucc is fog rajta futni.
-
válasz
kraftxld #4115 üzenetére
Ez két procit jelent gépenként? Nem lenne jobb egy proci és mondjuk 16 core+HT? Az egy licensz mínusz per gép.
8:1 v/pcpu körüli arány nálunk még panaszmentes. VSAN-nak nincs túl nagy + igénye, inkább csak a HDD/SSD meg a HBA típusokra figyelj oda hogy HCL-en legyenek. -
Helló!
Köszi a választ.
Ne értsd félre nem kötekedésből írtam, de ugye én mind az esxi üzemeltetéssel mind a xpenology-val most ismerkedem. Így kb minden betűt komolyan veszek egy olyan leírásból amit többen is ajánlanak. (Xpeno topikban keresgéltem és téged linkeltek.) Ott meg ezt olvastam: Az így létrehozott RDM diszk ugyan nehezebben készíthető el, de jobb teljesítményt ad. Miközben lemezköltöztetés nincs említve... Ezért kavarodtam be egy kicsit. Ezt olvasgattam közben még. Pár dolgot sikerült helyretenni.
A videót később megnézem még.
-
kraftxld
félisten
-
válasz
kraftxld #4115 üzenetére
Szerintem ez úgyis csak akkor fog kiderülni ha már látod a valós terhelést. De ha feltételezed, hogy oversized vm-ek vannak vcpu téren, akkor az 1:10 arány valóban nem vészes. Egyébként meg el kell tőlük lopkodni, még örülni is fognak, ha úgy jön ki a lépés, hogy az eddigi elkúrt config (túl sok vcpu) felszámolása miatt gyorsul az adott vm
-
kraftxld
félisten
A mostani Xeon Gold és tsai procikkal van valakinek tapasztalata, hogy milyen pCPU / vCPU arányt lehet elérni?
Röviden a sztrori, VSAN-t tervezek egy helyre a meglévő szedett-vedett raklapnyi HP G8 és mindenféle szir-szar SAN helyére.
Amit most tudok:
- Valszeg nagyon sok VM-nél túl sok CPU-t adtak neki.
- Minimális infó a korábbi CPU load-ról
- Ha összeszámolok mindent és elég nagy ráhagyással a fizikai vasakat is amit virtualizálni kell akkor 964 vCPU-nál tartok.
- 2 db Xeon Gold 6134 (8 core / 16 thread per CPU) lenne egy-egy Dell R740-ben, 768GB ram mellett.
- 6 host-al számolva, ez kb 1:10 arány, és rájön még a VSAN meg az NSX terhelése. Szerintem annyira nem gáz -
Közben kipróbáltam és kiderült, hogy össze voltak kuszálva a dolgok. A HDD-n egy teljesen másik ESXI volt, de az indult el ami a pendrive-on volt... Viszont a HDD-t ha lehúztam akkor nem indult a pendrive-os verzió. Így újra telepítettem ezúttal csak a pendrive volt a gépben...
Most mindkét HDD datastore-ként van felvéve. Viszont törölni akartam őket és nem engedi. Azt írja hibaüzenetnek, hogy használatban van. Ami kb lehetetlen mert ez egy teljesen friss telepítés. Se VM se semmit nem csináltam még. Se unmount, se delete nem megy. Ugyanaz az eredmény. -
Én meg eddig ezt vettem alapul, ezért kezdtem RDM irányba gondolkodni. De közben már máshol is látom, hogy ez totál tévedés.
Van viszont egy másik dolog amit nem tudok hová tenni. Egy 16GB-os pendrive-ra van telepítve az ESXI. Alapból volt még a gépben egy 320GB-os HDD. Ez utóbbi pedig így néz ki. Ezt a lemezt törölhetem anélkül, hogy lepukkanna a rendszer?
-
bpx
őstag
válasz
MrSealRD #4103 üzenetére
Szerintem semmit nem kell csinálni vele, jó lesz. Legalábbis én nem csináltam.
Nálam csak azért van rajta partíció, mert 2 darabból mdadm raid1-t csináltam, és az mdadmnek nem direktben a hdd-t adtam oda, hanem annál picit kisebb partíciót, hogy ha esetleg valamelyiket cserélni kellene, akkor ne legyen extra munka azzal, hogy pár byte-tal kisebb a csere hdd.
Ezt a raid1 tömböt már a vmware előtt is használtam, RDM után pedig guesten belül élt tovább, szóval megmaradt minden adat.
-
Végül sikerült megoldani. A VMware oldaláról már engedte letölteni az Update1-es ISO-t. Azt leszedtem és újratelepítettem. Ezután a maradék pár frissítést SSH-n feltettem kézzel. De az első hiba jelenség itt is megjelent, csak újabb verziójával ennek a csomagnak. Azt ugyanúgy sikerült megoldani mint az előző alkalommal. Végül felment az utolsó build is. Friss ropogós ESXI megy...
Egyébként a hiba ami megakasztott kapcsolatban van azzal, hogy egy pendrivera van telepítve és az usb driverrel volt probléma...
-
Hát ez annyira mégsem sima ügy. Most az Update 1 telepítésénél rohadt le a folyamat.
Ez jött ki nálam is. A végén ugyan van megoldási javaslat, de nálam nem működik.
Új hozzászólás Aktív témák
- Windows, Office licencek kedvező áron, egyenesen a Microsoft-tól - Automata kézbesítés utalással is!
- Assassin's Creed Shadows Collector's Edition PC
- ROBUX ÁRON ALUL - VÁSÁROLJ ROBLOX ROBUXOT MÉG MA, ELKÉPESZTŐ KEDVEZMÉNNYEL (Bármilyen platformra)
- Eladó Steam kulcsok kedvező áron!
- Windows 10/11 Home/Pro , Office 2024 kulcsok
- Ventillátorok és tápkábel modding kitűnő árakon! Most extra 10% kedvezmény!
- HIBÁTLAN iPhone 14 Pro 256GB Deep Purple -1 ÉV GARANCIA - Kártyafüggetlen, MS3014, 91% Akkumulátor
- Microsoft Surface Pro 6 i5-8350U 8GB 256GB 1 év garancia
- LÉZEREZÉS! külföldi billentyűzet magyarra kb. 20-30p alatt!
- Xiaomi Redmi Note 10 Pro 128GB, Kártyafüggetlen, 1 Év Garanciával
Állásajánlatok
Cég: FOTC
Város: Budapest