Hirdetés
- sh4d0w: Én és a számítógép
- Luck Dragon: Asszociációs játék. :)
- sziku69: Fűzzük össze a szavakat :)
- Brogyi: CTEK akkumulátor töltő és másolatai
- Mr Dini: Mindent a StreamSharkról!
- D1Rect: Nagy "hülyétkapokazapróktól" topik
- Parci: Milyen mosógépet vegyek?
- gban: Ingyen kellene, de tegnapra
- sziku69: Szólánc.
- MaxxDamage: Vizes Laptop Hűtés? Lehetséges? Igen!
Új hozzászólás Aktív témák
-
joysefke
veterán
Javíts ki ha tévedek:
Minden hoston két virtual switchet hoztam létre. Az első a külső forgalomért felelt, ahol minden host és a tárolásért felelős storage VM-ek is külön IP-t kaptak.
Tehát ennek a switchnek voltak az uplinkjei és azokra állítottál be LACP-t
Ezen zajlott a GlusterFS cluster, vCenter és a többi VM kommunikációja is, amiket VLAN-ok segítségével szeparáltam el.
Tehát itt ment a management traffic, illetve storage traffic is, ha az adott hoston nem futott GlusterFS példány.
A második vswitch-en a storage VM és a hostja kommunikált. Mivel a második switchre kötött hálózati csatolóknál mindenhol ugyanazokat az IP-ket (192.168.1.1 és .2) vettem fel, ezért a cluster konfigurációnál egyetlen közös tárolónak látta a gluster clustert a vSphere.
Ennek a vSwitch-nek nyilván nem volt uplink-je (vagy legalábbis a fizikai hálózat nem switchelte a forgalmát), ezért futtathattál 4 darab VM-et ugyanazokkal az IP-kel.
Ha a hoston futott GlusterFS, akkor az a storage eléréshez mindenképpen az ezen a vswitchen levő interfészét használta és a GlusterFS belső interfészéhez (192.168.1.1-2) ment.
Ha a host olyan blokkokat akart olvasni, amelyek nem voltak rajta ezen a GlusterFS instance-on, akkor a hoston futó GlusterFS instance a másik hálózati interfészén keresztül lekérdezte a GlusterFS cluster megfelelő tagját
Jól értem?
Poor man's VSAN...
J.
Új hozzászólás Aktív témák
Állásajánlatok
Cég: Laptopműhely Bt.
Város: Budapest
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest