- Út Korea turistaparadicsomába, amiről talán még sosem hallottál: Csedzsu-sziget
- Perplexity Pro AI képszerkesztési limit -egy képgenerátor függő tapasztalatai
- Adattár lemez előkészítése távlati Windows telepítéshez
- Jelszóvédett IBM Thinkpad R50e működőképessé tétele.
- ATK Blazing Sky X1 Ultimate Metallic Red gamer egér
- sziku69: Fűzzük össze a szavakat :)
- sziku69: Szólánc.
- Gurulunk, WAZE?!
- Luck Dragon: Asszociációs játék. :)
- D1Rect: Nagy "hülyétkapokazapróktól" topik
- gban: Ingyen kellene, de tegnapra
- gerner1
- GoodSpeed: Perplexity Pro AI képszerkesztési limit -egy képgenerátor függő tapasztalatai
- ubyegon2: Airfryer XL XXL forrólevegős sütő gyakorlati tanácsok, ötletek, receptek
- sh4d0w: Árnyékos sarok
-
LOGOUT
"A Proxmox Virtual Environment (röviden: Proxmox VE, PVE vagy proxmox) egy szerver virtualizációra optimalizált nyilt forráskódú Debian alapú Linux disztribúció. Lehetővé teszi a virtuális gépek és konténerek egyszerű telepítését és kezelését web konzol és command line felülettel. A programcsomag két LXC és OpenVZ konténerek, valamint a KVM alapú virtualizáció kezelését támogatja" (Wikipédia)
Hivatalos oldal: https://proxmox.com/en/
Hivatalos fórum: https://forum.proxmox.com/
Backup center, mail gateway, proxmox hypervisor és datacenter letöltés: https://enterprise.proxmox.com/iso/Véreshurka hozzászólásából
Új hozzászólás Aktív témák
-
Pista0001
addikt
Az enyém is tud wifit is, de az nekem nem szimpatikus. van pár készülékem anélkül, szóval a kábeles megoldás nekem univerzálisabb. De amúgy usb-n sem a háziszerverre dugnám, hanem a routerre, szinte mindnek van printer servere, és erre (is) használható usb portja. Épített routerrel nyilván más a helyzet.
-
nemurea
aktív tag
Köszi mindkettőtöknek! Nem célom a túlkomplikálás, ezért is kérdeztem, mert láttam, hogy a végtelenségig lehet fokozni. Nálam is van samba és most gyorsba' NFS is (linux-linux között, ahogy írtad). Valóban az LDAP jött szembe, még a neve is bizalomgerjesztő (Lightweight...), azt körüljárom. Az elsődleges cél tényleg az, hogy ha be akarok lépni bármelyik gépemre vagy a szerverre, akkor ne kelljen saját magamat, a normál useremet minden gépen külön regisztrálni és karbantartani. Ugyanúgy ha a család más tagja teszi meg ezt (háh, távoli célok), akkor ugyanez legyen. Kb. ez az idea, majd formálódik a folyamatban.
-
-
Pista0001
addikt
A mini-itx topicban keress rá a hsz-aimra, B550+5600g-vel szívtam, úgy rémlik, leírtam végül, mi volt. Úgy 1,5 éve talán. Vagy 2,5...
Szerk.: Most látom a másik hsz-odat. Fura, nekem a felülírott konfig pico 160XT-ről megy, ami meg egy 12 V 10 A-es kockáról. Nálam amúgy indult, csak képet nem adott, úgy rémlik, de az is valami ismertebb bug talán.
-
danih
veterán
Lehet, nem tudom. Ezt a scriptet használtam.
Proxmox 9-ben kicsit megváltozott, hogyan mutatja a RAM használatot, emiatt gondoltam felrakom - nincs amúgy nagy szükségem rá, mert elvan a rendszer, IP címekre meg emlékszem -
Pont ez idegesít. Minimál angol tudással, egy kis virtualizációs tapasztalattal (nálam Hyper-v Windows alatt) mellett egyérteműen használható, kis buktatókkal és utána olvasással.
És akkor ott van ez a "resize", igen most rákeresve sokan szencségelnek.
Na mindegy, ha a tinik leszakadnak a netről, akkor rendbe rakom a dolgot. Lesz vagy 15 perc. -
Lecseréltem a VM-ben az ISO-t egy frissre, adtam hozzá mégegy 128 GB-s lemezt. Arra újratelepítem és kész. Abba visszatöltöm a confot, így az interface-ek is rendben lesznek.
A Proxmoxban nevezzék át a resize disket, mert szerintem az oda-vissza méretezést jelent.... nem csak növelést. -
OPNSense. És 128g-ről indult, arra lett telepítve. Az betelt a logok miatt, gondoltam megnövelem. Aztán rájöttem, hogy a partíció kiterjesztése nem olyan egyszrű, gondoltam visszaállítom. Azt nem fifyeltem, hogy a resize disk menünél megadott érték, az nem a diszk mérete, hanem az az érték, amivel növelni szeretném, na így hizott tök fölöslegesen majdnem 1 TB méretre. Úgy különben az utolsó backup az OPNSenséről 12.34 GB.
Egy 1 TB-os SSD van a gépben a rendszernek és a VM-eknek. -
danih
veterán
mi a vm hw beállítása?
Mármint azzal kapcsolatban, amit írtam? Nem VM, LXC - ez a jó hogy sima device passthrough elég hozzá, nem kell GPU passthrough.UserFriendly ThinClient van, ezt egy rendszergazda/support polgár csinálja, minimál, csak login screen van, meg freerdp beállítások.
Amit én írtam alant azzal ez nem kompatibilis mert ehhez böngésző kell, freerdp-hez az rdekstop megoldás passzolhat, vagy sima VM -
danih
veterán
Lehet a legjobb megoldás egy modernebb CPU lenne, manapság a videók youtube-on vp9-et és av1-et használnak amit hardveresen nem hiszem hogy tud vinni egy régi proci...
Frigate-nek talán jobb a dedi, veszel valamit olcsón ami keveset fogyaszt, és ha váltani akarsz, mondjuk egy 12th gen intel-t oszt szétdobod a GPU-t SRIOV-val ahova akarod (VM, lxc)... Két GPU-t tuti nem raknék be, második a Win-nek totál overkill ha nincs játék. -
tasiadam
Topikgazda
Leeht szétosztani mezei kártyákat is, meg újabb intel iGPU-kat is lehet már virtualizálni. 12.gentől fölfele tudják. GT1030 szétosztva elég harmatos lenne. GT1050 meg sokat kajál. akkor inkább egy iGPU + egy P400 vagy vmi hasonló kaliber. Passthru is lehet, meg lehet split is. De ha splitet akarsz, T1000 alá nem mennék.
-
Kurrens
tag
A privileged-et az NFS miatt csináltam. Elvileg minden Samba beállítás megvan, tasiadam leírása alapján csináltam. A chmod is megvan. Az nem lehet gond, hogy a user és a könyvtár neve ugyanaz?
Régebben is csak guesttel tudtam összehozni a dolgot, de próbálnám szofisztikáltabban megcsinálni.
-
danih
veterán
Szerintem tudja az a quicksyncet vagy hogy hívják, h264-et biztos.
Érdemes akkor megpróbálni továbbítani a két eszközt amit írtam, kell hozzá a GID az LXC-ben: card0-nak a video, renderD128-nak a render groupok száma.
Aztán dockerben a konténereknél és hozzá lehet adni hogy
devices:
- /dev/dri:/dev/dri
vagy valahogy így, firgate docker doksiban kell nézni, lehet hogy a renderd128-at kell direktben
Aztán hoston: intel_gpu_top és mutatni fogja hogy használja-e a hardveres gyorsítást amikor megy a stream -
-
v.attis
őstag
Közben kiderült, hogy az usb keretem nem küld semmilyen, vagy nem küld szükséges adatot a Proxmox számára, hogy leálljon, vagy leállítsa a hdd pörgését. 2 nap alatt mindent kipróbáltam, de még az állapotot sem tudja lekérdezni.
Mivel 2 ilyen hdd-m van, arra gondoltam, ha már veszek valamit, akkor miért ne vennék olyan usb (raid) házat, ami minimum 2 hdd-t fogad. Ami a különbség, hogy nekem a raid nem kell, így a jó, hogy külön látom és kezelem a hdd-ket.
Tudtok olyat ajánlani, ami:
- minimum 2x2,5" usb-SATA ház,
- raid nem kell,
- változatlanul hagyja a hdd-k sorozatszámát, mivel az alapján vannak mountolva a hostra,
- tudja a spindown-t és ehhez szükséges állapotot is át tudja adni a proxmoxnak.Chat gpt ezt ajánlotta:
[link]
meg ezt:
[link]
Ha van nálatok bevált eszköz, szívesen veszem a javaslatokat. Még annyi, hogy itthoni rendszerre kell, nem szükséges ipari-irodai minőségűnek és árazásúnak lennie. -
v.attis
őstag
Látom, Te otthon vagy a témában, kérdeznék még.
Van két hdd-m külön usb keretben: média és backup hdd.
A média hdd leáll pihenni, de a backup nem. Pedig a mentések éjszakára vannak beállítva, illetve macbook timemachine óránként, de most direkt kikapcsolták rendesen, hogy ne mentsen. A lényeg, hogy nappal, szinte mindig aludni a kellene, de ez pörög.
Proxmox előtt csak home assistant volt a gépen, akkor elment aludni, ahogy kell.
Erre van ötleted? Gyakorlatilag egy napon belül kb 23 órát állhatna.
A hdd-k a host-ra vannak csatolva, a konténerek csak bind mount-ot kaptak és mindkettő teljesen egyformán, mégsem egyformán állnak le. -
BullZeye
veterán
Ezt pontosan Proxmoxban, vagy Synology DSM-ben kell beállítani?
Gondolom szerver oldalon ami jelen esetben Synology...Ha Docker LXC root usert használ, akkor force user is root kellene?
Vagy valahogy docker-ben kéne beállítanom, hogy BullZeye nevet használja, amivel SMB-ben is kapcsolódik hozzá?Mert ugye ezt a mappát Windows alól is Total Commanderben használom (írom-olvasom), ez lenne a cél, hogy az összes docker config egy mappába kerüljön, és van ami Synologyban fut, van ami külön Dockerbe, és van olyan ami saját LXC-ben (Home Assistant OS),
Ezeknek kéne az összes konfigja 1 helyre.
-
Kurrens
tag
Igen. Megnéztem: write-error on swap-device. Újraindítottam, pár óra múlva megint leállt: read-error on swap device.
Minden egy 1Tb-s HDD-n van, csak a file server van egy 2Tb-s SSD-n, ami továbbra is jól működik. Gondolom vagy rossz a HDD, vagy kicsi a swap terület.
Mindennek egy core és 512Mb van kiosztva, kivéve a file server, ami 2 core-al fut. -
PHenis
senior tag
HA os + supervised van, nem tuningoltam rajta semmit emlékeim szerint minden alapon van. Van vagy 30 integráció az igaz, rengetek device és entity... Log és naplózás is az alapon van. Bár még rpi-n kezdtem, lehet ott volt valami kezdeti tuning az sd miatt de már nem emlékszem mert régen volt. Nem vagyok vele tisztában hogy ezeket az apró változtatásokat is tartalmazza-e a backup amivel átjöttem proxmox alá az rpi-ről.
Itt az írják ez tök normális így.
-
PHenis
senior tag
Csak nem hagyott nyugodni a HA ram használata és utánanéztem kicsit. Tehát lényegében a HA annyi ram-ot fog enni amennyi csak van, mert az egyébként szabad ram-ba becache-el.
free -h
total used free shared buff/cache available
mem: 15Gi 1,5Gi 3,5Gi 6,0Mi 10Gi 14Gi
Swap: 5,25Gi 0B 5,2GiNekem 1,5GB-ot használ maga a HA (tehát elég lenne a 2-4GB ahogy AiRLAC is írta korábban) és a maradék ram az 10GB cache és 3,5GB tényleg szabad ramból áll össze. Egyelőre nem nyúlok hozzá mert bőven elfér + kevesebb lemezműveletet jelent a sok cache, de jó tudni hogy fel tudok még szabadítani ramot ha másnak kellene a későbbiekben
-
ViZion
félisten
Hát ezek szerint nálam is kernelbánat volt, már bő egy hete stabil (pont mint korábban), nincs ilyen hálózatról leszakadás. Fain, mert hétfőn itt az új NIC...
És közben már gépeket nézegettem, h lecserélek mindent, ha nem a hálókari az oka.Kurrens: Tőled is jöhetne visszajelzés, megoldódott a probléma?
-
Magnat
veterán
Én mondjuk nvme ssd-n a rendszert sem tenném külön ssd-re, inkább vennék egyet, de akkor az legyen vmi pro széria, h jobban bírja a gyűrődést ... főleg tanulós gépen, de még élesen is
Btw, van az egyik munkahelyi gépemben 4db Samsung 850 Pro sata ssd, amik egy Exchange mailserverben voltak rendszer-, illetve adattárolók, a két 256-os 2400 napot ment és 33TB az összes írt adat rajtuk, ezek 100/77, illetve 100/79%-osak, az 512-esek 2037 napot mentek és 24TB az írt adat rajtuk, 100/98%-os mind a kettő.
-
A PVE mentésre pattintottam be egy 250-es SSD-t, pont ma, felcsatoltam és pve-ben napi rendszerességgel állítottam be egy backupot a VM-ekről és LCX-ekről, ez nekem elég. A HDD(ke)-n csak a filmek lennének, amit egyrészt torrentkliens tölt oda és onnan az LCX-ek tudnak dolgozni belőle (samba, DLNA, ilyesmik), plusz a ZFS miatt (mirror) ha elszáll az egyik akkor menthető még az adat. Illetve majd a rendes gépemről akarom a fontosabb dolgokat a szerverre tükrözni, hogy több helyen meglegyenek.
Mappát parancssorból csináljak ZFS-rr, vagy pve-n belül van gyors és egyszerű megoldás rá? Tudom, IT-seknek a cmd is egyszerű, de én csak autodidakta és kérdezgetős módon tanulom ezeket a dolgokat
És próbálom meg is érteni amit csinálok, nem csak copy-paste módon létrehozni a dolgokat, így legalább tanulok
-
Szia(sztok)!
Ilyen tárhelymegosztást akkor is létre lehet hozni, ha ZFS-ben van két HDD? Próbálkoztam vele, de mivel fel van csatolva ZFS-ként pve-n belül így a datacenterben nem tudtam directory-ként már hozzáadni (vagy csak én vagyok a béna, ezt tartom valószínűbbnek)úgyhogy már az elején elakadtam
-
ViZion
félisten
és akkor megint csatt.
Vhogy a nic az utolsó üzi, majd reboot.
ovs bridge töröl, dual nic megy opnsense-nek, azon belül bridge (ez is megérne egy misét, h ez a része milyen retek).
egy nap és megint.... hmmm.
ismét a dual nic. A nagy optimalizálásban az energiagazdálkodásokat bekapcsoltam, igp alulfeszelve, stb.
Neten írták, h ez is lehet baj, 6.8 kernellel sokan szívnak.
ok, ezek is letiltva, csak a cpu maradt.
Hőfokok emelkedtek, frigate-val így a 32-35W felment 50 W-re...
12k körül lenne másik nic, de alig van, amire nem találtam valami panaszt. nem biztos,h érdemes cserélni. Hátha jön újabb kernel... -
PHenis
senior tag
Én qbittorrent lxc-vel jártam úgy hogy kimeredt tőle az egész proxmox felület. Nem fagyott meg mert elértem a webui-t csak nem töltődött be rendesen, teljesen szét volt esve, nem működtek a gombok, stop-olni is alig tudtam.
Nálam az volt a gond, hogy a lxc-nél a summary fülön hiába írja, hogy 120MB ramot használ, ha az lxc-n belül top-al nézem akkor 4,5 GB ramot foglal most. Míg a script alapértelmezett 2GB volt beállítva, neha így kifagyott félig amit fentebb írtam. Mióta több ramot kapott, egyszer sem volt ilyen hónapok óta.Nem pont ugyanaz a gond, de esetleg ideiglenesen meg lehetne próbálni több ramot adni a frigate-nak ha nincs jobb ötlet...
-
ViZion
félisten
Nah, most volt a logokban egy kis infó, ezek szerint úgy tűnik, h az alaplapi LAN és a 2 portos kari fagyott először:
Mar 05 13:43:30 pve kernel: RIP: 0010:netif_set_real_num_rx_queues+0xa2/0xc0
Mar 05 13:43:30 pve kernel: Code: 87 7c 89 35 00 41 83 e5 01 75 d1 ba ac 0b 00 00 48 c7 c6 94 53 6b 93 48 c7 c7 30 19 5d 93 c6 05 66 4f 70 01 01 e8 4e 2c 2b ff <0f> 0b eb ae b8 ea ff ff ff 31 d2 31 f6 31 ff c3 cc cc cc cc b8 ea
Mar 05 13:43:30 pve kernel: RSP: 0018:ffffaa6254f8fc50 EFLAGS: 00010246
Mar 05 13:43:30 pve kernel: RAX: 0000000000000000 RBX: ffff95db0867c000 RCX: 0000000000000000
Mar 05 13:43:30 pve kernel: RDX: 0000000000000000 RSI: 0000000000000000 RDI: 0000000000000000
Mar 05 13:43:30 pve kernel: RBP: ffffaa6254f8fc68 R08: 0000000000000000 R09: 0000000000000000
Mar 05 13:43:30 pve kernel: R10: 0000000000000000 R11: 0000000000000000 R12: 0000000000000008
Mar 05 13:43:30 pve kernel: R13: 0000000000000000 R14: ffff95db0867c000 R15: 0000000000000000
Mar 05 13:43:30 pve kernel: FS: 0000000000000000(0000) GS:ffff95e20ec00000(0000) knlGS:0000000000000000
Mar 05 13:43:30 pve kernel: CS: 0010 DS: 0000 ES: 0000 CR0: 0000000080050033
Mar 05 13:43:30 pve kernel: CR2: 000000c0001c1010 CR3: 0000000647238002 CR4: 00000000001726f0
Mar 05 13:43:30 pve kernel: Call Trace:
Mar 05 13:43:30 pve kernel: <TASK>
Mar 05 13:43:30 pve kernel: ? show_regs+0x6c/0x80
Mar 05 13:43:30 pve kernel: ? __warn+0x88/0x140
Mar 05 13:43:30 pve kernel: ? netif_set_real_num_rx_queues+0xa2/0xc0
Mar 05 13:43:30 pve kernel: ? report_bug+0x182/0x1b0
Mar 05 13:43:30 pve kernel: ? handle_bug+0x6e/0xb0
Mar 05 13:43:30 pve kernel: ? exc_invalid_op+0x18/0x80
Mar 05 13:43:30 pve kernel: ? asm_exc_invalid_op+0x1b/0x20
Mar 05 13:43:30 pve kernel: ? netif_set_real_num_rx_queues+0xa2/0xc0
Mar 05 13:43:30 pve kernel: __igb_open+0x188/0x6d0 [igb]
Mar 05 13:43:30 pve kernel: __igb_resume+0x252/0x2a0 [igb]
Mar 05 13:43:30 pve kernel: ? __pfx_pci_pm_runtime_resume+0x10/0x10
Mar 05 13:43:30 pve kernel: igb_runtime_resume+0x13/0x20 [igb]
Mar 05 13:43:30 pve kernel: pci_pm_runtime_resume+0xa3/0x100
Mar 05 13:43:30 pve kernel: __rpm_callback+0x50/0x170
Mar 05 13:43:30 pve kernel: ? ktime_get_mono_fast_ns+0x43/0xe0
Mar 05 13:43:30 pve kernel: rpm_callback+0x40/0x70
Mar 05 13:43:30 pve kernel: ? __pfx_pci_pm_runtime_resume+0x10/0x10
Mar 05 13:43:30 pve kernel: rpm_resume+0x4d5/0x6d0
Mar 05 13:43:30 pve kernel: ? kfree+0x247/0x360
Mar 05 13:43:30 pve kernel: pm_runtime_work+0x80/0xe0
Mar 05 13:43:30 pve kernel: process_one_work+0x179/0x3c0
Mar 05 13:43:30 pve kernel: worker_thread+0x2b8/0x3e0
Mar 05 13:43:30 pve kernel: ? __pfx_worker_thread+0x10/0x10
Mar 05 13:43:30 pve kernel: kthread+0xe4/0x110
Mar 05 13:43:30 pve kernel: ? __pfx_kthread+0x10/0x10
Mar 05 13:43:30 pve kernel: ret_from_fork+0x47/0x70
Mar 05 13:43:30 pve kernel: ? __pfx_kthread+0x10/0x10
Mar 05 13:43:30 pve kernel: ret_from_fork_asm+0x1a/0x30
Mar 05 13:43:30 pve kernel: </TASK>
Mar 05 13:43:30 pve kernel: ---[ end trace 0000000000000000 ]---
Mar 05 13:43:34 pve kernel: igb 0000:04:00.0 enp4s0f0: igb: enp4s0f0 NIC Link is Up 1000 Mbps Full Duplex, Flow Control: RX
Mar 05 13:43:49 pve kernel: igb 0000:04:00.0 enp4s0f0: igb: enp4s0f0 NIC Link is Down
Mar 05 13:43:53 pve kernel: igb 0000:04:00.0 enp4s0f0: igb: enp4s0f0 NIC Link is Up 1000 Mbps Full Duplex, Flow Control: RX/TX
Mar 05 14:35:37 pve smartd[620]: Device: /dev/sdd [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 71 to 70
Mar 05 15:01:37 pve pvestatd[1183]: auth key pair too old, rotating..
Mar 05 15:35:36 pve smartd[620]: Device: /dev/sdc [SAT], SMART Usage Attribute: 190 Airflow_Temperature_Cel changed from 72 to 71
Mar 05 15:41:38 pve kernel: e1000e 0000:00:19.0 enp0s25: NIC Link is Down
Mar 05 15:41:38 pve kernel: vmbr0: port 1(enp0s25) entered disabled state
Mar 05 15:42:03 pve kernel: e1000e 0000:00:19.0 enp0s25: PHY Wakeup cause - Link Status Change
Mar 05 15:42:06 pve kernel: e1000e 0000:00:19.0 enp0s25: NIC Link is Up 1000 Mbps Full Duplex, Flow Control: Rx/Tx
Mar 05 15:42:06 pve kernel: vmbr0: port 1(enp0s25) entered blocking state
Mar 05 15:42:06 pve kernel: vmbr0: port 1(enp0s25) entered forwarding state
Mar 05 15:42:45 pve systemd-logind[621]: Power key pressed short.
Mar 05 15:42:45 pve systemd-logind[621]: Powering off...
Mar 05 15:42:45 pve systemd-logind[621]: System is powering down.
Mar 05 15:42:45 pve systemd[1]: unattended-upgrades.service: Deactivated successfully.
Csinálok ram tesztet, meg veszek vmi PCIe hálókarit, hátha...
Mik a tapasztalatok? A 4 portos aprósokból szabad válogatni?
Mi a minimum, problémamentes kari? Gigabit elég, gondoltam 2,5 nézek,
de mobilnet van és az AP sem tudja. -
ViZion
félisten
van 2025-ös mikrokód frissítés, felpattintottam, hátha... majd kellene reboot is.
-
gyulavinwork
friss újonc
Hello!
Köszönöm a gyors választ. Win. vm esetében windows servert (AD-val) próbálgatnék 2-3 windows/linux klienssel (ezeket csak időszakosan). Jelenleg VirtualBox-on teszem ezeket, egy jóval kevesebb erőforrással rendelkező gépen. Azért gondoltam a Proxmoxra, mert akkor, ha 0/24-ben menne (mini pc kevesebb fogyasztás) akkor működtetnék párhuzamosan pl. egy Plex-et, vagy valami más Média servert, torrent kliens-t, file servert, webservert, későbbiekben ezeket kívülről elérni megfelelő biztonsággal. Szóval tervek vannak... -
Balinov
titán
egy parhuzamos univerzumban
az az erdendo gondom, hogy MSDOS/Windowson szocializalodott veglenykent teljesen biztosan alap dolgokkal nem vagyok tisztaban, igy lehet 1 dolgot 2- vagy tobb- felekeppen kerdezek, mikozben fogalmam sincs, hogy ugyanazt a dolgot hajkuraszom. YT videoert meg pirospont,
viszonzasul egy kis YT csatorna ajanlo
Amugy tiszta szivbol irigylem a turelmedet, en munkahelyen a 3-ik magyarazat utan elkuldom a picsaba az ilyen kollegakat....
-
Balinov
titán
bocsi, hulye vagyok meg tegnap este agyilag zokni. az elso screen shot az az OMV VM-rol keszult, annak at van teljesen adva az 1TB. A masodik az nem az extra VM-rol van, egy debian alapu LXC amit az arr stacknak csinaltam meg multkor, csak nem esett le, hogy az nem VM ikon, mikor irtam
a jelenlegi VM-nek a PVE shell-ben kiadott kovetkezo paranccsal adtam hozza a tarhelyet
qm set 100 -sata1 /dev/disk/by-partuuid/4f9e803c-ff23-bf44-99bb-574d46718950
Ez lenne a passthru?Bali
-
Balinov
titán
Szia ViZion. Ezzel kapcsolatban kerdeznem
"A Te esetedben, ha nem akarod átszervezni a dolgokat, akkor egyszerűbb lenne egy dockereket futtató VM az OMV mellé, abba csatolni a megosztást és azt odaadni a dockerekben a bármiknek."
Ha az OMV VM-ben az 1TB ilyen ID alatt van felcsatolva
Akkor jol gondolom, hogy a masodlagos, docker VM-ben az add device passthru-ban eleg csak a device ID-t (/dev/disk/by-partuuid/4f9e803c-ff23-bf44-99bb-574d46718950) bemasolni?
?
Koszi neked is es a tobbiekenek isB
-
tomigonzo
aktív tag
ok, jogos
Proxmox (tesztre) egy regi Macbookon,
Synon megosztott mappa ok, (media)
SMB es NFS is (utobbinal hozza adva permissionban a proxmox ip alapjan), user/jelszo letrehozva
datacenterhez hozzaadva (elso nfs, masodik smb)
a plex lxc-hez szeretnem hozzaadni, na es itt verzik el a dolog, -
R̲e̲m̲
senior tag
végigtotóztam mindet, sajnos nem jött be
De mindegy is, 50/50%-os osztott screennel olvasható, szerintem így marad.
tomigonzo
smb simán felcsatolható proxmox storage-be. Ha meg a konténernek kell, oda is simán mennie kell az smb mountnak.
vagy a kérdés inkább az, hogy hogyan kell smb share-t felcsatolni?
Látom közben megelőztek -
R̲e̲m̲
senior tag
Ezeket már korábban belőttem, az egyetlen dolog ami kimaradt, hogy a display-t none-ra tettem, most megjelent a monitoron a kimenet, viszont valami irgalmatlan felbontáson.
minden esetre ez már valami előrelépés. Köszi!
Nem lehet valahogy kényszeríteni a konzolt, hogy ne natív felbontáson menjen? PiP-ben használnám, és a fullhd olvashatatlan így.
Vagy ezt inkább valami linuxos topicban? -
nemurea
aktív tag
Csak egy rövid kérdés: inkább követem a javaslatodat (tényleg egyszerűbb így
), és backupból visszaállítom az LXC-ket. De az egyik LXC-be bind mount-tal (MP) be van linkelve rw módon a teljes adat HDD. És a restore során ilyeneket ír, hogy "Mount point volumes are also erased". Utánanéztem, elvileg ez a törlés a bind mountra nem vonatkozik, de ha megerősítitek, azt azért megköszönöm. A hétvégébe nem terveztem be full HDD visszaállítást
-
nemurea
aktív tag
Az LXC-k saját meghajtójáról van szó, több LXC-nél is láttam a logban a figyelmeztető bejegyzést. A PVE saját meghajtóját tudtam fsck-zni a boot során.
Igen, ezt a linket találtam én is, innen másoltam ki a parancsot. OK, akkor kipróbálom az egyiken. Egy kis fájlrendszerhibát csak megoldunk backup nélkül
-
nemurea
aktív tag
Sziasztok, kissé elkiabáltam, tegnap este (zenehallgatás közben) merevre fagyott a proxmox, de nálam inkább a Desktop environment miatt lehetett ez. SSH-n és Webmin-en keresztül továbbra is elértem, de már nem tudtam megmenteni, így restart.
Nem is emiatt írok, hanem azért, mert - valszeg a kényszerített, nem clean restart miatt - az LXC-k meghajtóin hibák vannak:
Feb 20 09:52:12 pve kernel: EXT4-fs (dm-14): warning: mounting fs with errors, running e2fsck is recommended
Feb 20 09:52:12 pve kernel: EXT4-fs (dm-14): mounted filesystem 5d4270ff-6c52-4449-9a2f-426c58698fca r/w with ordered data mode. Quota mode: none.
Feb 20 09:52:12 pve kernel: audit: type=1400 audit(1740041532.842:47): apparmor="STATUS" operation="profile_load" profile="/usr/bin/lxc-start" name="lxc-109_</var/lib/lxc>" pid=5914 comm="apparmor_parser"
Mi ilyenkor a normál módszer, találtam egy ilyet az egyik fórumon, ezt használjam?
e2fsck -p -c -f -v /mnt/pve/storage/images/71403/vm-71403-disk-1.raw
Új hozzászólás Aktív témák
Hirdetés
- Autós topik látogatók beszélgetős, offolós topikja
- Audi, Cupra, Seat, Skoda, Volkswagen topik
- Autóápolás, karbantartás, fényezés
- Milyen egeret válasszak?
- Milyen billentyűzetet vegyek?
- Futás, futópályák
- Milyen videókártyát?
- Filmgyűjtés
- Vírusirtó topic
- Motorolaj, hajtóműolaj, hűtőfolyadék, adalékok és szűrők topikja
- További aktív témák...
- Game Pass Ultimate előfizetések 4 - 19 hónapig azonnali kézbesítéssel a LEGOLCSÓBBAN! AKCIÓ!
- MS SQL Server 2016, 2017, 2019
- Windows, Office licencek kedvező áron, egyenesen a Microsoft-tól - Automata kézbesítés utalással is!
- AKCIÓ! Jogtiszta Windows - Office & Vírusirtó licencek- Azonnal - Számlával - Garanciával - Nint.hu
- Játékkulcsok olcsón: Steam, Uplay, GoG, Origin, Xbox, PS stb.
- LG 28MQ780 - Dual Monitor - Nano IPS - 2560x2880 - HDR10 - USB Type-C - AMD FreeSync - MacBook Ready
- ÁRGARANCIA!Épített KomPhone Ryzen 7 7700X 32/64GB RAM RX 7800 XT 16GB GAMER PC termékbeszámítással
- Lenovo 14 Ideapad 3 FHD LED Matt i3-1115G4 4.1Ghz 8GB 256GB SSD Intel UHD Graphics Win11 Garancia
- HIBÁTLAN iPhone 15 Pro 128GB Natural -1 ÉV GARANCIA - Kártyafüggetlen, MS3502, 90% Akkumulátor
- Samsung Galaxy S24 Ultra / 12/256GB / Gyári független / 12Hó Garancia
Állásajánlatok
Cég: CAMERA-PRO Hungary Kft.
Város: Budapest
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest