Új hozzászólás Aktív témák

  • unknownerror

    tag

    Sziasztok!

    Nem pont linux-os kérdés. (illetve megfelelő topicot nem találtam)

    Adott egy Windows Server HyperV-vel, és rajta 4 Linux VM. Az egyik VM raid5 ssd-n van, és durván 70millió i-node fogyott rajta el. Ez egy egyedi fájl alapú adatbázis szerűség, üzemeltetőként mi se értjük teljesen hogy működik, de életben kell tartani. (no update, no fejlesztők)

    Az a problémám, hogy jelenleg 12-16 órán át fut a mentés úgy, hogy kívülről mentem a vm-et cache-lt raid5 hdd-s szerverre, gigabiten. Gyanítom itt az írással lesz gond, mert több mentés is megy rá éjszaka, de arra nem gondoltam, hogy ilyen sokáig fog ez menni. Persze ez egy éve még bőven végzett 5-6 óra alatt, reggelre mindig lefutott, aztán ez elkezdett felkúszni.

    Előzőleg snapshot-tal oldották meg a mentést belülről, de egymásra futottak, ezért lett a hyper-v-re váltás több hypervisor kísérlet alapján.

    Nos, az adatbázis növekszik, attól tartok, hogy a mentése hamarosan gondot fog okozni. Illetve, amíg ment a hyper-v, addig snapshotot készít, előfordult, hogy a mentés ideje alatt többszáz gb-ot megmozgat az adatbázis, ezt hozzá kell számolnom.

    Ti hogy mentenétek / mentetek rengeteg apró fájlt tartalmazó lemezt / gépet? Jelenleg 800gb-os az adatbázis, pdf-ek, jpg, png és hasonlókból áll. Rsync kizárt, nem fut le.

    Köszi előre is.

    Üdv:
    Miklós

Új hozzászólás Aktív témák

Hirdetés