Hirdetés

Keresés

Új hozzászólás Aktív témák

  • Keem1

    veterán

    válasz tm5 #4478 üzenetére

    Mekkora az MD5 hash mérete?
    Ezt nem értem :B Simán a normál MD5 16 bájtos mérete, hexában.

    Miért nem másolod el egy másik fájlba azokat amit nem akartsz törölni [...]?
    Alapvetően az lett volna, hogy nap végén: logs.txt -> logs001.txt, de külső elérés kell a loghoz, ezért (+ a kereshetőség miatt) a DB.

    Most van egy AI PK, de az a fájlbéli logbejegyzéstől független. Arra is gondoltam, hogy hátha lenne egy int alapú hash algoritmus, de itt is fontos a gyorsaság (az MD5 előállítása minimális erőforrást igényel), a hash-re csak az adatbázisba írás miatt van szükség, a feladat többi szemszögéből irreleváns.

    Így néz ki a tábla schema:
    CREATE TABLE "logs" (
     "id" INTEGER NOT NULL PRIMARY KEY AUTOINCREMENT,
    "level" INTEGER,
     "tstamp" TEXT,
     "message" TEXT,
     "location" TEXT,
     "userid" TEXT,
     "hash" TEXT
    );

    A logfájl mindegyik sora egy határoló string alapján kerül feltördelésre, a log level pedig a megfelelő string indexe lesz (NONE->0, ERROR->1, DEBUG->2, ...).

    Egy log sor így néz ki:
    DEBUG - 2020-04-05 16:00:04 - No IP change detected, no need to update - [itt az adott namespace.class.method van] - [devicename/userid]

    Tranzakcióra nincs esetleg valami (sematikusan) ilyesmi?
    IF SELECT ...
    INSERT INTO ...
    ENDIF

  • Keem1

    veterán

    Helló emberek, iránymutatást szeretnék kérni. Mivel IoT rendszerről (Raspberry Pi) van szó, minden megspórolt millisec számít.

    Adott egy már jól működő service, de ami még debug módban megy, ezért rengeteget loggol file-ba (egyelőre kell is, az alapján csiszolom), viszont minden nap végén a log file-t kiürítené, tartalmát SQLite adattáblába zsuppolná (keresés, kiértékelések miatt). Sajnos egyelőre vannak logbejegyzések, amiket bent hagynánk a fileban, és nem lenne jó naponta újra és újra beírni az adatbázisba, ezért egyszerűen tárolunk ott egy MD5 hasht is (vizsgálva, hogy a hash bent van-e már az adatbázisban). A helyzetet "bonyolítja", hogy tranzakcióval megy a beírás (napi 200-1000 log tranzakció nélküli beírása [csak az adatbázisművelet] 1-2 sec, tranzakcióval 40-80 ms).

    Hogy lehet a legjobban, legelegánsabban megoldani?
    - letárolás előtt a hash értékek kiolvasása egy tömmbe/listába programozottan (C#)?
    - INSERT helyett SELECT(?) + INSERT annak csekkolására, hogy már bent van-e a hash, a db-re bízva? Ha igen, itt kérnék iránymutatást, fogalmam sincs, ez miképp kivitelezhető egy tranzakció belsejében, a COMMIT parancsot megelőzően.

    Az első pont fizikailag készen van, működik is, csak nem tudom, ez így mennyire vehető jó megoldásnak egy IoT rendszernél.

    Javaslatot szeretnék kérni! :R

Új hozzászólás Aktív témák