- Geri Bátyó: Megint tahó voltam – SZEMÉLYISÉGFEJLŐDÉS
- sziku69: Fűzzük össze a szavakat :)
- Magga: PLEX: multimédia az egész lakásban
- sziku69: Szólánc.
- Luck Dragon: Asszociációs játék. :)
- D1Rect: Nagy "hülyétkapokazapróktól" topik
- MasterDeeJay: Alacsony fogyasztású házi szerver a korábbi projektekből összeépítve
- Argos: Adjátok vissza a netet! - szeretnék elaludni!
- hcl: Döglött tabletből wifis kijelző kókány
- Meggyi001: Nyilvános wc-k.....még mindig hiánypótló...
-
LOGOUT
Új hozzászólás Aktív témák
-
szombi
tag
Nos, egy alternatíva már van: kimentettem egy weboldal által küldött gzip-elt tartalmát egy "index.gz" fájlba. Ezt a WinRAR és a 7-Zip is ki tudja bontani. Valami egyszerű megoldás(pl. DLL) érdekelne, hogy a dolog mindkét irányba működjön a memóriában is, a háttértár használata nélkül. Használt már valaki ilyet?
Közben -angol- nyelvű leírást is találtam, kérdés hogy ez aktuális-e:
- [rfc-gzip]
- [http compression - standards] -
szombi
tag
Igen, magam szeretnék. Az LZ77 nem olyan nagy cucc, már leprogramoztam párszor. De ha van gzip-re DLL és jó leírás az is jó lesz nekem. A készülő, amatőr letöltésvezérlőmhöz még szerencsére nem kell, ott a HTTP fejlécből kiszedett infó(pl. cookie-k) mindenre elég lesz. A program már kezeli a cookie-kat, belép az oldalra(név+jelszó), meg ki tud jelentkezni...
-
szombi
tag
Köszönöm, sejtettem hogy ez lesz a vége. Ki az a hülye aki ma tömrítés nélkül kéri le a weblapokat? Úgy néz ki hogy nem úszom meg a compress/deflate/gzip dolgot ilyen könnyen. Valami jó magyar gzip leírást tud valaki? Azt tudom hogy LZ77 (ill. gzip-nél Huffmann kódolás is) az alapja, az LZ77-et információelméleten már megtanultam.
-
szombi
tag
A "Content-encoding résznél is "gzip" áll. Tessék a teljes HTTP fejléc amit kapok:
HTTP/1.1 200 OK
Date: Sun, 29 Dec 2013 22:45:42 GMT
Server: Apache/2.2.26 (FreeBSD) mod_ssl/2.2.26 OpenSSL/0.9.8x
Set-Cookie: PHPSESSID=4d136c24524999c875f49103a18fc78c; path=/
Expires: Thu, 19 Nov 1981 08:52:00 GMT
Cache-Control: public
Pragma: public
Content-Encoding: gzip
Accept-Encoding: compress, gzip
Vary: Accept-Encoding
Connection: close
Transfer-Encoding: chunked
Content-Type: text/html; charset=iso-8859-2' -
szombi
tag
válasz
Lortech #7586 üzenetére
Ez az "animeaddicts.hu" lesz. Ha "Accept-Encoding: identity" - t adok, akkoris ugyanúgy viselkedik. Tehát a válaszban "Accept-Encoding: compress, gzip" van, de maga a tartalom mégsincs tömörítve. Azt jól tudom hogy az animeaddicts.hu egy napi szinten, jól karbantartott weboldal. Ha esetleg érdekes: "Server: Apache/2.2.26 (FreeBSD) mod_ssl/2.2.26 OpenSSL/0.9.8x"
Most megnéztem az "index.hu" oldalt is. Itt a szabvány szerint működik ez a rész, tehát ha nem adok meg semmit (vagy identity) akkor tömörítés nélkül jön át az oldal, ha "compress, gzip" akkor tömörítve. Pár érdekes formai különbség azért itt akad(chunk+tördelés egyikben, HTTP fejlécben előrejelzett méret a másikban), de a szabványt teljesíti mindkét esetben.
Érdekes hogy alig kezdtem el programozni, máris hibát, szabványtól eltérő működést találok. De tudom hogy nem ilyen egyszerű az élet, ezekre a hibákra nekem kell felkészítenem a programot amit később írni fogok. Vagy beleerőszakolni a gzip-et...
-
szombi
tag
Sziasztok!
Pár hete kezdtem HTTP protokollal foglalkozni. A téma már korábban is érdekelt, az alapok(IP, TCP, portok, DNS hierarchia, programírás) terén sincs okom panaszra. A [HTTP 1.1 szabvány] leírását természetesen olvasgatom ahogy időm telik rá, de eltart ez egy darabig. Sajnos a "reverse-engineering" típusba tartozom, azaz a protokollt előbb próba programokkal tesztelgetem, aztán megnézem a hozzá tartozó szabványt és így tanulom meg a dolgokat. Első HTTP programom 10 perc alatt összeállt, amivel lényegében "bárhová" tudok csatlakozni. Az eredményt (HTTP válasz fejléc és letöltött tartalom) fájlba mentem, de WireShark-on is megnézem.
Most itt akadtam el: ha egy weboldal tartalmát tömörítés nélkül szeretném letölteni, ekkor az "Accept-Encoding" résznél nem adok meg semmit. Érdekes módon a válasz üzenetben mégis ugyanazt HTTP fejlécet kapom, mintha "compress, gzip" értéket adtam volna meg. Maga a (weboldal) tartalom mégis tömörítés nélkül jön át, de megkapja a "chunk"-ot. Tehát hexadecimálisan a tartalom hosszát, utána a (kódolatlan) tartalom, végül a hét bájtos farok (CRLF+"0"+CRLF+CRLF). A WireShark is jelez, hogy "gzip: Decompression Failed" - hát még szép, hiszen nincs is tömörítve! Ha tömörítve (Accept-Encoding: compress, gzip) kérem le az oldalt, akkor gond nélkül átjön, a WireShark is rendesen dekódolja. Csak a gzip-ig még sajnos nem jutottam el így a tartalommal nem tudok mit kezdeni, de külső progit nem akarok ehhez használni.
Szóval a kérdésem: weboldalak átvitelénél a gzip "kizárólagosnak" tekintendő?
Új hozzászólás Aktív témák
Hirdetés
● olvasd el a téma összefoglalót!
- Dell Latitude 7320 Detachable Touch 13,3" i5-1140G7 2,6GHz 16GB 256
- KBDFans Tofu 60 Redux, custom, angol feliratozású, PBT kupakos, hot swap, programozható billentyűzet
- Keychron Q0 Plus, kiterjesztett numpad kiosztású, halkított, PBT kupakos makropad billentyűzet
- Samsung Galaxy s24 Dual sim 8/128GB Független
- Keychron Q8 halkított, magyar feliratozású PBT kupakos billentyűzet + második csere belső
- Telefon felvásárlás!! Huawei P20 Lite/Huawei P20/Huawei P30 Lite/Huawei P30/Huawei P30 Pro
- REFURBISHED és ÚJ - Lenovo ThinkPad 40AS USB-C docking station (akár 3x4K felbontás)
- Csere-Beszámítás! Gigabyte Vision RTX 3070Ti 8GB GDDR6X Videokártya!
- BESZÁMÍTÁS! 850W ASUS ROG STRIX Gold tápegység garanciával hibátlan működéssel
- 15,6" Dell Latitude laptopok: E6540, E5550, E5570, 5580, 5590, 5500, 5501, 5510/ SZÁMLA + GARANCIA
Állásajánlatok
Cég: FOTC
Város: Budapest