- sziku69: Fűzzük össze a szavakat :)
- mefistofeles: Az elhízás nem akaratgyengeség!
- Luck Dragon: Asszociációs játék. :)
- sziku69: Szólánc.
- Sub-ZeRo: Euro Truck Simulator 2 & American Truck Simulator 1 (esetleg 2 majd, ha lesz) :)
- Magga: PLEX: multimédia az egész lakásban
- lkristóf: Prohardver fórum userscript – hogy lásd, mikor neked válaszoltak
- Elektromos rásegítésű kerékpárok
- ubyegon2: Airfryer XL XXL forrólevegős sütő gyakorlati tanácsok, ötletek, receptek
- bambano: Bambanő háza tája
-
LOGOUT

Új hozzászólás Aktív témák
-
szombi
tag
Nos, egy alternatíva már van: kimentettem egy weboldal által küldött gzip-elt tartalmát egy "index.gz" fájlba. Ezt a WinRAR és a 7-Zip is ki tudja bontani. Valami egyszerű megoldás(pl. DLL) érdekelne, hogy a dolog mindkét irányba működjön a memóriában is, a háttértár használata nélkül. Használt már valaki ilyet?
Közben -angol- nyelvű leírást is találtam, kérdés hogy ez aktuális-e:
- [rfc-gzip]
- [http compression - standards] -
szombi
tag
Igen, magam szeretnék. Az LZ77 nem olyan nagy cucc, már leprogramoztam párszor. De ha van gzip-re DLL és jó leírás az is jó lesz nekem. A készülő, amatőr letöltésvezérlőmhöz még szerencsére nem kell, ott a HTTP fejlécből kiszedett infó(pl. cookie-k) mindenre elég lesz. A program már kezeli a cookie-kat, belép az oldalra(név+jelszó), meg ki tud jelentkezni...
-
szombi
tag
Köszönöm, sejtettem hogy ez lesz a vége. Ki az a hülye aki ma tömrítés nélkül kéri le a weblapokat? Úgy néz ki hogy nem úszom meg a compress/deflate/gzip dolgot ilyen könnyen. Valami jó magyar gzip leírást tud valaki? Azt tudom hogy LZ77 (ill. gzip-nél Huffmann kódolás is) az alapja, az LZ77-et információelméleten már megtanultam.
-
szombi
tag
A "Content-encoding résznél is "gzip" áll. Tessék a teljes HTTP fejléc amit kapok:
HTTP/1.1 200 OK
Date: Sun, 29 Dec 2013 22:45:42 GMT
Server: Apache/2.2.26 (FreeBSD) mod_ssl/2.2.26 OpenSSL/0.9.8x
Set-Cookie: PHPSESSID=4d136c24524999c875f49103a18fc78c; path=/
Expires: Thu, 19 Nov 1981 08:52:00 GMT
Cache-Control: public
Pragma: public
Content-Encoding: gzip
Accept-Encoding: compress, gzip
Vary: Accept-Encoding
Connection: close
Transfer-Encoding: chunked
Content-Type: text/html; charset=iso-8859-2' -
szombi
tag
válasz
Lortech
#7586
üzenetére
Ez az "animeaddicts.hu" lesz. Ha "Accept-Encoding: identity" - t adok, akkoris ugyanúgy viselkedik. Tehát a válaszban "Accept-Encoding: compress, gzip" van, de maga a tartalom mégsincs tömörítve. Azt jól tudom hogy az animeaddicts.hu egy napi szinten, jól karbantartott weboldal. Ha esetleg érdekes: "Server: Apache/2.2.26 (FreeBSD) mod_ssl/2.2.26 OpenSSL/0.9.8x"
Most megnéztem az "index.hu" oldalt is. Itt a szabvány szerint működik ez a rész, tehát ha nem adok meg semmit (vagy identity) akkor tömörítés nélkül jön át az oldal, ha "compress, gzip" akkor tömörítve. Pár érdekes formai különbség azért itt akad(chunk+tördelés egyikben, HTTP fejlécben előrejelzett méret a másikban), de a szabványt teljesíti mindkét esetben.
Érdekes hogy alig kezdtem el programozni, máris hibát, szabványtól eltérő működést találok. De tudom hogy nem ilyen egyszerű az élet, ezekre a hibákra nekem kell felkészítenem a programot amit később írni fogok. Vagy beleerőszakolni a gzip-et...
-
szombi
tag
Sziasztok!
Pár hete kezdtem HTTP protokollal foglalkozni. A téma már korábban is érdekelt, az alapok(IP, TCP, portok, DNS hierarchia, programírás) terén sincs okom panaszra. A [HTTP 1.1 szabvány] leírását természetesen olvasgatom ahogy időm telik rá, de eltart ez egy darabig. Sajnos a "reverse-engineering" típusba tartozom, azaz a protokollt előbb próba programokkal tesztelgetem, aztán megnézem a hozzá tartozó szabványt és így tanulom meg a dolgokat. Első HTTP programom 10 perc alatt összeállt, amivel lényegében "bárhová" tudok csatlakozni. Az eredményt (HTTP válasz fejléc és letöltött tartalom) fájlba mentem, de WireShark-on is megnézem.
Most itt akadtam el: ha egy weboldal tartalmát tömörítés nélkül szeretném letölteni, ekkor az "Accept-Encoding" résznél nem adok meg semmit. Érdekes módon a válasz üzenetben mégis ugyanazt HTTP fejlécet kapom, mintha "compress, gzip" értéket adtam volna meg. Maga a (weboldal) tartalom mégis tömörítés nélkül jön át, de megkapja a "chunk"-ot. Tehát hexadecimálisan a tartalom hosszát, utána a (kódolatlan) tartalom, végül a hét bájtos farok (CRLF+"0"+CRLF+CRLF). A WireShark is jelez, hogy "gzip: Decompression Failed" - hát még szép, hiszen nincs is tömörítve! Ha tömörítve (Accept-Encoding: compress, gzip) kérem le az oldalt, akkor gond nélkül átjön, a WireShark is rendesen dekódolja. Csak a gzip-ig még sajnos nem jutottam el így a tartalommal nem tudok mit kezdeni, de külső progit nem akarok ehhez használni.
Szóval a kérdésem: weboldalak átvitelénél a gzip "kizárólagosnak" tekintendő?
Új hozzászólás Aktív témák
● olvasd el a téma összefoglalót!
- Game Pass Ultimate előfizetés azonnal, problémamentesen, méghozzá OLCSÓN! Immáron 8 éve!
- Gamer PC-Számítógép! Csere-Beszámítás! R5 8600G / 6700XT 12GB / 16GB DDR5 / 512 SSD + 2TB HDD!
- Telefon felvásárlás!! iPhone 16/iPhone 16 Plus/iPhone 16 Pro/iPhone 16 Pro Max
- HIBÁTLAN iPhone 12 Pro Max 128GB Graphite -1 ÉV GARANCIA - Kártyafüggetlen, MS4025
- AKCIÓ! Apple iPad Pro 13 2024 M4 16GB/2TB WiFi tablet garanciával hibátlan működéssel
Állásajánlatok
Cég: Central PC számítógép és laptop szerviz - Pécs
Város: Pécs
Cég: Laptopműhely Bt.
Város: Budapest


