Hirdetés
- Luck Dragon: Asszociációs játék. :)
- Lenry: Melléképületblog - 4. rész - Kocsibeálló
- vrob: Az utolsó DOS játékok 1996 - 1997-ben, egy korszak lezárul
- eBay-es kütyük kis pénzért
- Rák
- DeFranco: Tanuljunk angolul játékosan! - Duolingo
- Real Racing 3 - Freemium csoda
- D1Rect: Nagy "hülyétkapokazapróktól" topik
- Elektromos rásegítésű kerékpárok
- Hieronymus: Új biztosítási kártyát kap a nagymama
Új hozzászólás Aktív témák
-
bobace
addikt
Sziasztok! mod_rewrittal kapcsolatban lenne kérdésem. AZt megoldottam, hogy ha beírom, hogy sajatoldal.hu/termek/1 akkor az jöjjön be aminek kell. De azt hogy tudom megoldani, hogy ha beírom a hosszú címet, ami valami ilyesmi: sajatoldal.hu/index.php?item.php=1, a címsorban, akkor is a sajatoldal.hu/termek/1 legyen? Mert az oldalamon levő linkek mind a hosszú címekre mutatnak (most kezdtem el a rewrittal ismerkedni), de jó lenne ha a címsorban már a rövid lenne.
Köszi! -
biker
nagyúr
válasz
kkdesign #11696 üzenetére
(jó lenne használnád a LINK gombot a fórumtárban)
egyébként
echo "<option";
if($i==date("n"))
{
echo " selected=\"selected\"";
}
echo " value=\"$honap[$i]\">".$honap[($i-1)]."</option>";és októbernél 10-et küld el
utána már hadd kérdezzem, mi van ha 02-31-et adok meg? nálad most lehet
-
kkdesign
senior tag
válasz
Peter Kiss #11697 üzenetére
hát csak azt nem tudom, hogy akkor oda mit kellene írjak, a változót ami felvenné az értéket ? jelen esetben $szév $szhonap $sznap ?
-
kkdesign
senior tag
Kiszedtem egy külön oldalra ami csak evvel függ össze ezek vannak meg eddig ( http://pastebin.com/AdV36hYb )és ugye ez ad egy olyan dátumot, hogy 2012 október 20. (ha meg mást ad meg a felhasználó pl 1999 szeptember 11 akkor meg azt) , viszont az adatbázis úgy kezeli, hogy 2012-10-20. ugye van a 3 változóm év hó nap de azt nem tudom, hogy hova tehetném be úgy ezeket a változókat, hogy az felvegye a kiválasztott értékeket, hisz ha felvenné, onnan a "közös" már felvihetné a dátumot az adatbázisomba.
-
kkdesign
senior tag
Hát igen... Ebben nagyon is igazad van.. Amit még ugye nem tudtam megoldani, az a dátumkezelése, a fenti linken látszik (felviteles) hogy melyikre is gondolok. Hogy írja ki a mai napot hónapot évet, visztont amit majd utána kiválasztanak fel kell vinni az adatbázisba éééé-hh-nn formátumba. Azt ezáltal hogy lehetne megoldani, mert így eddig működik, de ugye nem megy fel :S... $szdatum=$szev . '-' . $szhonap . '-' . $sznap; erre kellene kihozni valahogy hogy szdatumként felvihessem.
-
kkdesign
senior tag
válasz
Peter Kiss #11687 üzenetére
Köszi a segítséged, így már működik ahogy kell
a kérdésedre elküldtem a választ privátban.
-
Soak
veterán
válasz
Peter Kiss #11687 üzenetére
En arra lennek kivancsi, hogy mennyibe kerul.
-
kkdesign
senior tag
válasz
Peter Kiss #11685 üzenetére
Köszönöm szépen
hát annyit bújtam, hogy már nem vettem észre... Most felvitte szépen. Illetve a dátummal akadnak még gondok, de az most a legutolsó szempont nekem. Ami fontosabb lenne, az az, amit fentebb írtam, a törlős rész és a 2 vele járó hibaüzenet. http://pastebin.com/N0YvTerr ez a lista és ez a törlő -> http://pastebin.com/nv6hQNg6
Notice: Undefined index: torlendo in C:\...\torlo.php on line 11
Warning: Invalid argument supplied for foreach() in C:\...\torlo.php on line 13 ez pedig a 2 hibaüzenet és hát nem is törli le sem akkor ha checkboxal törlök, sem ha kijelölök és úgy a törlő gombbal. -
kkdesign
senior tag
válasz
Peter Kiss #11683 üzenetére
Rendben, előre is köszi. http://pastebin.com/60PEiRwL ez lenne az, ez a felvitel, itt mikor megnyomom hogy felvigye, látszólag felviszi, ám mégsincs az adatbázisban. a másik ahol kapok hibaüzenetet az ráérősebb.
-
kkdesign
senior tag
Sziasztok, segítségeteket szeretném kérni, Adott egy oldal amibe felviszem az adatokat elvileg levan kezelve, hogyha a submitre rámegyek, akkor vigye fel. Az adatok eltűnnek, mégsem veszi fel az adatbázisba. Van egy listázó oldalam, ahonnan meg törölni nemtudok és valahogy összefüggésben lehet a 2. A felvivőnél nem kapok semmi hibaüzenetet csak visszavillan az oldal ( php myself-es )
a törlős listásnál pedig :
Notice: Undefined index: torlendo in C:/......torlo.php on line 11
Warning: Invalid argument supplied for foreach() in C:\......torlo.php on line 13
mi lehet a gondja ? annak is nagyon tudnék örülni ha esetleg valakinek elküldhetném végső esetben, hogy kiderüljön a hiba és megtudnám oldani.. -
Speeedfire
félisten
válasz
Peter Kiss #11680 üzenetére
Már meg is találtam a megoldást rá. Nem voltam elég körültekintő.
[link] -
Peter Kiss
őstag
válasz
Speeedfire #11679 üzenetére
Ékezetekbe akad bele, próbálj kódolást állítani az adatokon (most itt gyakorlatilag a fájlod játszhat és a fotó encode). A json_encode() csak UTF-8-cal működik.
-
Speeedfire
félisten
válasz
Peter Kiss #11678 üzenetére
Közben én is rájöttem, hogy felesleges nekem az array_push, mivel úgy is egy asszociatív tömb kell nekem.
$ajaxResult = array();
$another = array('foo' => 'bar', 'baz' => 'long');
$ajaxResult['ment'] ='Sikeresen mentve a hozzászólás!';
$ajaxResult['error'] = 0;
var_dump($ajaxResult);
var_dump($another);
echo '<pre>'.json_encode($ajaxResult).'</pre>';
echo '<pre>'.json_encode($another).'</pre>';--------------------------------------------
array
'ment' => string 'Sikeresen mentve a hozzászólás!' (length=31)
'error' => int 0
array
'foo' => string 'bar' (length=3)
'baz' => string 'long' (length=4)
{"ment":null,"error":0}
{"foo":"bar","baz":"long"}A foo/bar meg megy, nem értem. Nincs valami limit a json hosszra?
Vagy nem kell valamit beállítani hozzá? php 5.3.10Őőő. Megvan a hiba oka, az ékezeteket nem szerette a ment változóban. Lecserélve sima angol karakterekre, már ki is írta.
-
Peter Kiss
őstag
válasz
Speeedfire #11677 üzenetére
Így hirtelen nem tudom, de az array_push-t felejtsd már el (lassú sz.r).
$ajaxResult = array(
array('ment'=>'Sikeresen mentve a hozzászólás!'),
array('error'=>0)
);
/*
vagy
$ajaxResult = array();
$ajaxResult[] = array('ment'=>'Sikeresen mentve a hozzászólás!');
$ajaxResult[] = array('error'=>0);
*/
echo '<pre>'.json_encode($ajaxResult).'</pre>'; -
Speeedfire
félisten
Mit rontok el?
$ajaxResult = array();
array_push($ajaxResult, array('ment'=>'Sikeresen mentve a hozzászólás!'));
array_push($ajaxResult, array('error'=>0));
echo '<pre>'.json_encode($ajaxResult).'</pre>';[{"ment":null},{"error":0}]
-
válasz
Speeedfire #11674 üzenetére
Wamp. Lehet, majd megnézem. Szerintem mikor létrehoztam az adatbázist nem raktam utf8-ra.
-
Speeedfire
félisten
válasz
Sk8erPeter #11670 üzenetére
Pedig én is wb alatt szoktam táblákat létrehozni, de ilyen még nem volt. Szerintem default-ból az sql-ben volt beállítva latin és a wb-ben nem vette észre.
-
válasz
Sk8erPeter #11670 üzenetére
De biztos, csak nem hiszem, hogy bepöccintettem.
Szerk.: Ez pontosan mit takar? if (\Fuel::$env == \Fuel::DEVELOPMENT) az a "\" jel érdekel a Fuel::$env előtt. Teljes dokumentáció (alja): [link].
Lényegében ha jól emlékszem, és rémlik a namespace-nél volt róla szó!
-
biker
nagyúr
válasz
Sk8erPeter #11669 üzenetére
;-vel tagolt, de "" kozt vannak a hosszu textek miatt
Utf8 mindenLehet tenyleg mas megoldast valasztok lassan
-
Sk8erPeter
nagyúr
1. "fields enclosed by '\"' sorra" - most honnan jött az aposztróf? Eddig csv volt vesszővel.
2. A tábla karakterkódolása milyen?
3. No clue, nem ismerem a LOAD DATA INFILE-t.
Nagyon muszáj ezt az utóbbit használni egyébként az importáláshoz? Itt azt írja valaki, hogy jóval gyorsabb volt a hagyományos importálós módszer. -
válasz
Sk8erPeter #11667 üzenetére
Igen, de remélem van egy egyszerűbb megoldás! Megtaláltam a hiba okát közben, Workbench-csel készítettem a táblákat az lehet a gond.
-
Sk8erPeter
nagyúr
Google >> 2. találat.
"Export (dump) the database, and reimport it with the new encoding.
http://alexking.org/blog/2008/03/06/mysql-latin1-utf8-conversion" -
Sziasztok!
Hogy tudnám mindenestül egy adatbázis tartalmát utf-8-ra konvertálni? Valamilyen oknál fogva latin-1 pár tábla és sorai.
mobal,
-
FuelPHP-ról mi a vélemény? Használta már innen valaki?
-
-
biker
nagyúr
idegességemben felraktam egy saját xampp alá, tökéletesen berántja az 57megás filet, majd EGY sort beimportál, és hiba nélkül leáll. ha elrontok valamit, akkor dobálja a hibákat
két hiba:
- a mező tagoló " jeleket nem tudom megadni, mert valamiért exceptiont dob a fields enclosed by '\"' sorra
- utf8 a generált csv, utf8 a feldolgozó, meg van adva a set names utf 8, mégis krixkraxol, és minden text " jelek közt van
- és miért csak egy sort ránt be? na de legalább tudom, a másik serveren ez a file méret blockolva van, és van valamiféle limit a load data infile esetén is, mert lefut nálam -
meone
tag
Sziasztok!
Egy kml fájlból szeretnék kiolvasni adatokat, és azt egy táblázatba belepakolni.
Ehhez készítettem egy olyan PHP ami használja a preg_match_all fügvényt.
A kód megtalálható ezen a linken: [link]
Maga a kml fájlhoz vezető link pedig itt: [link]
Valamit szerintem nagyon elírtam, mert a kiíratott tömb üres, lehet valahova nem tettem (*) jelet?Valakinek valami ötlet?
A válaszokat előre is köszönöm.
-
biker
nagyúr
nem megy így sem, sőt, ahogy nézem, a curl fileméret is limitálva van, pár száz kb esetén megy, de 57mb esetén nem olvas be semmit.
na ezen még dolgozni kell -
Peter Kiss
őstag
válasz
Sk8erPeter #11658 üzenetére
Mindkettőt kell használnia, de még az sem biztos, hogy így fog menni (PHP fordítási opciótól is függ).
-
Sk8erPeter
nagyúr
válasz
Peter Kiss #11657 üzenetére
Nem pont ugyanezt éri el azzal, amit itt linkeltem?
-
PazsitZ
addikt
Bár sok mindent írtál, már nem tudom mire írtad, mire nem, a sehol sincs hiba válaszokat.
sql error-t, csekkoltad?
Nincsenek extrém méretű field-ek? Mert ekkor ha jól tudom számíthat a max_allowed_packet Bár ezt a hibát dobnia kell az sql-nek.A megfelelő formátumú a fájl az importhoz?
FIELDS: TERMINATED, ENCLOSED, ESCAPED
LINES: STARTING BY, TERMINATED
argumentumok biztos helyesek?
pl.: \r\n vagy csak \n sorvég szerepel a fájlban? -
biker
nagyúr
válasz
Sk8erPeter #11654 üzenetére
A local tagot mar probaltam, nem segit
Igen, jelenleg mar direkt lementem a curlel a csv filet az adott serverre, ezt ftpn nezte ott van
Mar csak egy 200soros demo file van ott, nem megy
Aztan kiszedtem a + mezoket, nem ment
Az sql server nem localhoston erheto el, de ugyanazon a serveren van
Eddig en se hasznaltam, de az explode sorokra, majd cellakra es egyenkent insert a tombokkel nem tul gyors, ilyet mar hasznalok, 24.000 termek kb 15percig fut -
Sk8erPeter
nagyúr
"de miért is nem dobott hibát akkor a lekérdezés?"
Igazából teljesen mindegy, hibát nem okoz. Ahogy tök mindegy az is, hogy úgy adod meg, hogy
WHERE bolt_id = 123
vagy úgy, hogy
WHERE bolt_id = '123'Ilyenkor, amikor már semmi más nem sikerül, akkor először megpróbálok előtte is-utána is valami teszttáblába feltölteni valami bogus adatot csak próbából, hogy egyáltalán az adatbázissal való kommunikáció normálisan működik-e.
Aztán megpróbálnám tök más, statikus fájllal a MySQL-táblába importálást azzal a query-vel, amit írtál, hasonló körülmények közt, de nem kell, hogy curllel letöltött cucc legyen.
Tehát akkor most már csak koncentrálj erre az egy feladatra, hogy a LOAD DATA INFILE ..... rész működjön.
Na majd kipróbálom kíváncsiságból, én még ezt ilyen formában úgysem próbáltam.Még próba előtt (most úgysincs időm rá): a MySQL-szerver ugyanazon a szerveren van, ahova a fájlt eltárolod?
Tehát például localhost mindkettő?
Lehet, hogy meg kéne próbálnod a LOCAL kulcsszót:
https://discussion.dreamhost.com/thread-126921-post-136078.html#pid136078 -
biker
nagyúr
kipróbáltam a +3 mező (SET id=.....) nélkül, csak annyi mező, ami a csv-ben van, és akkor sem csinált semmit
Lehet, hogy nincs a serveren engedve a load data infile? triviális, de.... -
biker
nagyúr
válasz
Sk8erPeter #11651 üzenetére
Ettől függetlenül fingom nincs, hogy mi a probléma, túl kevés dolgot tudunk a többiről, de kicsit türelmesebben kéne debuggolnod, úgy, hogy minden egyes változót kiíratsz, logolsz fájlba, rendesen debuggolod Xdebuggal vagy ilyesmi, és így tovább. Másképp soha nem fog kiderülni, és szenvedhetsz még vele napokig.
Nézd, köszi mindent, de értsd meg, ennyiből áll az egész egyelőre! nincs több megérteni való dolog. ezt az egyet akarom elérni, importáljon, nem teszi
A file neve jó, két sorral feljebb a file_put_contents-el írom fel a filet, megnéztem, létrejött, letöltöttem, rendben van, megvan, struktúra jó, mégsem importál
Átírtam fix névre, ennek ellenére, továbbra sem importál semmit
Valóban a bolt_id INT, átírtam, nem lett jó (de miért is nem dobott hibát akkor a lekérdezés?) -
Sk8erPeter
nagyúr
nem tudom, még az is elképzelhető, hogy valamiért a PDO-nál mégsem működik megfelelően prepared statementben ez a kiemelt rész:
LOAD DATA INFILE :file .......
tehát hogy nem helyettesítődik be a fájlnév, sosem próbáltam. Mindenesetre a helyedben átmenetileg egy fix fájlnevet adnék meg, olyat, ami nyugodtan felülírható egy tmp könyvtárban, és így fixálnám ezt a fájlnevet, ebbe pakolnám ki első körben a file_put_contents()-szel a tartalmat.
Az ebbe a fájlba kirakott tartalom jó egyáltalán a curl után?Még rájöttem, hogy valszeg a :bolt_id INT, tehát azt át kéne alakítani így:
$stmt->bindValue(':bolt_id', $bolt_id, PDO::PARAM_INT);
(korábban rohanva véletlenül csak stringszerűen írtam, PDO::PARAM_STR-rel)
Ettől függetlenül fingom nincs, hogy mi a probléma, túl kevés dolgot tudunk a többiről, de kicsit türelmesebben kéne debuggolnod, úgy, hogy minden egyes változót kiíratsz, logolsz fájlba, rendesen debuggolod Xdebuggal vagy ilyesmi, és így tovább. Másképp soha nem fog kiderülni, és szenvedhetsz még vele napokig. -
biker
nagyúr
válasz
Sk8erPeter #11644 üzenetére
nincs hiba, nem importál semmit, file létezik az adott elérésen
wtf? -
biker
nagyúr
válasz
Sk8erPeter #11644 üzenetére
Kiprobalom este! Koszi, ertelek
-
syC
addikt
válasz
Speeedfire #11645 üzenetére
Épp azt próbálom kideríteni, hogy hogyan fut le gyorsabban. Én csak örülnék neki, ha párhuzamosan gyorsabban futna le.. Ahogy próbálgatom, azt veszem észre, hogy egymást lassítják.
(#11646) Tele von Zsinór: használok mindegyikben. A session-t csak olvassák.
-
Tele von Zsinór
őstag
Használsz sessiont a két scriptben? Egy adott session egyszerre csak egy scriptben lehet aktív, ilyenkor a később bejövő vár, míg az előbb bejövő végez. A session lockot feloldhatod kódból a session_write_close függvénnyel, de persze ilyenkor ha később módosítod, az nem lesz mentve.
-
Sk8erPeter
nagyúr
Én meg azért nem értelek, mert PDO-t használsz, de pont ugyanúgy belefűzöd a query-be a változót, mintha nem is PDO-t használnál, ezzel pont a lényegét veszti el a PDO-használat.
$stmt = $db->query("LOAD DATA INFILE '$file' INTO TABLE ar_termekek FIELDS TERMINATED BY ';' LINES TERMINATED BY '\r\n' IGNORE 1 LINES SET id=null,bolt_id='$bolt_id',frissitve=NOW();");
HELYETT
$stmt = $db->prepare("LOAD DATA INFILE :file INTO TABLE ar_termekek FIELDS TERMINATED BY ';' LINES TERMINATED BY '\r\n' IGNORE 1 LINES SET id=null,bolt_id= :bolt_id, frissitve=NOW();");
$stmt->bindValue(':file', $file, PDO::PARAM_STR);
$stmt->bindValue(':bolt_id', $bolt_id, PDO::PARAM_STR);
$stmt->execute(); -
biker
nagyúr
válasz
Sk8erPeter #11640 üzenetére
ezért nem értelek, mert ezt írtam:
<?php
$db = new PDO(
"mysql:host=****;dbname=****",
"****",
"****",
array(
PDO::MYSQL_ATTR_INIT_COMMAND => 'SET NAMES UTF8;',
PDO::ATTR_ERRMODE => PDO::ERRMODE_EXCEPTION,
)
);
...............
$curl = curl_init();
curl_setopt($curl, CURLOPT_URL, $url);
curl_setopt($curl, CURLOPT_TIMEOUT, 60);
curl_setopt($curl, CURLOPT_RETURNTRANSFER, true);
curl_setopt($curl, CURLOPT_USERAGENT,
'Mozilla/5.0 (Gerisoft downloader 1.0)');
$data = curl_exec($curl);
curl_close($curl);
$file="lista/".$bolt_id.".csv";
file_put_contents($file, $data);
$stmt = $db->query("LOAD DATA INFILE '$file' INTO TABLE ar_termekek FIELDS TERMINATED BY ';' LINES TERMINATED BY '\r\n' IGNORE 1 LINES SET id=null,bolt_id='$bolt_id',frissitve=NOW();");
............. -
Sk8erPeter
nagyúr
Olvasd el még egyszer, amit írtam.
Szerk.: hát mittudomén ennyiből.A szervered valamiért a masodik.php-vel előbb végez, aszinkron, mint említettem vala.
Ha nem így szeretnéd, akkor ne így AJAX-olj. Amúgy meg az .on()-t nem jó az egész body-ra meghívni, feleslegesen erőforrás-igényes, persze csak kliensoldalon. És igen, erősen OFF.
-
syC
addikt
Valószínűleg nem, de akkor miért nem szekvenciálisan fut le a két php oldal? Nálam először lefut a második, aztán az első.
(#11640) Sk8erPeter: Valahogy úgy tűnik, hogy egyik vár a másikra. Ez lehet attól is, hogy túl sok neki a két php oldalban futtatandó feladat?
Lehet ezt sem ebbe a topicba kellett volna..
-
syC
addikt
<script src="http://code.jquery.com/jquery-latest.js"></script>
<script>
$("body").on("click", '#gomb', function(){
$.ajax({
type: 'GET',
url: 'elso.php',
cache: false,
beforeSend:function(){
$('#txt').html('Első start..');
},
success:function(data){
$('#txt').html('Első kész!');
}
});
$.ajax({
type: 'GET',
url: 'masodik.php',
cache: false,
beforeSend:function(){
$('#txt').html('Második start..');
},
success:function(data){
$('#txt').html('Második kész');
}
});
});
</script>
<body>
<div id='txt'></div>
<input type='button' id='gomb' value='nosza' />
</body>Lehetséges, hogy így az elso.php és masodik.php oldalak párhuzamosan futnak le?
-
biker
nagyúr
válasz
Sk8erPeter #11637 üzenetére
kiírattam, mielőtt írtam az előző postot, és próbáltam, de
1: nem importált semmit
2: nem dobott hibát-- milyen prepared statement lehet még rá? javaslat?
-
Sk8erPeter
nagyúr
-
biker
nagyúr
no, végülis lementeni tudom, csak a $data változóban felhasználni nem.
tehát ha file_put_contents-el kirakom serverre, már jó, csak valamiért a load data infile nem fut le továbbra sem
és nincs elkapható hiba -
Lacces
őstag
válasz
Peter Kiss #11632 üzenetére
Egyáltalán nem, de ha van valakinek jobb ötlete/tippje, ne tartsa magában
.
-
biker
nagyúr
kérek egy kis varázslást
Van egy pár soros curl script, amivel más oldalamban pl távoli serverről képeket mentek magamhoz, és működik, ellenben most megmakacsolta magát
$curl = curl_init();
curl_setopt($curl, CURLOPT_URL, $url);
curl_setopt($curl, CURLOPT_TIMEOUT, 60);
curl_setopt($curl, CURLOPT_RETURNTRANSFER, 1); //do not output directly, use variable
curl_setopt($curl, CURLOPT_BINARYTRANSFER, 1); //do a binary transfer
curl_setopt($curl, CURLOPT_FAILONERROR, 1); //stop if an error occurred
curl_setopt($curl, CURLOPT_USERAGENT, 'Mozilla/5.0 (Gerisoft downloader 1.0)');
$data = curl_exec($curl);
$stmt = $db->query("LOAD DATA INFILE '$data' INTO TABLE ar_termekek FIELDS TERMINATED BY ';' LINES TERMINATED BY '\r\n' IGNORE 1 LINES SET id=null,bolt_id='$bolt_id',frissitve=NOW();");
curl_close($curl);Árlistát töltenék be csv-ből. ha a curlopt_returntransfert kihagyom, a teljes árlistát kinyomja a képernyőre, fut olyan 20mp-ig emiatt
ha így hagyom, akkor 2mp-ig fut, és nem importál be semmit a táblába (lehet hogy a lekérdezésem rossz?) de nem fut addig, míg az 57mb file indokolná, hanem csak 1-2mp-ig fut -
válasz
Sk8erPeter #11623 üzenetére
Akkor pontosítom, a routolással van baj. Ugye így néz ki az url: http://mobal.atw.hu/index.php/settings, ebből az index.php -ra van minden irányítva alap esetben, most kontrollerem nincs, és a meghívandó metódus a settings lenne. Gondoltam már rá, hogy nem a Kohana, hanem az ATW baja.
Milyen jó, jobb ingyenes szolgáltatót ajánlanátok helyette?
Szerk.: látom az ATW dobja a 404-et. Akkor ez most mégis csak az Apache baja lenne?
mobal,
-
Lacces
őstag
válasz
Sk8erPeter #11625 üzenetére
csak nekem olyan furcsa, hogy /index.php/settings, akkor már inkább index/settings. Én nem keverném kettőt. De ez csak az én egyéni szociális problémám az url-ekkel
-
Sk8erPeter
nagyúr
válasz
Lacces #11624 üzenetére
"De amúgy /index esetén és atw-s 404-es hibát kapsz. Nem tudom minek hívják ez, amikor a .php-t lehagyod az url routing során, szkript fájlnév, vagy valami ilyesmi, na az ilyen linkek nem működnek."
És az miért lenne baj, ha nem működik, ha lehagyja a végét? Sztem jobb is, hogy így van konfigurálva.Ja, egyébként Apache-nál a kiterjesztések nélküli fájlkeresgélést ez állítja: MultiViews. (Példa a .htaccess-ben: Options +MultiViews, de ez sztem kerülendő. Felesleges load a szerverre.)
Amúgy sztem eleve az a baj, hogy azon a rakás szar ATW-n teszteli.
-
Lacces
őstag
Nem értek a kohanna keretrendszerhez, de az url irányítással van a baj.
http://mobal.atw.hu/index.php/settings.php - erre nem dob sima atw-s 404-es hibát, hanem 'HTTP_Exception_404 [ 404 ]: Unable to find a route to match the URI: settings.php'
Ugyanez van az /index.php esetében is... szal valahol lehet el van állítva az url routing. De amúgy /index esetén és atw-s 404-es hibát kapsz. Nem tudom minek hívják ez, amikor a .php-t lehagyod az url routing során, szkript fájlnév, vagy valami ilyesmi, na az ilyen linkek nem működnek.
-
Sziasztok!
Újabb kérdés, most megy ATW-n a múltkori "probléma", de most meg az url darabolás nem. Valaki találkozott ilyennel?
Pl.: http://mobal.atw.hu/wp-admin/index.php jó, de http://mobal.atw.hu/index.php/settings nem.
Ötlet?
-
Lacces
őstag
Jah, akkor cumi van, a curl technológia esetén.
Soak kolléga
jó topicot ajánlott, de én inkább a jquery-t ajánlanám
, de ez már tényleg csak ízlések is pofonok kérdése.
DelArco - nak. Általában a Curl a gyorsabb, amúgy meg nem mindig. Azóta utána olvastam ennek a témának alaposabban.
Curl-t két esetben nem érdemes használni a get_headers-sel szemben, ahogy olvastam neten (hogy tényleg így van-e a valóságban, azt már nem tudom).
- nagy méretű xml fájl
- kevés adat érkezik vissza.
(Meg még egyéb hálozati, hardveres dolgoktól is függ a curl). De általában gyorsabb.
De ha a fenti 2 közül igaz valamelyik... akkor a get_header javasolt. De amúgy meg meg is nézhetedmagadnak (mérheted), hogy melyik a gyorsabb.
De ez már majdnem olyan téma, mint az algoritmusok. Egyes algoritmusok általában lassabbak, de ha a legrosszabb esetre vizsgálunk, akkor gyorsabbak mint a többi. És van olyan, amely meg irgalmatlanul gyors, ha jó "ütemben" mennek az adatok... -
syC
addikt
Hogyan tudnám megoldani, hogy http kérés közben ajaxal (vagy bármivel) szöveget módosítsak pl egy div innerHtml-jében?
-
válasz
Peter Kiss #11616 üzenetére
köszi.
igazából az a kérdés hogy get_headers vagy curl a jobb/gyorsabb? -
Peter Kiss
őstag
-
Hello
Egy olyan kérdésem lenne hogy mi lehet a legegyszerűbb módja annak hogy leellenőrizzem hogy egy linken lévő kép még ott van e.
Elsőre a get_headers függvényt találtam a neten ami jó is de lehet van ennél jobb is.
Most annyit csinálok hogy megnézem hogy 404-et ad e vissza és ha igen akkor feltehetjük hogy nincs ott.
(azt feltételezzük hogy a linkek tényleg képekre mutatnak nem usertől kapott linkek)
Van valakinek ezzel kapcsolatban tapasztalata, tanácsa vagy véleménye? -
dodopek
addikt
válasz
Sk8erPeter #11610 üzenetére
Ha Te nem érted, mit szóljak én?
Igazából azért így csináltam, mert ezt legalább valamennyire értem.Nem "tudom", csak kicsit megértem, az összefüggéseket.Az általad említett kódokat még osem használtam, köszönőviszonyban sem vagyok velük. Itt az oldal nagyjából úgy született, hogy a html-t össze fejszéztem én( valószínűleg egy igazán hozzáértő attól is elsírná magát), aztán a google-be beírtam, hogy file feltöltés php, és megkaptam ezt. A drupalnál viszont azt sem tudnám melyik az eleje.
Azért köszönöm a tanácsot, és a segítséget, talán egyszer majd továbbképzem magam erre is.Addig marad ez így. Célnak megfelel, megy, nekünk meg ez elég... -
pakriksz
őstag
tudna valaki ajánlani valami free php weboldalmotort, erre a célra: főleg kategorizált letöltések, kis bemutatóképpel, kis leírással, esetleg néhány cikk. Egy admin által ellenőrzőtt látogatói feltöltő felület sem lenne rossz, és persze ezt mind úgy hogy mindent szép webes felületen lehet elérni, nem kell ftp-n kotorászni, kézzel sql-ben matatni.
-
Sk8erPeter
nagyúr
válasz
dodopek #11609 üzenetére
Hát nem nagyon értem, mi a gond, kipróbáltam, nálam localhoston jól működik.
Lehet, hogy a szerveren van elcseszve valami, de most hirtelen nem jövök rá az okára.Pl. egy pdf-hez tartozó képet így írat ki:
if($image == 'pdf') echo base64_decode('iVBORw0KGgoAAAANSUhEUgAAABAAAAAQCAYAAAAf8/9hAAAABGdBTUEAAK/INwWK6QAAABl0RVh0U29mdHdhcmUAQWRvYmUgSW1hZ2VSZWFkeXHJZTwAAAHhSURBVDjLjZPLSxtRFIfVZRdWi0oFBf+BrhRx5dKVYKG4tLhRqlgXPmIVJQiC60JCCZYqFHQh7rrQlUK7aVUUfCBRG5RkJpNkkswrM5NEf73n6gxpHujAB/fOvefjnHM5VQCqCPa1MNoZnU/Qxqhx4woE7ZZlpXO53F0+n0c52Dl8Pt/nQkmhoJOCdUWBsvQJ2u4ODMOAwvapVAqSJHGJKIrw+/2uxAmuJgFdMDUVincSxvEBTNOEpmlIp9OIxWJckMlkoOs6AoHAg6RYYNs2kp4RqOvfuIACVFVFPB4vKYn3pFjAykDSOwVta52vqW6nlEQiwTMRBKGygIh9GEDCMwZH6EgoE+qHLMuVBdbfKwjv3yE6Ogjz/PQ/CZVDPSFRRYE4/RHy1y8wry8RGWGSqyC/nM1meX9IQpQV2JKIUH8vrEgYmeAFwuPDCHa9QehtD26HBhCZnYC8ucGzKSsIL8wgsjiH1PYPxL+vQvm5B/3sBMLyIm7GhhCe90BaWykV/Gp+VR9oqPVe9vfBTsruM1HtBKVPmFIUNusBrV3B4ev6bsbyXlPdkbr/u+StHUkxruBPY+0KY8f38oWX/byvNAdluHNLeOxDB+uyQQfPCWZ3NT69BYJWkjxjnB1o9Fv/ASQ5s+ABz8i2AAAAAElFTkSuQmCC');
Hátha ebből majd valaki rájön, mi lehet az oka...
Egyébként szerintem jobban jártál volna, ha egy Drupalt vagy WordPress-t teszel fel ilyen célra, egy csomó minden eleve jól le van kezelve, és hosszú távon hasznosabb megoldás egy ilyen CMS. Van bejelentkezés, hozzászólási lehetőség, és minden egyben, eleve a beépített modulok között, tehát nem mindenféle helyről kéne összeollózni a kódot; plusz könnyen bővíthető mindenféle komplex dologgal egy ilyen tartalomkezelő rendszer (CMS).
Esetleg érdemes lehet megfontolni az erre való átállást. De ahhoz MySQL is kell, meg némi idő a beállítgatásra, de hosszú távon szerintem megtérül. -
dodopek
addikt
válasz
Sk8erPeter #11526 üzenetére
Sk8erPeter!
Köszönöm a felajánlást, lenne kérdésem. Kész az oldal, birtokba vettük, használjuk. Csak az lenne a kérdésem, hogy milyen képeket hiányol a PHPDL? A file-ok előtt, és utáni rész.
A kódot innen szedtem le, nincs benne semmi kép formátum, ami kellhetne a megjelenítéshez.
Még egyszer köszönöm a segítséget magam, és az osztályom nevében. -
biker
nagyúr
Database error: SQLSTATE[HY000]: General error: 2014 Cannot execute queries while other unbuffered queries are active. Consider using PDOStatement::fetchAll(). Alternatively, if your code is only ever going to run against mysql, you may enable query buffering by setting the PDO::MYSQL_ATTR_USE_BUFFERED_QUERY attribute.
erre tudtok megoldást?
még mindig a fb register kóddal szívok, lassan inkább megírom magam
megvan, hogy valamiért az iframe-es fb register form működik, a többi js verzió nem, lecseréltem, végre küld és fogad adatokat, de ez a hiba insert esetén -
Lacces
őstag
válasz
Sk8erPeter #11603 üzenetére
Hálozatok tantárgyból néztük meg, mert rákérdeztem, wget, telnet stb. wifishark, hogy behúzás melyik gyorsabb, aztán így rákérdeztem, hogy a java platform melyiket használja, aztán kitértünk a php-ra is. Igaz annyira nem néztem meg, hanem a módszer amire épül azt beszéltük át. Igen itt ferdítettem.... ha így nézzük
, hanem a matematikai hátterét vizsgáltuk meg a módszernek
(Nem vagyok penge matekból, csak szeretem) Mint az algoritmusok tantárgyaknál is akinek ismerős...
Amúgy valahol van is erről leírás a neten, valamelyik amcsi egyetem honlapján találkoztam, ahol ki volt elemezve.Engem mindig is érdekelt az ilyesmi. Meg hogyan zajlanak ezek hardver közeli szinten... Feltételeknél melyiket értékeli gyorsabban, false vagy true, rövidzárak alkalmazása, bitenkénti átfordítás stb.
-
Coyot
őstag
válasz
Sk8erPeter #11603 üzenetére
Szerintem igazából innen ízlés kérdése, kinek melyik tetszik. Nálam a debug modul print_r el rakja ki az infókat, de valószínű a var_dump-al is pont ennyire meg lennék elégedve
-
Sk8erPeter
nagyúr
Tehát végül is visszajutottunk oda, hogy a print_r()-rel kiíratásnak nagyjából semmi értelme/előnye nincs.
(#11602) Lacces :
"De a curl() felépítését is nézve gyorsabbnak tűnik, mint a file_get_contents()."
Hosszan szuggeráltad a curl manualját, aztán addig nézted, míg már LÁTTAD, hogy úgy van felépítve, hogy gyorsabb? -
Lacces
őstag
A curl() általában gyorsabb, legalább is ezt mondják. Én csak párszor használtam és nem mértem, "szemmel" meg nem volt érezhető a különbség.
De a curl() felépítését is nézve gyorsabbnak tűnik, mint a file_get_contents().Amúgy meg ez nagyban függ, hogy a lekérdezett oldal hogyan van beállítva, szerver szinten. Előfordul, hogy a TCP kapcsolatot nem kapcsolja le, vegetálodik.
Amúgy meg ha file_get_contents()-t használsz, akkor a fenti linken lévő stream_context segíthet benne (vagy nem...)
-
syC
addikt
Haladok-haladok, csak este pálinkázni kellett, sajnos nem tudtam ezzel foglalkozni. De ma reggel: substr-gel 3.1millió karakterben a monyák ~12s, 10 oldalt átvizsgálva
Látszik, hogy jó minőségű volt a hp
Most egy keresés kb 1 ezres másodperc. Ahogy néztem, az idő nagy részét az oldal betöltése viszi el, a file_get_contents() függvény. Ezt lehetne valahogy gyorsítani? Átlag 1.8 sec egy oldal (299ezer karakter) bezúzása. Tudom, hogy ennek azért idő kell, de mégis..
Új hozzászólás Aktív témák
- Honor 90 Lite 256GB, Kártyafüggetlen, 1 Év Garanciával
- IPhone 15 Pro 128GB Függelten! Akku: 89% Jótállás: 2027.01 hó ig
- Csere-Beszámítás! Prémium vizhűtéses számítógép! I9 11900K / RTX 3090 / 64GB DDR4 / 1TB SSD
- IPhone 16 256GB!!! Bontatlan! One függő! Jótállás: 2028.04.04.-ig
- ÁRGARANCIA!Épített KomPhone i5 14600KF 32/64GB DDR5 RAM RX 9070 16GB GAMER PC termékbeszámítással
Állásajánlatok
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest