- sziku69: Szólánc.
- sziku69: Fűzzük össze a szavakat :)
- Luck Dragon: Asszociációs játék. :)
- gban: Ingyen kellene, de tegnapra
- ubyegon2: Airfryer XL XXL forrólevegős sütő gyakorlati tanácsok, ötletek, receptek
- LordAthis: Ismét egy "Idióta" A.I. Projekt, hogy meglovagolja az aktuális trendeket...
- f(x)=exp(x): A laposföld elmebaj: Vissza a jövőbe!
- Meggyi001: Nyilvános wc-k.....még mindig hiánypótló...
- Elektromos rásegítésű kerékpárok
- eBay-es kütyük kis pénzért
Hirdetés
-
LOGOUT
Új hozzászólás Aktív témák
-
inf3rno
nagyúr
válasz
martonx #20886 üzenetére
Egyáltalán nem ragaszkodom az SQL-hez. Teljesen jó nekem a Neptune erre a projektre. A cyper lekérdezőnyelvvel már játszottam régebben neo4j-vel, úgy nézem, hogy ez is támogatja. Ami kérdéses inkább a fejlesztői környezet, de elvileg localstack-el vagy serverless-el megoldható lambda fejlesztés, adatbázisnak meg tök jó a neo4j. Fellövöm valamelyik héten ezt az egyveleget AWS-en, aztán rákötöm valamelyik domainemre. Kíváncsi vagyok rá.
-
coco2
őstag
válasz
inf3rno #20884 üzenetére
Az ilyen típusú adathalmazokból statikus weblapokat szokás gyártani, amikben linkek vannak más weblapokra. Amíg rendesen felépíted a gyűjteményt, a weblap gyártás vezérléséhez és a linkek nyilvántartásához bizony kelleni fog valami adathalmaz kezelő. Nem kell sql, ha nem akarod, elég egy json, elvégre nem lesz szükség adathozzáférési konfliktusok lekezelésére, ha csak egyetlen munkaprocess fér hozzá az adatokhoz. Ha elkészült, nem fog már hozzá kelleni semmi más, mint egy statikus weblap hosting szolgáltatás. Gyakorló projektnek jó ötlet lehet, ha a főzőcske érdekel.
-
-
inf3rno
nagyúr
Mondok egy példát. Van egy pizza recept, amihez paradicsomszósz kell. A paradicsomszósz megvehető, de elő is állítható paradicsom sűrítményből vagy egész paradicsomból receptek alapján. Szóval igazából amikor egy receptet kérdezel le összetevőkkel, akkor valójában egy teljes gráf szeletet kérdezel le egy csomó alapanyagok előállításához való recepttel együtt. Ha versenyezni akarsz mondjuk egy nosaltyval, akkor kellenek az ilyen többlet szolgáltatások, hogy mondjuk ha van 2kg paradicsom otthon, akkor felajánlja, hogy főzzél belőle szószt ahelyett, hogy elküld a boltba kész szószért. Mondjuk nem biztos, hogy erre mindenkinek van igénye, én csak magamból indulok ki, hogy nem mindig van minden itthon és fogalmam sincs, hogy mit főzzek.
-
inf3rno
nagyúr
Ahogy nézem with recursive lekérdezéssel megoldható még abban is. Igazából én nem szeretném SQL adatbázisban megoldani, mert azok nem erre valóak meg leginkább azért, mert gyakorolni akarom a felhő alapú technológiákat. Akarok egy itthoni AWS és talán egy Azure accountot is gyakorolni.
-
inf3rno
nagyúr
válasz
martonx #20878 üzenetére
Én most gondolkodok egy hobbi receptgyűjteményes projekten, hogy megnézzem melyik környezetben mik a lehetőségek. Az egész kb. 10-15 SQL tábla lenne. A neheze, hogy gráfban kell lekérdezni kb. 5-10 kapcsolat mélységig, hogy bármi hasznosat megtudjak. Szóval erre talán gráf adatbázis lenne jobb. Úgy nézem, hogy Azure környezetben van a Cosmos, AWS-ben meg a Neptune, ami ilyet tud, és mindkettő egész olcsó, ha valami nagyon minimumra veszem a használatot.
-
martonx
veterán
válasz
inf3rno #20875 üzenetére
Azure Function kb. az AWS Lambda megfelelője. Az AWS Lambda egy komplett serverless futtató környezet. Az Azure Function nem komplett futtató környezet, inkább ahogy a neve is mondja egy saját SDK-n belül megvalósított funkciókra szolgál (a funkciók pont ugyanazok lehetnek mint AWS Lambdánál, azaz HTTP requesttől a storage eventeken keresztül mindenféle lehet), azaz kötöttebb, mint az AWS Lambda, cserébe egészen olcsó (elég nagy határon belül ingyenes). Ugyanolyan az árazása, mint AWS Lambdának, azaz futásidő közben elhasznált erőforrásért kell fizetni.
Ha a kötöttség nem jön be, akkor az Azure App Service az, ami az AWS Lambdához közel áll, viszont ez már inkább egy komplett webszerver. Ennek megfelelő árazással (nem a használt CPU + ram után fizetsz, hanem havi fixen szerver paraméterekért pl. 1 mag 2 Gb ram fixen havi 11 EUR). Szvsz ez a kettő Azure feature áll közel az AWS Lambdához, ami valahol e kettő között helyezkedik el.
S3 megfelelője az Azure Storage, amiben létezik Table Storage, ami egy filléres végtelenül buta NoSQL szerűség, inkább csak egy JSON tároló, ami tud minimális SQL szintakszissal keresni is magán belül. Filléres, rohadt gyors, cserébe egészen buta.
Szóval Azure-ön belül én egy Azure Function + Azure Table Storage-al állnék neki. Ezzel a párossal vélhetően kb. ingyen lenne az egész móka.De azon is gondolkoztam platformtól függetlenül, ha tényleg csak ennyi kell neki, hogy 10-15 másodpercenként valami adatot elérhetővé tenni HTTP-n keresztül, akkor miért nem generálja ezt ki a mostani szervere, és dobja ki egy static hostingba a json file-t (AWS, vagy Azure vagy bármi). Ettől kezdve azt bárki, bármilyen mennyiségben kb. ingyen le tudja kérdezni, akár DDoS-olni is tudja persze, csak nem fog számítani.
Mondjuk én kitenném ingyenes Vercel-be / Netlify-ba, ami ad CDN-t is, és máris probléma megoldvaés nulla költsége van.
-
inf3rno
nagyúr
válasz
martonx #20874 üzenetére
Ja most nézem, tényleg el van szállva az ára a Redisnek és az RDS-nek is minimum 100 USD. AWS környezetben olcsósítva akkor maradhat az, hogy Lambda + S3(JSON/CSV) + Athena. Amennyire értem, hogy mit akar, gyakorlatilag elég neki annyi, hogy előállítja az adatot, bizonyos időközönként a játék szerver adatai alapján, aztán kiolvassa a legrégebbit, esetleg Athena-val még keresni is tud benne. Azure-al tisztában van valaki, hogy ott mik elérhetőek olcsón? Szeretnék abban is valamennyi tapasztalatot szerezni.
-
inf3rno
nagyúr
válasz
MasterDeeJay #20872 üzenetére
AWS Lambda kell, és ElastiCache-be betenni egy időzített folyamattal mondjuk percenként az adatot, aztán onnan kiszívhatja a lambda, és nem zavarja a játékszerveredet sem, ha szétDDOSolják a Lambdát. Már ha AWS a környezet. Amúgy ahogy írták DDoS-ra meg jó a CloudFlare.
-
-
válasz
MasterDeeJay #20870 üzenetére
> cloudflare mögé maga a weboldalt beraktam és minden szerver dns-ét. Bár a már feloldott ip-ket tudják támadni.
proxied modban nem kene, hogy lassak az a feloldott IP-t
-
Köszi a válaszokat!
Úgy épül fel hogy van egy fixip-s hely ahol fut az egyik játékszerver, van egy nemnatolt otthoni netes ahol fut a másik játékszerver és az mikrotik cloud dns-ével van összehozva saját domainel.
A webszerver ahw.hu-ról van totál ingyenes csomag. Domain meg tarhely.eu-s.coco2
Api token ezt szerintem meg tudom csinálni. Tanusítványt nem tud szerintem a httplistener.dabdab
A webszerver igyenes awh.hu tárhelyről van. Megnézem hogy annak milyen ip-i vannak viszont szerintem az ingyenesben nem teljesen fix.emvy
cloudflare mögé maga a weboldalt beraktam és minden szerver dns-ét. Bár a már feloldott ip-ket tudják támadni.Annyit megcsináltam hogy van egy cache a webszervernél hogy ne kérdezzék le a látogatók egyenként a szervereket hanem egy lekérdezés 10 másodpercig él azaz ha lenne 100 látogató akkor is csak pár lekérés megy 10-15 másodpercenként a szerverek felé. Ez a része védett jelenleg azaz a játékszervereket a weboldalról nem tudják ddosolni. Azaz magát a szolgáltatót igen de elvileg a játékszervereket onnan nem csak ha direktbe az játékszerver ipjeiket találják meg.
Tervben lenne az hogy ha a mod készen van akkor több szerver keresője lenne nem csak megjelenítő. -
válasz
MasterDeeJay #20866 üzenetére
Tegyed be Cloudflare mögé. Az ingyenes verzió is ad DoS védelmet, bár a WAF az havi 200 dollár (az már tud egy csomó szofisztikált dolgot).
-
válasz
MasterDeeJay #20866 üzenetére
Ha fixen egy szerver kérdezi le az adatokat, akkor tudsz IP címre szűrni, akár firewall szinten is (ha ahhoz hozzáférsz) - ez nem bombabiztos, mert nyilván a forrás IP-t is lehet hamisítani, de pár dolog ellen véd. Aztán meg ott a rate limiting, hogy nem engeded, hogy akárhány aktív lekérdezés legyen, hanem egy idő után nekiállsz nem válaszolni. Nyilván ezzel megát a denial of service-t nem tudod elkerülni (szóval lehet, hogy átmenetileg a webszerver se kapja meg az adatokat), de legalább nem fogja elzabálni a modod az erőforrásokat a játék elől.
-
coco2
őstag
válasz
MasterDeeJay #20866 üzenetére
DDOS ellen effektíve nem tudsz védekezni. Legyen szerver craft, legyen teljesítmény-hatékony a tech stack, és ne legyenek haragosaid
WebAPI-hoz illik tokent rakni a csomagba, amit login szervertől kell kérni, és amíg az nincs, gyorsított eljárással csak ignorálni a kérést.
Ha csak saját maganak kell, használj zárt tanusítványt, és akkor senki más nem tud a szerveredhez csatlakozni.
-
véleményt, ötletet szeretnék:
Van egy játék amelyben írtam egy modot. Annyit csinál hogy egy httplistenerrel kirak mindenféle infót, azaz szervernevet, maxplayer, onlineplayer és azoknak életét, hőmérsékletet időjárást a helyzetüknél stb. [link] Aztán ezt egy PHP összeszedi és weben megjeleníti. [link]
Namármost ez valahogy biztonságossá kellene tennem. A gond ugye az hogy a httplistener eléggé egyszerű szerkezet és a játék sem igazán arra van kitalálva hogy én egy moddal nyissak belőle egy webszervert. Milyen módon tehetném biztonságossá azaz ddos védelem meg a többi. Nem tárol atomtitkot és igazán sem jelszót sem semmi olyat mit a játékhoz való csatlakozásnál ne lehetne kiírtani. Elsősorban azt szeretném elkerülni hogy a szerver túlterhelődjön. A PHP résznél tudok cache-elni ha szükséges így nem kell lekérni újra a dolgokat minden egyes látogatónak bár ezt a részt még nem írtam meg. -
Amennyiben vannak kapcsolataid megfelelo helyen (CIO, CTO, COO, CISO - vagy az kozeli tanacsadojuk), es hozzafersz olyan szoftverekhez beszerzesi ar alatt, ami most keresett, akkor van eselyed.
Alternativakent el kell tudnod hitetni, hogy ezt a szoftvert el tudod kesziteni (megfelelo hataridon belul). -
coco2
őstag
Vajon van közöttünk, aki rálát a szoftver piac sales oldalára? Akár ismerősön keresztül? Nem az elmélet érdekel, hanem a jelenkori belföldi gyakorlat, és a nagy értékű szoftverek eladása a kérdésem célpontja, amihez ügyfél management tartozik, és jelentős a folyamatos jutalék.
-
aprokaroka87
nagyúr
Amit a chatgpt kapcsán tapasztalatok hogy sok esetben egy ideig jól megy a dolog aztán mint ha történne valami minden elkezd " elromlani "
Hozok egy egyszerű projektetet
A szövegrészt ne figyelje senki, ugyanis már az agyrém volt hogy elmagyarázni hogy mi és hogyan van 😁
Aki akarja próbálja ki.
Amire érdemes figyelni hogy a szélesség meg a hosszúság össze van cserélve.
Egy példa.
Szélesség 2000
hosszúság 1000
sáv 370vagy darab hosszúsága 370
Amit észre vettem hogy a Canvas rajzon kb 160 x 160 mm darabok esetén még épp látható a kijelzett méret, az alatt viszont már elkezdi levágni a végét.
Erre több megoldást is javasoltam.
1. Legyen kisebb a betűméret.
2. alkalmazzon sortörést.
3. alapból ne legyen minden darabon ott a méret, hanem csak akkor történjen meg ha az egér kurzor felette van, vagy az érintő képernyővel oda van tapizva akkor jelenlen meg.Igazából a 3. tűnt a legjobb opciónak.
Na de szerintetek bármelyiket is jól megcsinálta?Pedig előtte meg le írta hogy mit csinált meg 😁
Persze tudom bonyolulttá teszi a dolgot hogy ezt magyarul írom neki.
Aki akarja nyugodtan probálja ki.
Természetesen azt is tudom hogy az egész kód egyben van és ugye tudomásom szerint ilyet sem szabadna.
nincs külön szedve a javascript, css, html rész.
De alapból egybe írta 🤷Nos a tanulság az az számomra is ha nem tudsz programozni az AI nem fog helyetted " programozni "
-
-
proci985
MODERÁTOR
olyan matematika levezetéseket is meg tud csinálni, amit sose látott.
Ja, zero shot learningre képes ami jó, mert mi emberek is így működünk. Probléma, hogy az a matematikai levezetés nem feltétlenül lesz jó.Még ScopusAItól is láttam eléggé meredek hibákat.
coco2
Most esetleg megkérdezném, honnét tudod, hogy mit kapott információ betápnak?
promptokból nagyon specifikus esetekben (szűk terület) vissza lehet fejteni.googlenél nekem tavaly pythonnal volt az a tapasztalatom, hogy az első 20 találat kb a petal dataset alapján írt guideból generált -> crawlolt -> generált -> crawlolt -> generált content volt.
de olyan szinten, hogy konkrétan azt már semelyik guide nem írta, hogy mi van, ha eltérő adattípus vagy eltérően formázott inputod lenne.
---
egyébként nagyon úgy néz ki, hogy vibe coding egy pontig pl BSc computer science programoknál működik. aztán utána gyanúsan eljön az a pont, hogy aki magától nem tud kódot olvasni és írni, az kb belefut egy betonfalba.
mondjuk globális publikációkat erről a területen még nem láttam, de pl a Microsoft pár héttel ezelőtti tanulmánya is ezzel egybevág. senioroknak nagyon jó (és ha senior vagy, akkor stimmel amit írsz, hogy genAI a te szinteden gyorsít), kezdőknél viszont akadályozza bizonyos kritikus kézségek kialakulását.
-
coco2
őstag
válasz
inf3rno #20825 üzenetére
Azt természetesen értem. És az igazat megvallva fogalmam sincs, mi a tényleges információ forrása. De azt én is tapasztaltam, hogy megbízhatóbb adatkereső, mint a mostanra már csak fizetett hirdetéseket kereső google (
).
Napi humor gyanánt meg itt egy YT videó chatgpt-ről
-
inf3rno
nagyúr
Amit adott válaszokat a kérdéseimre azokkal én teljesen jól meg vagyok, sokkal többet segített, mint bármelyik keresőmotor vagy ember, akivel eddig találkoztam, és elég speciális a témakör. Nem hiszem, hogy sokszor publikálták ezeket az információkat, fogalmam sincs honnan szedi őket, de kb. kincsestár ebben a témakörben, a többi kereső, wikipedia meg teljesen használhatatlan.
-
coco2
őstag
válasz
inf3rno #20821 üzenetére
A "sikerül valamit kihúzni belőle", és az "egyben működő program, ami részleteiben is mind pont olyan, amilyet szeretnél" vagy ugyan az lesz, vagy lesz közöttük a "távolság". Amit én állítottam, hogy a "távolság" akkora lesz, hogy a másodikhoz képest az első maximum kétbalkezezésnek fog érződni. Esetleg az unalomig lerágott csont eseteiben az nem lesz úgy, de mindegyik másikban igen. Arra az állításomra értetted, hogy vitatkoznál vele?
-
inf3rno
nagyúr
Ezzel vitatkoznék, nekem olyan ritka témakörben is sikerült adatot kihúzni belőle, amire a google, duckduckgo semmi találatot nem adott, a bing is csak mérsékelten hasznosat. Pont az volt a várakozásom, hogy kevesebbet tud a kereső motoroknál, mert nem létezik, hogy ennyi adatot normálisan beindexelnek, de mégis.
-
coco2
őstag
válasz
aprokaroka87 #20817 üzenetére
A chatgpt csak olyasmire jó, amit már ezerszer publikáltak, dokumentáltak, szájbarágtak. A többiben felesleges számítani rá, csak nevetséges kétbalkezeskedések várhatóak, semmi egyéb.
Elolvasni a "24 óra alatt html" és abból a sorozatból a css meg javascript könyveket még nem a világ vége időben. Időben hatékonyan és sokat tud segíteni, ha részegységeken túl egyebet nem kell kérned a chatgpt-től, és utána össze tudod legózni az eredményt saját magad.
-
inf3rno
nagyúr
válasz
aprokaroka87 #20815 üzenetére
Attól függ, hogy minek a kódját.
-
válasz
aprokaroka87 #20815 üzenetére
Ezt hívják vibe codingnak .
Tulajdonképpen pont olyan, mintha házat építenél bármiféle statikai meg egyéb ismeretek nélkül: az elején úgy tűnik, hogy jól haladsz vele, de egy idő után simán a fejedre omlik az egész
-
aprokaroka87
nagyúr
válasz
axioma #20816 üzenetére
Van már egy viszonylag egyszerű projekt amibe bele kezdtem, az tény hogy bőven van olyan amikor nem igazán tudja mi van.
Kedvencem amikor már jól működő dolgokat kezd ell átirni 😁
De mostmár mondjuk úgy kezd összeállni.
Vannak még bakik persze.Ettől tuti nem leszek programozó, bár közben azért tanulni kell dolgokat.
Eleinte pl a " rajzolás " svg-ben volt, viszont mivel dimanikus számolás is része a feladatnak ezért voltak néha komolyabb megadások az " oldalon "
Aztán lett Canvas.
Az már sokkal jobb.Amit elrontottam hogy nem kértem külön a html, css, js kódokat, így egybe rakta, gondolom ez is árthat a " lelkének "
kedvencem amikor felkínál + funkciókat, erre az egész kód kb felét elhagyja 😁
-
axioma
veterán
válasz
aprokaroka87 #20815 üzenetére
Attol fugg, mi a cel.
Hazit ne adj be igy (nem csak azert mert nem tanulsz belole, hanem mert az oktatok altalaban ezeket siman kiszurik).
Ha sajat celra kell, akkor en is irtam mar olyan kodot llm segitsegevel, amihez nem konyitok. De sajna ritkan sikerul egybol hasznalhatora amit ezek letrehoznak, es altalanos programozoi rutin nelkul ha hibat kell keresni (nem is hibauzenet javitasa, bar abba is sokszor beletorik a bicskajuk), hanem logikai hiba (=nem azt csinalja amit akartal) es nem ertesz hozza, akkor igen nehez lesz vegleges allapotura hozni. Szoval csak akkor ha ez neked hobbi, es nem idegeskedesi forras lesz (utobbi esetben csak az elso iteraciot probald meg, hatha mazlid lesz).
Az LLM ugye egy papagaj. Amit sokat latott, az bedrotozodott neki, azt visszaadja, de amint nem standard amit kersz, mar egyre kisebb esellyel jo.
Amugy nem feltetlen a ChatGPT a legjobb kodirasra, probald meg amiket elersz, me'g az is lehet hogy kis logikazassal ket mashogy rosszbol is tudsz jot csinalni -
aprokaroka87
nagyúr
Ha valaki nem igazán kónyit a programozáshoz mennyire szentségtörés chatgpt-vel megírni a kódot? 😁
Html, javascript, CSS. -
coco2
őstag
Foglalkozott itt valaki video stream-ek lelkivilágával? Jelenetekre akarnék darabolni nagyobb videót automatikusan. Darabolásra tudok ffmpeg-et használni, de kellenek nagyon pontos időbélyegek.
Azon gondolkodok, hogy a jelenetek között hogyan vannak a határok? Léteznek például stream-be pakolt képek egészben a jelenet határon gyorsabban adni tiszta képet? Ha igen, hogyan tudom felkeresni őket, és időbélyeget gyártani a pozíciójukból? Vagy ha van bármi jó módszer, igazán minden ötletre nyitott vagyok. Leírások / blogok lennének jók, ha valaki találkozott ilyesmiről fejtágítóval, ami nem fényév távolságból kezdi el leírni, hogy mi hogyan van. Leprogramozni akarnám könnyen újrahasznosítható formában.
-
smallmer
őstag
Sziasztok!
Szeretnék elmenni egy automata tesztelő képzésre. Van valami ötletetek, hogy melyik hasznos? Tényleg olyat szeretnék, ahol tanítanak is valamit gyakorlati példákon keresztül.
-
válasz
husztiimi #20810 üzenetére
> Ha meg át lesznek téve, akkor majd megmérjük, hogy mi legideálisabb inputtól függő választás? openMP + GPU? MPI + GPU? MPI + openMP + GPU
Ezeket szerintem ki lehet számolni, következik a feladat struktúrájából. Például belefér-e a mátrix a GPU memóriájába? Ha igen, mennyi idő megcsinálni vs mennyi idő 1) feltölteni 2) odavinni a node-ra? Ha jól láttam, 200 gbps interkonnekt van, azért az nem nagyon gyors (késleltetést nem tudom). Szóval én először biztos csinálnék papíron egy esztimaciot.
-
proci985
MODERÁTOR
válasz
husztiimi #20810 üzenetére
Ezért mondtam, hogy én ránéznék az authorlistákra. Nekem is volt, hogy egy PhD thesisből vagy egy régi repoból kellett visszafejteni mit csináltak, de még mindig egyszerűbb, mint ilyen szinten belemászni az optimizációba.
Egyébként adott esetben megpróbálni felvenni a kapcsolatot az authorokkal is működhet.
-
husztiimi
csendes tag
válasz
proci985 #20809 üzenetére
Sok-sok cikket elolvasgattunk, de jellemzően nem írják le a cikkekben (PRC, J. Phys. G), hogy a konkrét kód CPU-n futott-e, vagy sem?! Meg azt sem, hogy CPU-n milyen módon (openMP, vagy MPI)? Meg azt sem, hogy a kód milyen nyelven íródott?! Úgyhogy azt gondolom, hogy előbb-utóbb majdcsak megoldjuk valamilyen úton-módon a GPU-ra való átrakását a mátrixdiagonalizációknak. Ha meg át lesznek téve, akkor majd megmérjük, hogy mi legideálisabb inputtól függő választás? openMP + GPU? MPI + GPU? MPI + openMP + GPU? Ha meg esetleg GPU-val valami nem várt csoda folytán mégis lassulás lesz a „hozadék” például az adatmozgatások miatt, akkor meg úgy fogjuk fel, hogy milyen jó ujjgyakorlat volt a GPU-ra való kódrész implementációja...
-
proci985
MODERÁTOR
válasz
husztiimi #20805 üzenetére
(nem mozgok HPC területen)
leírás alapján tippre lehet bele kéne nyúlni a pipelinebe, hogy nyerjetek is valamit.
GPUn mátrix transzformációnak gyorsabbnak kéne lennie, de a kérdés, hogy mennyi idő megy el az adatmozgatással.
ha kutatási terület, én ránéznék a környezeti publikációkra, hogy ki futtat hasonló HPC környezetben. cikkeknél nem mindig írják le, hogy mit hogy oldottak meg tartalmi okok miatt, de pl egy master vagy phd thesis esetén van esély, hogy lesz egy github repo és egy rendes leírás is.
-
husztiimi
csendes tag
MPI-hoz a Komondor gépet használjuk: https://hpc.kifu.hu/hu/komondor
Ha a "probléma" nem indokolja az MPI használatot (ez néha-néha azért előfordul), és elegendő hozzá az openMP is, akkor arra pedig van két darab számítási nódusunk: az egyik AMD EPYC 9554 64-Core procikkal és 2.5TB memóriával, a másik pedig Intel(R) Xeon(R) CPU E7-8880 v2 procikkal és 3TB memóriával.
-
husztiimi
csendes tag
Ja igen, "szuperszámítógépen futtatjuk" - az a napi nagyot mondás gyakorlatod volt?
Nagyon szomorúan látom, hogy bejegyzésed nem segítő szándékkal, csupán csúfolódási szándékkal született. Így a tisztánlátás érdekében kifejtem inkább egy kicsit: Képzeld el, hogy nemcsak olyan programok léteznek, amelyek asztali platformra vannak "megálmodva", hanem vannak olyan progik is, amik sokkal nagyobb erőforrásokat igényelnek. Pl. a saját fejlesztésű programunk, amit a kollégáimmal együtt évek óta fejlesztgetünk-csiszolgatunk pont ilyen. (Dokumentációt is írtunk hozzá, amelyet igyekszünk frissíteni, amikor új részek/rutinok kerülnek a kódba.)
A programot arra használjuk, hogy kiszámolunk vele ezt-azt, azután pedig ha szerencsénk van, akkor évente 1-2 cikket publikálunk azokból az eredmény(ek)ből, ami a programnak az eredményeiből levont konklúzió. A program képes openMP és MPI módokon futni. (Remélem ezekről már hallottál.) Viszont bemenő inputtól függően (bemenő input = probléma paraméterei) a futási idő rettenetesen sok lenne egy asztali számítógépen. (Asztali gépen csak az openMP-nek lenne amúgy is értelme, az MPI-nak nem.) Így a programot olyan esetben, ahol az input úgy kívánja, szuperszámítógépen futtatjuk hibrid módon (hibrid = MPI + openMP). A futási idő tetemes részét a hatalmas méretű mátrixdiagonalizációk viszik el. Ezért jött az ötlet, -ha már eleve HPC környezetben futtatjuk a kódot (amennyiben az input ezt kívánja), akkor miért nem fejlesztjük fel eme kódot úgy, hogy a futási idő redukálásában a GPU is segítsen? (Azaz a sok-sok dsyev mátrixdiagonalizáció szubrutin-hívásokat a GPU végezze.) Eredeti bejegyzésem ezért született… (Sőt, a bejegyzésben lévő egy darab 100x100-as méretű eset csak egy "állatorvosi ló". -Nem igazi eset... Ilyen kicsi mátrix élő esetben nincs... )Nem gondoltam, hogy az általam felvetett "problémához” ennyi magyarázat szükséges lett volna. Egyszerűen csak bíztam benne, hogy hátha olvassa ezt a topikat olyan HPC user is, aki pont nvfortrant használ a saját kutatásához/szimulációihoz mint mi és már találkozott ilyesmi problémával. Benne volt a pakliban, hogy esetleg nem találok a fórumban segítséget; -ezzel nincs is gond. De véleményem szerint a kicsúfolásod felesleges volt... A fórumbeli bejegyzéseidben sem HPC használatra utaló nyomokat, sem (openMP, vagy MPI) parallelizációt nem látok. Nem tudom, hogy te miket fejlesztesz, meg hol és minek, de tuti, hogy ha leírnád, akkor többen is bele tudnának kötni.
-
coco2
őstag
válasz
husztiimi #20802 üzenetére
A chatgpt google skill-t helyettesíteni jó, azon túl teljesen megbízhatatlan. Olyan esetekben használható, amikor semmi sem múlik azon, hogy működni fog-e, vagy sem.
Chat gpt vicc:
eval(await OpenAI("fix this:"+ErrorMessage))
Kicsit komolyabban a 10k sor önmagában úgy hangzik, mint 2 emberhónapnyi munka. Ha azon egy szoftver cég kiakad, húzza le a rolót. Ami konkrétan azt a 10k sort illeti, a kérdés inkább az, létezik-e még elő ember, dokumentáció, szájhagyomány útján terjedő akármi, amiből meg lehet érteni a bemeneti adatot, és a feldolgozásának a miértjét? Ha már nem létezik, akkor az a probléma nem arra van tervezve, hogy azt bárki megoldja. Aki mégis azzal foglalkozik, fordítva ül a lovon.
Ja igen, "szuperszámítógépen futtatjuk" - az a napi nagyot mondás gyakorlatod volt?
-
husztiimi
csendes tag
Sajnos pont ettől tartottam... A chatgpt egyik válasza a sok közül nekem is az volt, hogy felajánlotta, hogy ír egy olyat, ami a C-s modult használja... De amit írt nekem az nem fordítható le. Sajnos a neked írt kód sem fordul le. (Írtam eredeti posztomban, hogy: "Sajnos az AI (chatgpt) ebben nem tud segíteni.")
Félreértés ne essék, én is használom sokmindenre a chatgpt-t, pl. keresse meg a hibát egy adott kódrészletben, vagy írjon egy-egy kisebb részt. Néha ezeket jól megcsinálja. De sajna néha kurvára nem. Sajna a te "megoldásod" az utóbbiak táborát erősíti.
Új hozzászólás Aktív témák
Hirdetés
● olvasd el a téma összefoglalót!
- Szép HP EliteBook 840 G9 Fémházas Hordozható Érintős Ultrabook 14" -40% i5-1235U 32/1TB Iris Xe FHD+
- Logitech G935
- Creative Sound Blaster Live! 5.1-es digitális PCI hangkártya
- Rock Shox Recon Silver Air gyorszáras villa eladó (29-es)!
- ÚJ Nvidia RTX 5060/TI 8-16Gb GDDR7 DLSS4.0 Ryzen 7 5800X 16x4.7Ghz/32GB/512Gb/1TB M SSD/2ÉV gamer PC
- Xiaomi Redmi Note 12 Pro 5G 128GB, Kártyafüggetlen, 1 Év Garanciával
- BESZÁMÍTÁS! MSI B450M R7 1700X 16GB DDR4 128GB SSD 1TB HDD GTX 1650 Super 4GB Zalman T7 Chieftec 400
- HIBÁTLAN iPhone 15 Pro 256GB Black Titanium -1 ÉV GARANCIA - Kártyafüggetlen, MS3003
- DELL WD19 / WD19S dokkoló + 130W töltő
- Dell D6000 univerzális dokkoló USB-C/ USB-A, DisplayLink & Dell WD15 (K17A) USB-C + 130-180W töltő
Állásajánlatok
Cég: FOTC
Város: Budapest