Hirdetés
- sziku69: Fűzzük össze a szavakat :)
- sziku69: Szólánc.
- Luck Dragon: Asszociációs játék. :)
- Luck Dragon: MárkaLánc
- Elektromos rásegítésű kerékpárok
- D1Rect: Nagy "hülyétkapokazapróktól" topik
- Sub-ZeRo: Euro Truck Simulator 2 & American Truck Simulator 1 (esetleg 2 majd, ha lesz) :)
- MasterDeeJay: Intel Optane M10: mire lehet használni?
- Luck Dragon: Alza kuponok – aktuális kedvezmények, tippek és tapasztalatok (külön igényre)
- laskr99: Processzor és videokártya szilícium mag fotók újratöltve!
Új hozzászólás Aktív témák
-
BeZol
őstag
Én még nem használom, sőt, a melóhelyen csak nekem nincs github copilotom, mert nekem még mindig nem adtak... Mikor utoljára privátban copilotoztam, akkor még csak beépített chatként volt használható vscode-ban, de ugye azóta van agent mód is.
Most éppen konferencián (Basta) vagyok Frankfurt am Main-ban, és több AI-al kapcsolatos előadás is volt, így gondoltam leírom, mit tapasztaltam (2ezer € volt a jegy).
Többször az volt az érzésem, hogy előadnak vmit, ami szinte semmire sem jó, vagy csak becsomagolnak dolgokat vmibe, elnevezik máshogy, de a végeredmény ugyanott hibázik, éspedig a context mennyiségén és az LLM minőségén, na meg hogy mennyi az annyi a végén... (utóbbiról 0 duma persze)
Aminek értelmét láttam, az a Spec Driven Development:
Specify, Plan, Tasks, Implement.Specify
Előre, szépen részletesen leírod mit mivel hogyan szeretnél. Minél részletesebb, annál jobb lesz az eredmény. Gyakorlatilag produkt manager és architect ha összeülne, hogy miről van szó és azt hogyan kellene megvalósítani (tech stack, mit várunk eredménynek, ezt hogyan teszteljük), akkor jobb helyeken egy ilyesmi dokksit állítanának össze.Plan
Ezután az LLM megtervezi az egészet, és ahol bizonytalan, ott egyeztetsz vele mi legyen pontosan.Tasks
Az LLM létrehoz feladatokat (mintha Jira ticketek lennének).
Szerintem ide tartozik az is, hogy létrehoz olyan Agent-eket, amik frontend, backend, test, stb. specializációra vannak konfigurálva. (mint ahogy a valóságban is szétosztanánk)Implement
Az Agent-ek beindulnak (párhuzamosan akár nagyon sokan), mert a fentebbi dolgokból sok-sok pici feladat készült, ami nem igényel óriási context-et, és mindegyik esélyesen jól is fog elkészülni.
Nekem ez olyan feeling, mint amikor sima kérdezz/felelek esetben kérdezek a kódommal kapcsolatosan valamit, akkor ha csak 2-3 dolog függ össze, az még oké, ha már 4-5 dolog is, akkor esélyesen nem tudja megoldani a problémát, és a vége az, hogy jobban szét kell darabolnom. Gyakorlatilag itt ugyanez a cél, ezért így kicsi falatokkal zajlik a megvalósítás.Az egész mögé természetesen lehet MCP servereket bekötni, hogy ha nem lenne up to date a tudás, akkor legyen honnan legújabb dokksihoz nyúlniuk.
A context7-et ajánlották, merth ingyenes.Több előadás is szólt arról, hogyan hozhatunk létre saját MCP servert, ami végeredményben (sztem) csak annyi, hogy előre definiált specifikációkat/promptokat pakolunk beléjük, és x/y esetben a megfelelő MCP serverről ezt elő is hívjuk.
A legjobb, hogy több esetben még konkrét kérésre sem voltak hajlandók az LLM-ek használni a háttérben futó MCP servert
Úgyh nekem ez eléggé béta állapot.Egyik előadó az meg a backend kódba kvázi mint .json bepakolta a promt-jait, aztán az LLM által meghívta az xy függvényt, amihez az xy.json tartozott, és pakolta be magának az LLM az extra context-et a feladathoz.
Ez egyébként egy CQRS Event Source patternes témakör volt.A Spec Driver Developmentes előadó szerint 256k context is kevéske, fél misi kell h rendesen tudjon működni egy zöld projekt esetén, DE ez a zöld demo projekt sem volt egy nagy durranás...
Barnamezős eset passz.Youtube videók alapján pedig úgy lehet ügyeskedni, hogy a spec-eket a legjobb modellekkel iratod, de a végrehajtásokra már az olcsóbb modellek is esélyesen elegek, ha meg vhol mégis elhasalnának, vissza rápakolod arra a részre az okosabbat.
A legegyszerűbb részekre meg akár lokális modellek is jók lehetnek.Valami ügyeskedés is van ilyen nagyobb Agentic development esetén a context-tel és a tokenekkel, de pl. MCP témakörök esetén a kód, amin csináltattak valamit, az kb. 500 token volt, az MCP által hozzápakolt context miatt pedig jött további 4500 token...
Spec Driven Development esetén (meg esélyesen a teljesen agentic mód témakörben) nem tetszik, hogy teli lesz pakolva a projekt .md fájlokkal amikben a specifikációk pihennek ugye, ÉS a specifikáció a source of truth... Nem a kód
Szerintem pár év, és ez lesz az új standard.
A kérdés az, hogy amikor ezek az LLM Agent-ek elakadnak, és muszáj egy programozót ráállítani, akkor a kód mennyire lesz emberileg emészthető struktúrában.
Új hozzászólás Aktív témák
- Legolcsóbb! Számla + Garancia! Meta Quest 3S Virtuális valóság szemüveg!
- White GAMER PC! Ryzen 7800X3D / RTX 4080 / 32GB DDR5 / 1TB NVMe / 1000w Gold / BeszámítOK !
- APPLE MacMini 7,1,i5-4278U,8GB RAM,1TB,macOS Monterey
- BESZÁMÍTÁS! Asrock Phantom Gaming OC RX 7800XT 16GB videokártya garanciával hibátlan működéssel
- Acer Predator Helios 18 AI I9 ULTRA 9275HX, 192GB RAM, 2TB SSD, RTX 5080
Állásajánlatok
Cég: Laptopműhely Bt.
Város: Budapest
Úgyh nekem ez eléggé béta állapot.
