Legfrissebb anyagok
LOGOUT.hu témák
- Vissza a PC Masterrace-re
- Asszociációs játék. :)
- Digitális Állampolgárság Program
- Fűzzük össze a szavakat :)
- NASsoljunk: ZyXEL NSA-310 és az FFP
- Szólánc.
- Ingyen kellene, de tegnapra
- Airfryer XL XXL forrólevegős sütő gyakorlati tanácsok, ötletek, receptek
- PLEX: multimédia az egész lakásban
- Még mindig itt tartunk jelenleg...
PROHARDVER! témák
Mobilarena témák
IT café témák
GAMEPOD.hu témák
Új hozzászólás Aktív témák
-
Megpróbálkozom helyileg futtatni az LLM-et: (nem mintha az openai drága lenne de sokkal poénosabb lenne mindent helyben futtatni)
Ez megy CPU only módban, nem feltétlenül kell hozzá cuda.
Helyi erőforrás megvan rá (36 szál 4.5ghz, 128Gb DDR4 4000)
https://github.com/LostRuins/koboldcpp/releasesA másik pedig aminek még nem néztem utána:
https://github.com/oobabooga/text-generation-webui/releasesMég mindíg nem találtam meg az igazi legjobb ár érték arányú budget cuda gyorsítót.
Nagyon a Tesla P40 felé hajlok (24Gb vram) de az nvidia CMP kártyák is jók lehetnének.LLM modellt meg valami cenzúramenteset választok, szóljon be, legyenek kemények az npc-t.
[ Szerkesztve ]
Új hozzászólás Aktív témák
Témaindító írás
Aktív témák
Új fizetett hirdetések