Modele w chmurze są super, dopóki nie padnie API, albo dopóki nie musicie wrzucić w prompt wrażliwych danych Waszej firmy. Prawdziwa niezależność zaczyna się, gdy odpalacie modele lokalnie na własnym żelastwie.
Chcemy zobaczyć Wasze warsztaty! Nieważne, czy to elegancki MacBook dławiący się przy większych modelach, zakurzony PC z kilkoma RTX-ami spiętymi na trytytki pod biurkiem, czy potężny serwer w piwnicy, który grzeje Wam mieszkanie w zimie.
Wrzucajcie w komentarzach zdjęcia swoich stanowisk lub zrzuty z terminala (np. htop / nvtop)!
Napiszcie też krótko:
- Jaki macie sprzęt (RAM, VRAM to podstawa!).
- Z jakich interfejsów korzystacie (Ollama, LM Studio, coś autorskiego?).
- Jaki jest Wasz ulubiony mały model, który bez problemu mieści się na Waszej maszynie i “robi robotę”?
Dajcie popatrzeć na ten piękny krzem! ![]()
![]()