Ollama i LM Studio: instalacja i konfiguracja lokalnych modeli AI (Windows/macOS/Linux) [2025]
Aktualizacja: grudzień 2025. Ten poradnik pokazuje krok po kroku, jak zainstalować Ollama i LM Studio, pobrać modele, uruchomić lokalne API (OpenAI-compatible) i rozwiązać typowe problemy.
Spis treści
- Ollama vs LM Studio – co wybrać?
- Wymagania sprzętowe (realne minimum)
- Najlepsze modele startowe (CPU / 8GB VRAM / 12GB+ VRAM)
- Instalacja Ollama (Windows/macOS/Linux)
- Komendy Ollama (ściąga)
- Instalacja LM Studio i pobieranie modelu
- LM Studio jako lokalne API (OpenAI-compatible)
- Najczęstsze problemy i szybkie naprawy
- FAQ
Ollama vs LM Studio – co wybrać?
- Ollama – idealne do CLI, automatyzacji, agentów i serwerowego podejścia (domyślnie API na
http://localhost:11434). - LM Studio – najlepsze do pracy w GUI: wyszukujesz model, pobierasz z Hugging Face, ładujesz i od razu testujesz; do tego ma wbudowane OpenAI-compatible API.
Mój rekomendowany układ: LM Studio do testów i porównań (GUI) + Ollama do automatyzacji (CLI).
Wymagania sprzętowe (realne minimum)
- LM Studio (Windows x64): CPU z AVX2, rekomendowane min. 16 GB RAM i ≥4 GB VRAM.
- Ollama (Windows): Windows 10 22H2+; API standardowo działa lokalnie na 11434.
W praktyce: do komfortowej pracy na modelach 7B/8B przydaje się 16–32 GB RAM. Dla większych modeli kluczowe jest VRAM oraz sensowne kwantyzacje (np. Q4/Q5 w GGUF dla LM Studio).
Najlepsze modele startowe (2025)
Tu masz zestaw “działa prawie zawsze” – dobierany pod sprzęt. Linki prowadzą do stron modeli na Hugging Face.
1) CPU-only / słabszy sprzęt (8–16 GB RAM)
- Microsoft Phi-3.5 Mini Instruct – bardzo sensowny “mały, ale bystry”.
Hugging Face - Google Gemma 3 1B IT – lekki, dobry do Q&A, streszczeń i prostych zadań.
Hugging Face - Qwen3 4B Instruct – mocny 4B do ogólnych zadań, często świetny “daily driver”.
Hugging Face
2) 8 GB VRAM (lub szybkie CPU + 16–32 GB RAM)
- Llama 3.1 8B Instruct – uniwersalny czat / asystent.
Hugging Face - Qwen2.5 Coder 7B Instruct – świetny do kodu (uzupełnianie, poprawki, generowanie).
Hugging Face - Qwen3 8B – mocny do rozumowania i ogólnych zadań (tekst).
Hugging Face
3) 12 GB+ VRAM / mocniejsza stacja (lub dużo RAM)
- Gemma 2 9B IT – solidny “średniak” do jakości tekstu, streszczeń, Q&A.
Hugging Face - DeepSeek-R1 Distill Llama 8B – jeśli priorytetem jest rozumowanie (często wolniej, ale “mądrzej”).
Hugging Face
4) Multimodal (obraz + tekst)
- Qwen3-VL 8B Instruct – pytania o obrazy, analiza screenshotów, “wzrok”.
Hugging Face
Tip (praktyczny): w LM Studio najczęściej wybieraj GGUF i zacznij od Q4 (np. Q4_K_M). Jeśli brakuje jakości – przejdź na Q5; jeśli brakuje pamięci – zejdź do Q3.
Instalacja Ollama (Windows / macOS / Linux)
Windows
- Pobierz instalator: Ollama – Windows
- Zainstaluj i uruchom PowerShell.
- Sprawdź:
ollama --version - Uruchom pierwszy model:
ollama run llama3.1
Przeniesienie modeli na inny dysk: ustaw zmienną środowiskową OLLAMA_MODELS (np. na D:), aby nie zapchać C:.
macOS
- Pobierz instalator: Ollama – macOS
- Sprawdź w terminalu:
ollama --version - Start:
ollama run llama3.1
Linux
- Zainstaluj:
curl -fsSL https://ollama.com/install.sh | sh - Uruchom usługę:
sudo systemctl start ollama - Sprawdź:
sudo systemctl status ollama - Start modelu:
ollama run llama3.1
Komendy Ollama (ściąga)
ollama serve– start serweraollama run <model>– uruchom modelollama pull <model>– pobierz modelollama list– lista modeliollama rm <model>– usuń model
Instalacja LM Studio i pobieranie modelu
- Pobierz LM Studio: LM Studio – Download
- Zainstaluj i uruchom aplikację.
- Wejdź w zakładkę Discover i pobierz model – LM Studio ma wbudowany downloader modeli z Hugging Face.
- Wejdź w Chat, wybierz model i kliknij Load.
LM Studio jako lokalne API (OpenAI-compatible)
LM Studio pozwala używać istniejących klientów OpenAI (Python/JS/C#) przez zmianę base_url na lokalny adres (często http://localhost:1234/v1).
from openai import OpenAI
client = OpenAI(
base_url="http://localhost:1234/v1",
api_key="lm-studio"
)
resp = client.chat.completions.create(
model="your-local-model",
messages=[{"role": "user", "content": "Napisz krótkie streszczenie tego tekstu..."}]
)
print(resp.choices[0].message.content)
Najczęstsze problemy i szybkie naprawy
- Brak miejsca na dysku: przenieś modele (Ollama:
OLLAMA_MODELS; LM Studio: wybierz inny katalog pobierania w ustawieniach). - LM Studio nie uruchamia się na starszym CPU: na Windows x64 wymagane jest AVX2.
- API nie odpowiada: sprawdź czy serwer działa (Ollama: 11434, LM Studio: 1234) i czy firewall nie blokuje portu.
FAQ
Czy to działa offline?
Tak. Po pobraniu modeli możesz działać całkowicie lokalnie; internet jest potrzebny głównie do pobierania.
Jaki port ma Ollama i LM Studio?
Ollama standardowo działa na 11434, a LM Studio (OpenAI-compatible) często na 1234.
Czy mogę użyć klienta OpenAI?
Tak – w LM Studio ustawiasz base_url na lokalny adres serwera.