Ollama i LM Studio: instalacja i konfiguracja

Ollama i LM Studio: instalacja i konfiguracja lokalnych modeli AI (Windows/macOS/Linux) [2025]

Aktualizacja: grudzień 2025. Ten poradnik pokazuje krok po kroku, jak zainstalować Ollama i LM Studio, pobrać modele, uruchomić lokalne API (OpenAI-compatible) i rozwiązać typowe problemy.

Spis treści


Ollama vs LM Studio – co wybrać?

  • Ollama – idealne do CLI, automatyzacji, agentów i serwerowego podejścia (domyślnie API na http://localhost:11434).
  • LM Studio – najlepsze do pracy w GUI: wyszukujesz model, pobierasz z Hugging Face, ładujesz i od razu testujesz; do tego ma wbudowane OpenAI-compatible API.

Mój rekomendowany układ: LM Studio do testów i porównań (GUI) + Ollama do automatyzacji (CLI).


Wymagania sprzętowe (realne minimum)

  • LM Studio (Windows x64): CPU z AVX2, rekomendowane min. 16 GB RAM i ≥4 GB VRAM.
  • Ollama (Windows): Windows 10 22H2+; API standardowo działa lokalnie na 11434.

W praktyce: do komfortowej pracy na modelach 7B/8B przydaje się 16–32 GB RAM. Dla większych modeli kluczowe jest VRAM oraz sensowne kwantyzacje (np. Q4/Q5 w GGUF dla LM Studio).


Najlepsze modele startowe (2025)

Tu masz zestaw “działa prawie zawsze” – dobierany pod sprzęt. Linki prowadzą do stron modeli na Hugging Face.

1) CPU-only / słabszy sprzęt (8–16 GB RAM)

  • Microsoft Phi-3.5 Mini Instruct – bardzo sensowny “mały, ale bystry”.
    Hugging Face
  • Google Gemma 3 1B IT – lekki, dobry do Q&A, streszczeń i prostych zadań.
    Hugging Face
  • Qwen3 4B Instruct – mocny 4B do ogólnych zadań, często świetny “daily driver”.
    Hugging Face

2) 8 GB VRAM (lub szybkie CPU + 16–32 GB RAM)

  • Llama 3.1 8B Instruct – uniwersalny czat / asystent.
    Hugging Face
  • Qwen2.5 Coder 7B Instruct – świetny do kodu (uzupełnianie, poprawki, generowanie).
    Hugging Face
  • Qwen3 8B – mocny do rozumowania i ogólnych zadań (tekst).
    Hugging Face

3) 12 GB+ VRAM / mocniejsza stacja (lub dużo RAM)

  • Gemma 2 9B IT – solidny “średniak” do jakości tekstu, streszczeń, Q&A.
    Hugging Face
  • DeepSeek-R1 Distill Llama 8B – jeśli priorytetem jest rozumowanie (często wolniej, ale “mądrzej”).
    Hugging Face

4) Multimodal (obraz + tekst)

  • Qwen3-VL 8B Instruct – pytania o obrazy, analiza screenshotów, “wzrok”.
    Hugging Face

Tip (praktyczny): w LM Studio najczęściej wybieraj GGUF i zacznij od Q4 (np. Q4_K_M). Jeśli brakuje jakości – przejdź na Q5; jeśli brakuje pamięci – zejdź do Q3.


Instalacja Ollama (Windows / macOS / Linux)

Windows

  1. Pobierz instalator: Ollama – Windows
  2. Zainstaluj i uruchom PowerShell.
  3. Sprawdź: ollama --version
  4. Uruchom pierwszy model: ollama run llama3.1

Przeniesienie modeli na inny dysk: ustaw zmienną środowiskową OLLAMA_MODELS (np. na D:), aby nie zapchać C:.

macOS

  1. Pobierz instalator: Ollama – macOS
  2. Sprawdź w terminalu: ollama --version
  3. Start: ollama run llama3.1

Linux

  1. Zainstaluj: curl -fsSL https://ollama.com/install.sh | sh
  2. Uruchom usługę: sudo systemctl start ollama
  3. Sprawdź: sudo systemctl status ollama
  4. Start modelu: ollama run llama3.1

Komendy Ollama (ściąga)

  • ollama serve – start serwera
  • ollama run <model> – uruchom model
  • ollama pull <model> – pobierz model
  • ollama list – lista modeli
  • ollama rm <model> – usuń model

Instalacja LM Studio i pobieranie modelu

  1. Pobierz LM Studio: LM Studio – Download
  2. Zainstaluj i uruchom aplikację.
  3. Wejdź w zakładkę Discover i pobierz model – LM Studio ma wbudowany downloader modeli z Hugging Face.
  4. Wejdź w Chat, wybierz model i kliknij Load.

LM Studio jako lokalne API (OpenAI-compatible)

LM Studio pozwala używać istniejących klientów OpenAI (Python/JS/C#) przez zmianę base_url na lokalny adres (często http://localhost:1234/v1).

from openai import OpenAI

client = OpenAI(
  base_url="http://localhost:1234/v1",
  api_key="lm-studio"
)

resp = client.chat.completions.create(
  model="your-local-model",
  messages=[{"role": "user", "content": "Napisz krótkie streszczenie tego tekstu..."}]
)

print(resp.choices[0].message.content)

Najczęstsze problemy i szybkie naprawy

  • Brak miejsca na dysku: przenieś modele (Ollama: OLLAMA_MODELS; LM Studio: wybierz inny katalog pobierania w ustawieniach).
  • LM Studio nie uruchamia się na starszym CPU: na Windows x64 wymagane jest AVX2.
  • API nie odpowiada: sprawdź czy serwer działa (Ollama: 11434, LM Studio: 1234) i czy firewall nie blokuje portu.

FAQ

Czy to działa offline?

Tak. Po pobraniu modeli możesz działać całkowicie lokalnie; internet jest potrzebny głównie do pobierania.

Jaki port ma Ollama i LM Studio?

Ollama standardowo działa na 11434, a LM Studio (OpenAI-compatible) często na 1234.

Czy mogę użyć klienta OpenAI?

Tak – w LM Studio ustawiasz base_url na lokalny adres serwera.