Erste Schritte mit Ollama

Sumantro Mukherjee Version F42 onwards Last review: 2025-05-16

Ollama ist ein Befehlszeilenwerkzeug, mit dem sich große Sprachmodelle (LLMs) einfach lokal ausführen und verwalten lassen. Es unterstützt Modelle wie LLaMA, Mistral und andere, die mit minimalem Aufwand direkt auf dem Rechner ausgeführt werden können. Fedora 42 bietet native Unterstützung für Ollama und macht den Einstieg in die lokale Nutzung von LLMs für Entwickler und Programmierbegeisterte so einfach wie nie zuvor.

Ollama ist offiziell nur für Fedora 42 und höher verfügbar. Installationsversuche auf älteren Versionen können zu Fehlern oder Problemen mit Abhängigkeiten führen.

Installation

Die Installation von Ollama ist mit der nativen Paketverwaltung von Fedora unkompliziert. Öffnen Sie ein Terminal und führen Sie folgenden Befehl aus:

sudo dnf install ollama

Dieser Befehl installiert die Befehlszeilenschnittstelle von Ollama und die dazugehörigen Komponenten.

Grundlegende Verwendung

Nach der Installation können Sie Ollama sofort verwenden. Nachfolgend finden Sie einige grundlegende Befehle für den Einstieg:

Ein Modell ausführen

Ein unterstütztes LLM (z.B. llama2) herunterladen und ausführen:

ollama run llama2

Dieser Befehl lädt das Modell herunter, falls es noch nicht heruntergeladen wurde, und startet eine lokale Sitzung.

Ein Modell herunterladen, ohne es auszuführen

ollama pull mistral

Dadurch wird das Modell mistral heruntergeladen, ohne es zu starten.

Installierte Modelle auflisten

ollama list

Zeigt alle aktuell auf Ihrem System verfügbaren Modelle an.

Ein Modell entfernen

ollama remove llama2

Gibt Speicherplatz frei, indem ein zuvor heruntergeladenes Modell entfernt wird.

Mehr erfahren

Um unterstützte Modelle und erweiterte Konfigurationen zu erkunden, besuchen Sie das Upstream-Projekt: