Erste Schritte mit Ollama
Ollama ist ein Befehlszeilenwerkzeug, mit dem sich große Sprachmodelle (LLMs) einfach lokal ausführen und verwalten lassen. Es unterstützt Modelle wie LLaMA, Mistral und andere, die mit minimalem Aufwand direkt auf dem Rechner ausgeführt werden können. Fedora 42 bietet native Unterstützung für Ollama und macht den Einstieg in die lokale Nutzung von LLMs für Entwickler und Programmierbegeisterte so einfach wie nie zuvor.
|
Ollama ist offiziell nur für Fedora 42 und höher verfügbar. Installationsversuche auf älteren Versionen können zu Fehlern oder Problemen mit Abhängigkeiten führen. |
Installation
Die Installation von Ollama ist mit der nativen Paketverwaltung von Fedora unkompliziert. Öffnen Sie ein Terminal und führen Sie folgenden Befehl aus:
sudo dnf install ollama
Dieser Befehl installiert die Befehlszeilenschnittstelle von Ollama und die dazugehörigen Komponenten.
Grundlegende Verwendung
Nach der Installation können Sie Ollama sofort verwenden. Nachfolgend finden Sie einige grundlegende Befehle für den Einstieg:
Ein Modell ausführen
Ein unterstütztes LLM (z.B. llama2) herunterladen und ausführen:
ollama run llama2
Dieser Befehl lädt das Modell herunter, falls es noch nicht heruntergeladen wurde, und startet eine lokale Sitzung.
Ein Modell herunterladen, ohne es auszuführen
ollama pull mistral
Dadurch wird das Modell mistral heruntergeladen, ohne es zu starten.
Mehr erfahren
Um unterstützte Modelle und erweiterte Konfigurationen zu erkunden, besuchen Sie das Upstream-Projekt:
Want to help? Learn how to contribute to Fedora Docs ›