Wie können wir helfen?

Kategorien
Inhalt

Llama 3 mit Ollama und Open WebUI

Navigation:
< zurück

Einführung

Mit der Veröffentlichung von Llama 3 durch Meta und der Open-Source-Bereitstellung ihrer fortschrittlichen Großsprachmodelle (Large Language Models, LLM) wurde ein bedeutender Fortschritt in der Technologiegemeinschaft erzielt. Llama 3 ist in zwei Varianten erhältlich – mit 8 Milliarden und 70 Milliarden Parametern – und eignet sich für eine Vielzahl von Anwendungen, von Textgenerierung bis hin zur Beantwortung komplexer Fragen.

Llama 3 benchmark Meta AI vs ChatGPT vs Gemini 1
Llama 3 mit Ollama und Open WebUI 2

Ollama: Die Plattform für LLMs

Ollama ist eine kostenlose, Open-Source-Anwendung, die es ermöglicht, große Sprachmodelle wie Llama 3 lokal auf Ihrem Computer zu betreiben. Dies geschieht unter Verwendung von llama.cpp, einer Bibliothek, die das Ausführen von LLMs mit vergleichsweise geringen Hardwareanforderungen ermöglicht.

Installation

Die Installation von Ollama ist unkompliziert und wird für alle drei großen Betriebssysteme unterstützt. Nach der Installation können Sie das Modell einfach über das Terminal starten:

ollama run llama3

Nach dem Download und dem Laden des Modells können Sie direkt im Terminal Dialoge führen.

Nutzung von Open WebUI

Open WebUI ist eine selbst gehostete Benutzeroberfläche, die vollständig in Docker läuft und für die Nutzung mit Ollama oder anderen kompatiblen LLMs wie LiteLLM konfiguriert werden kann.

Installation

Die Installation erfolgt einfach über Docker:

docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

Nach der Installation können Sie auf die Benutzeroberfläche zugreifen, indem Sie http://localhost:3000 in Ihrem Browser öffnen und ein Konto erstellen.

Integration in eigene Projekte

Ollama bietet nicht nur eine eigene API, sondern ist auch kompatibel mit der OpenAI API, was die Integration in bestehende Projekte erleichtert.

API-Nutzung

Hier ist ein einfaches Beispiel, wie Sie Textgenerierung über die API durchführen können:

curl http://localhost:11434/api/generate -d '{
  "model": "mistral",
  "prompt":"Warum ist der Himmel blau?"
}'

Und so können Sie eine Chat-Interaktion starten:

curl http://localhost:11434/api/chat -d '{
  "model": "mistral",
  "messages": [
    { "role": "user", "content": "Warum ist der Himmel blau?" }
  ]
}'

Fazit

Die Verfügbarkeit von Llama 3 und die damit verbundenen Open-Source-Initiativen revolutionieren den Zugang zu hochentwickelten Sprachmodellen. Durch lokale Tools wie Ollama und Open WebUI kann jetzt jeder die immense Leistung dieser Modelle nutzen. Zudem eröffnen die bereitgestellten APIs Entwicklern neue Möglichkeiten, LLMs in ihre Projekte zu integrieren oder bestehende Anwendungen zu verbessern.