Ollama API Anbieter
Aus MoodleDocs
Die Integration von Moodle mit Ollama den Zugriff auf KI-Aktionen wie Textgenerierung, Bildgenerierung oder Zusammenfassen und Erklären (ab Moodle 5.0) von Kursinhalten.
Voraussetzungen
- Ollama herunterladen und installieren.
- Ein LLM-Modell aus der Ollama-Bibliothek wie beispielsweise llama3.2 herunterladen und verfügbar machen.
Ollama-Anbieter konfigurieren
Um eine Ollama-Provider-Instanz zu erstellen, gehen Sie folgendermaßen vor:
- Gehen Sie auf die Seite Website-Administration > Allgemein > KI > KI-Anbieter.
- Klicken Sie auf den Button Neue Provider-Instanz anlegen.
- Wählen Sie als KI-Provider-Plugin die Option Ollama-API-Provider. Tragen Sie einen Namen und den API-Endpunkt ein.
- Bei Bedarf setzen Sie eine systemweite Obergrenzen für Anfragen und/oder Obergrenzen für Nutzer/innen.
- Klicken Sie den Button Instanz erstellen.
Um die Ollama-Provider-Instanz zu konfigurieren, gehen Sie folgendermaßen vor:
- Gehen Sie auf die Seite Website-Administration > Allgemein > KI > KI-Anbieter.
- Klicken Sie auf den Link Einstellungen der (eben angelegten) Ollama-Provider-Instanz.
- Aktivieren Sie die gewünschten Aktionen nach Bedarf.
Für jede Aktion können Sie in den zugehörigen Einstellungen das Verhalten des Modells konfigurieren.
- Überprüfen und ändern Sie die Systemanweisungen nach Bedarf.
- Geben Sie die Werte für die folgenden Einstellungen nach Bedarf ein und speichern Sie die Änderungen.
- Mirostat – Mirostat ist ein neuronaler Textdecodierungsalgorithmus zur Steuerung der Perplexität. 0 = deaktiviert, 1 = Mirostat, 2 = Mirostat 2.0. (Standard: 0)
- Temperatur – Die Temperatur beeinflusst, ob die Ausgabe eher zufällig und kreativ oder eher vorhersehbar ist. Durch Erhöhen der Temperatur antwortet das Modell kreativer. (Standard: 0,8)
- Seed – Legt den für die Generierung zu verwendenden Zufallszahlensamen fest. Wenn Sie hier eine bestimmte Zahl einstellen, generiert das Modell für dieselbe Eingabe denselben Text. (Standard: 0)
- top_k – Verringert die Wahrscheinlichkeit, dass Unsinn generiert wird. Ein höherer Wert (z. B. 100) führt zu vielfältigeren Antworten, während ein niedrigerer Wert (z. B. 10) konservativer ist. (Standard: 40)
- top_p – Arbeitet zusammen mit top-k. Ein höherer Wert (z. B. 0,95) führt zu vielfältigeren Texten, während ein niedrigerer Wert (z. B. 0,5) fokussiertere und konservativere Texte generiert. (Standard: 0,9)
Um eine Ollama-Provider-Instanz zu aktivieren, gehen Sie folgendermaßen vor:
- Gehen Sie auf die Seite Website-Administration > Allgemein > KI > KI-Anbieter.
- Aktivieren Sie die Ollama-Provider-Instanz durch Anklicken des Schalters
.
Siehe auch
- 4.5 Dokumentation Ollama zur Verwendung von Ollama mit dem OpenAI-Anbieter.