Wir arbeiten aktuell an der Dokumentation der neuen Funktionalitäten von Moodle 5.2.

Ollama API Anbieter

Aus MoodleDocs
Wechseln zu:Navigation, Suche


Die Integration von Moodle mit Ollama den Zugriff auf KI-Aktionen wie Textgenerierung, Bildgenerierung oder Zusammenfassen und Erklären (ab Moodle 5.0) von Kursinhalten.

Voraussetzungen

  1. Ollama herunterladen und installieren.
  2. Ein LLM-Modell aus der Ollama-Bibliothek wie beispielsweise llama3.2 herunterladen und verfügbar machen.

Ollama-Anbieter konfigurieren

Um eine Ollama-Provider-Instanz zu erstellen, gehen Sie folgendermaßen vor:

  1. Gehen Sie auf die Seite Website-Administration > Allgemein > KI > KI-Anbieter.
  2. Klicken Sie auf den Button Neue Provider-Instanz anlegen.
  3. Wählen Sie als KI-Provider-Plugin die Option Ollama-API-Provider. Tragen Sie einen Namen und den API-Endpunkt ein.
  4. Bei Bedarf setzen Sie eine systemweite Obergrenzen für Anfragen und/oder Obergrenzen für Nutzer/innen.
  5. Klicken Sie den Button Instanz erstellen.

Um die Ollama-Provider-Instanz zu konfigurieren, gehen Sie folgendermaßen vor:

  1. Gehen Sie auf die Seite Website-Administration > Allgemein > KI > KI-Anbieter.
  2. Klicken Sie auf den Link Einstellungen der (eben angelegten) Ollama-Provider-Instanz.
  3. Aktivieren Sie die gewünschten Aktionen nach Bedarf.

Für jede Aktion können Sie in den zugehörigen Einstellungen das Verhalten des Modells konfigurieren.

  1. Überprüfen und ändern Sie die Systemanweisungen nach Bedarf.
  2. Geben Sie die Werte für die folgenden Einstellungen nach Bedarf ein und speichern Sie die Änderungen.
  • Mirostat – Mirostat ist ein neuronaler Textdecodierungsalgorithmus zur Steuerung der Perplexität. 0 = deaktiviert, 1 = Mirostat, 2 = Mirostat 2.0. (Standard: 0)
  • Temperatur – Die Temperatur beeinflusst, ob die Ausgabe eher zufällig und kreativ oder eher vorhersehbar ist. Durch Erhöhen der Temperatur antwortet das Modell kreativer. (Standard: 0,8)
  • Seed – Legt den für die Generierung zu verwendenden Zufallszahlensamen fest. Wenn Sie hier eine bestimmte Zahl einstellen, generiert das Modell für dieselbe Eingabe denselben Text. (Standard: 0)
  • top_k – Verringert die Wahrscheinlichkeit, dass Unsinn generiert wird. Ein höherer Wert (z. B. 100) führt zu vielfältigeren Antworten, während ein niedrigerer Wert (z. B. 10) konservativer ist. (Standard: 40)
  • top_p – Arbeitet zusammen mit top-k. Ein höherer Wert (z. B. 0,95) führt zu vielfältigeren Texten, während ein niedrigerer Wert (z. B. 0,5) fokussiertere und konservativere Texte generiert. (Standard: 0,9)

Um eine Ollama-Provider-Instanz zu aktivieren, gehen Sie folgendermaßen vor:

  1. Gehen Sie auf die Seite Website-Administration > Allgemein > KI > KI-Anbieter.
  2. Aktivieren Sie die Ollama-Provider-Instanz durch Anklicken des Schalters .

Siehe auch

  • 4.5 Dokumentation Ollama zur Verwendung von Ollama mit dem OpenAI-Anbieter.