「Ollama」の版間の差分

提供: MoodleDocs
移動先:案内検索
編集の要約なし
編集の要約なし
64行目: 64行目:
And that's all. Now we should be able to use our local Ollama provider for the AI placements available in our Moodle instance: HTML Editor and Course Assistance placements. Don't forget to enable and configure their settings at Admin -> General -> AI -> Manage settings for AI placements.
And that's all. Now we should be able to use our local Ollama provider for the AI placements available in our Moodle instance: HTML Editor and Course Assistance placements. Don't forget to enable and configure their settings at Admin -> General -> AI -> Manage settings for AI placements.


[[en:Ollama]]
[[es:Ollama]]
[[es:Ollama]]
[[de:Ollama]]
[[de:Ollama]]

2024年12月20日 (金) 13:01時点における版

注:このページは未完成です。フィードバックや改善提案を歓迎します。moodle.orgでの議論に参加するか、ページコメントを利用してください。


はじめに

Moodle 4.5およびそのAIサブシステムには、基本的な数のLLMプロバイダがサポートされています。そのうちの1つがOpenAIプロバイダです。

これは "独自の" APIですが、ある種の "デファクト" スタンダード になっており、他の多くのLLMプロバイダ(オープン、商用の両方)、あるいはAIプロキシやルータのようなツールには、そのサービスを利用するためのOpenAI API互換レイヤーが付属しています。

プロバイダがOpenAI API互換のエントリーポイントを実装している限り、事実上、どんなモデル(テキスト補完、画像、埋め込み、...)でも使うことができます。"OpenAI互換" で検索すれば、すぐに見つかるでしょう。

例として、この記事では Ollamaを使用します。 Ollamaは最も人気のあるオープンLLMプロバイダの1つで、独自のAPIに加えて、OpenAIとの互換性があり、多くのオープンモデルをサポートし、ローカル(またはリモート)にインストールでき、CPU(遅い!)でもGPU(速い)でも動作し、実に管理が簡単です。

しかし、繰り返しますが、これは一例に過ぎず、OpenAI APIをサポートする他のプロバイダやツールにも全く同じことが当てはまるということを忘れないでください。そして、それらは無数にあります!あなたのニーズ、使い方、モニタリング、予算、LLMの機能... に応じて、これらのどれかを使うことになるかもしれません。

ローカルにインストールされたOllamaを使用するようにMoodleを設定する

必要条件

  1. Moodleのインスタンス(4.5以降)がインストールされ、動作していること
  2. Ollamaが、Moodleが動作しているのと同じコンピュータにインストールされていること
  3. いくつかのLLMモデルがプルされ、Ollamaで利用できるようになりました。この例ではllama3.1を使用します。
  4. 大丈夫です。ターミナルで以下を実行すればテストできます:
ollama run llama3.1 "I love Moodle".

あるいは、補完的に、この生のhttpコールを使って、OpenAI API経由でサービスが利用可能かどうかを確認することもできます:

curl --location 'http://127.0.0.1:11434/v1/chat/completions' \
--header 'Content-Type: application/json' \
--data '{
    "model": "llama3.1",
    "messages": [
        {
        "role": "user",
        "content": "I love Moodle"
        }
    ]
}'

Moodle HTTPセキュリティの設定

デフォルトでは、セキュリティ対策として、MoodleはCurlでアクセスするローカルネットワークホストをブロックします。これには、192.168.1.x、10.x.y.z、...および127.0.0.1またはlocalhostのような、通常のローカルネットワークが含まれます。同様に、デフォルトではポート80と443のみが許可されています。

この場合、ローカルにインストールされたOllamaなので、127.0.0.1(またはlocalhost)へのアクセスを許可する必要があります。また、11434ポートの使用を許可する必要があります。これらの詳細は、前のセクションで使用したcurlコマンドと一致していることに注意してください。

そのためには、サイト管理 -> 一般 -> セキュリティ -> HTTPセキュリティ(または管理者用検索ユーティリティで検索)に進み、以下の変更を適用します:

  1. "cURLブロック済みホスト一覧" (curlsecurityblockedhosts) 設定の中の、127.0.0.1/8localhost の両方のエントリを削除します。
  2. "cURL許可済みポート一覧" (curlsecurityallowedport) 設定の中に、11434 ポートを加えます。
  3. 変更を保存します。

これで、Moodleは 127.0.0.1:11434 に接続できるようになります。

OpenAI と互換性のある他の ローカル プロバイダを使っている場合や、他の ローカル サーバで OpenAI を動かしている場合は、他のアドレス(IPや名前)やポートを許可する必要があるかもしれませんが、仕組みはまったく同じです。

Moodle OpenAIプロバイダの設定

ローカルプロバイダ (Ollama) を起動し、Moodleがアクセスできるように設定した後、OpenAIプロバイダを設定します:

  1. サイト管理 -> 一般 -> AI -> AIプロバイダ設定の管理にアクセスします
  2. Enable the "OpenAI API provider" by clicking on the toggle.
  3. Click the "OpenAI API provider" settings link.
  4. In the "Provider actions", enable both the "Generate text" and "Summarise text" actions, by clicking their "Enabled" toggle. Note that, in the case of Ollama, it doesn't provide any LLM able to generate images, so we cannot enable it for our case. Other OpenAI compatible provider may be able to do so.
  5. Both for the, now enabled, "Generate text" and "Summarise text" actions, click on their "Settings" link and proceed to configure the following:

And that's all. Now we should be able to use our local Ollama provider for the AI placements available in our Moodle instance: HTML Editor and Course Assistance placements. Don't forget to enable and configure their settings at Admin -> General -> AI -> Manage settings for AI placements.