Proveedor API Ollama

De MoodleDocs
(Redirigido desde «Ollama»)

La integración de Moodle conh Ollama proporciona acceso a acciones de Inteligencia Artificial como generar texto, resumir texto y explicar texto.

Requisitos

  1. Download Ollama y su instalación.
  2. Obtenga y haga disponible un modelo LLM (Modelo de Idioma Grande) desde la Ollama library como por ejemplo llama3.2.

Configuración de la instancia del proveedor Ollama

Para crear una instancia del proveedor:

  1. Ir a Administración del sitio > General > Proveedores de IA.
  2. Hacer clic en 'Crear una nueva instancia de proveedor'.
  3. Seleccionar Ollama como plugin de proveedor de IA, escribi un nombre y un endpoint API y hacer clic en 'Crear instancia'.

Para configurar la instancia de proveedor Ollama:

  1. Ir a Administración del sitio > General > Proveedores de IA.
  2. Hacer clic en el enlace para configuraciones para Ollama.
  3. Habilitar/deshabilitar las acciones que sean necesarias.

Para cada acción, puede personalizar el comportamiento del modelo.

  1. Hacer clic en el enlace para configuraciones para una acción.
  2. Revisar y corregir las instrucciones del sistema como sea necesario.
  3. Ingresar valores para las configuraciones siguientes como sea necesario y guardar los cambios.
  • Mirostat - Mirostat es un algoritmo para descodificación neural, para controlar la perplejidad. 0 = deshabilitado, 1 = Mirostat, 2 = Mirostat 2.0. (Predeterminado: 0)
  • Temperatura - La temperatura influye en si el resultado es más aleatorio y creativo o si es más predecible. Aumentar la temperatura hara que el modelo responda de forma más creativa. (Predeterminado: 0.8)
  • Semilla (Seed) - Configura la semilla del número aleatorio usada para la generación. Al configurar esto a un número específico hará que el modelo genere el mismo texto para el mismo prompt. (Predeterminado: 0)
  • top_k - Reduce la probabilidad de generar tonterías. Un valor más alto (como por ejemplo 100) dará respuestas más diversas, mientras que un valor más bajo (por ejemplo 10)será más conservador. (Predterminado: 40)
  • top_p - Funciona en conjunto con top-k. Un valor más alto (por ejemplo 0.95) conducirá a texto más diverso, mientras que un valor más bajo(por ejemplo 0.5) generará texto más enfocado y conservador. (Predterminado: 0.9)

Para habilitar la instancia del proveedor Ollama:

  1. Ira a Administración del sitio > General > Proveedores de IA.
  2. Hacer clic en el interruptor para habilitar la instancia.

Vea también

  • documentación de Moodle 4.5 en idioma inglés Ollama para usar Ollama con el proveedor de OpenAI.