La integración de Moodle conh Ollama proporciona acceso a acciones de Inteligencia Artificial como generar texto, resumir texto y explicar texto.
Requisitos
- Download Ollama y su instalación.
- Obtenga y haga disponible un modelo LLM (Modelo de Idioma Grande) desde la Ollama library como por ejemplo llama3.2.
Configuración de la instancia del proveedor Ollama
Para crear una instancia del proveedor:
- Ir a Administración del sitio > General > Proveedores de IA.
- Hacer clic en 'Crear una nueva instancia de proveedor'.
- Seleccionar Ollama como plugin de proveedor de IA, escribi un nombre y un endpoint API y hacer clic en 'Crear instancia'.
Para configurar la instancia de proveedor Ollama:
- Ir a Administración del sitio > General > Proveedores de IA.
- Hacer clic en el enlace para configuraciones para Ollama.
- Habilitar/deshabilitar las acciones que sean necesarias.
Para cada acción, puede personalizar el comportamiento del modelo.
- Hacer clic en el enlace para configuraciones para una acción.
- Revisar y corregir las instrucciones del sistema como sea necesario.
- Ingresar valores para las configuraciones siguientes como sea necesario y guardar los cambios.
- Mirostat - Mirostat es un algoritmo para descodificación neural, para controlar la perplejidad. 0 = deshabilitado, 1 = Mirostat, 2 = Mirostat 2.0. (Predeterminado: 0)
- Temperatura - La temperatura influye en si el resultado es más aleatorio y creativo o si es más predecible. Aumentar la temperatura hara que el modelo responda de forma más creativa. (Predeterminado: 0.8)
- Semilla (Seed) - Configura la semilla del número aleatorio usada para la generación. Al configurar esto a un número específico hará que el modelo genere el mismo texto para el mismo prompt. (Predeterminado: 0)
- top_k - Reduce la probabilidad de generar tonterías. Un valor más alto (como por ejemplo 100) dará respuestas más diversas, mientras que un valor más bajo (por ejemplo 10)será más conservador. (Predterminado: 40)
- top_p - Funciona en conjunto con top-k. Un valor más alto (por ejemplo 0.95) conducirá a texto más diverso, mientras que un valor más bajo(por ejemplo 0.5) generará texto más enfocado y conservador. (Predterminado: 0.9)
Para habilitar la instancia del proveedor Ollama:
- Ira a Administración del sitio > General > Proveedores de IA.
- Hacer clic en el interruptor para habilitar la instancia.
Vea también
- documentación de Moodle 4.5 en idioma inglés Ollama para usar Ollama con el proveedor de OpenAI.