Ollama WebUI es una interfaz gráfica web minimalista y fácil de usar, desarrollada con FastAPI y Vue.js, que permite interactuar con modelos de IA locales a través de Ollama.
- Interfaz intuitiva y amigable
- Backend rápido con FastAPI
- Interfaz interactiva creada con Vue.js
- Soporte para múltiples modelos de IA locales
-
Clona el repositorio:
git clone https://github.com/wilmerm/ollama-webui.git cd ollama-webui
-
Instala las dependencias del backend:
pip install -r requirements.txt
-
Instala las dependencias del frontend:
cd frontend/vue-app npm install
Configura las siguientes variables en tu archivo .env
:
OLLAMA_BASE_URL=http://localhost:11434
DEFAULT_MODEL=llama3.2:3b
Variables opcionales:
DEBUG=True
ALLOWED_HOSTS=*
DEFAULT_TIMEOUT=30
DEFAULT_TEMPERATURE=0.5
GUNICORN_PORT=8000
GUNICORN_WORKERS=1
-
Inicia el servidor backend:
uvicorn backend.main:app --reload
-
Inicia el servidor frontend:
cd frontend/vue-app npm run dev
Para producción con Gunicorn:
gunicorn -w 4 -k uvicorn.workers.UvicornWorker backend.main:app --bind 0.0.0.0:8000
o simplemente ejecuta el archivo start.sh:
./start.sh
¡Contribuciones son bienvenidas! Abre un issue o envía un pull request.
Este proyecto está licenciado bajo la Licencia MIT.