La inteligencia artificial no deja de avanzar, y empresas como DeepSeek están marcando un antes y un después en el desarrollo de modelos de lenguaje. Con el lanzamiento de DeepSeek-R1, esta startup ha conseguido posicionarse como una alternativa a gigantes como OpenAI o Meta. En este artículo, aprenderás a autohospedar el modelo DeepSeek-R1 en tu propio servidor utilizando Ollama y Open WebUI, dos herramientas que facilitan la implementación y el acceso a modelos avanzados de IA. Además, exploraremos cómo su licencia MIT te permite usar este modelo para crear tus propias aplicaciones, incluso con fines comerciales.
Introducción a DeepSeek AI
DeepSeek es una startup que ha desarrollado modelos avanzados de lenguaje de gran escala como DeepSeek-V3 y DeepSeek-R1. Con 671 mil millones de parámetros, DeepSeek-V3 supera en pruebas de referencia a modelos como Llama 3.1 de Meta o GPT-4o de OpenAI.
Por su parte, DeepSeek-R1 ha demostrado un rendimiento impresionante en tareas de razonamiento matemático y programación, posicionándose como una opción ideal para desarrolladores y entusiastas de la IA que buscan autohospedar sus soluciones.
Lo más destacado es que DeepSeek AI es software libre y de código abierto (FOSS) bajo la licencia MIT, una de las licencias más permisivas disponibles. Esto significa que puedes:
- Usar el modelo libremente.
- Modificar el código fuente para adaptarlo a tus necesidades.
- Distribuir aplicaciones basadas en el modelo.
- Usarlo comercialmente para crear productos o servicios que generen ingresos.
Esta libertad permite a desarrolladores y empresas innovar sin depender exclusivamente de proveedores externos o enfrentar restricciones de uso.
¿Por Qué Autohospedar DeepSeek AI?
Autohospedar un modelo de IA tiene ventajas significativas:
- Control Total: Configura y personaliza la implementación según tus necesidades específicas.
- Privacidad y Seguridad: Al alojar localmente, tienes el control completo sobre los datos procesados.
- Costo a Largo Plazo: Aunque la inversión inicial puede ser alta, a largo plazo, reduces los costos de suscripciones en la nube.
- Libertad de Innovar: Gracias a la licencia MIT, puedes usar DeepSeek AI para crear tus propias aplicaciones, ya sean personales o comerciales.
Sin embargo, también hay desventajas, como los requisitos técnicos y el mantenimiento continuo del servidor.
Requisitos del Sistema
Hardware
- Memoria RAM: Mínimo 16 GB.
- Procesador (CPU): Intel i7 o AMD Ryzen 7 de octava generación o superior.
- Tarjeta Gráfica (GPU): Se recomienda una Nvidia RTX 3060 o superior con al menos 12 GB de VRAM.
Nota: Este tutorial usará una configuración sin GPU, con limitaciones que explicaremos más adelante.
Software
- Sistema Operativo: Ubuntu 22.04/24.04 o Debian 12.
- Ollama: Herramienta para ejecutar modelos de lenguaje.
- Docker: Para desplegar Open WebUI, una interfaz gráfica que facilita la interacción con los modelos.
Tutorial: Paso a Paso para Autohospedar DeepSeek AI
En este tutorial, desplegaremos el modelo DeepSeek-R1 utilizando Ollama y Open WebUI.
Paso 1: Configura tu Servidor
Este tutorial está diseñado para ejecutarse en cualquier servidor, ya sea físico o virtual.
Nota: En mi caso, usaré un contenedor (CT) de Proxmox para demostrar el proceso con fines didácticos. Sin embargo, esto no es lo ideal para un entorno de producción, ya que un CT puede tener limitaciones en rendimiento.
Paso 2: Instala Ollama
Actualiza tu Sistema Operativo:
sudo apt update && sudo apt upgrade -y
Instala Dependencias Necesarias:
sudo apt install -y curl
Descarga e Instala Ollama:
curl -fsSL https://ollama.com/install.sh | sh
¿Qué hace este comando?
- Descarga un script de instalación desde el sitio oficial de Ollama.
- Verifica su integridad.
- Lo ejecuta para instalar la herramienta en tu sistema.
Configura Ollama para Escuchar Conexiones Externas:
Por defecto, Ollama solo escucha en localhost. Sin embargo, necesitamos permitir que Docker y Open WebUI se comuniquen con él.
Obtén tu IP local con el comando:
ip a
En mi caso es:

Edita el archivo de servicio:
sudo nano /etc/systemd/system/ollama.service
Modifica la sección [Service]
para que Ollama escuche en tu IP local:
Agrega Environment=»OLLAMA_HOST=192.168.101.215″ (Reemplaza con tu IP)
[Unit]
Description=Ollama Service
After=network-online.target
[Service]
ExecStart=/usr/local/bin/ollama serve
User=ollama
Group=ollama
Restart=always
RestartSec=3
Environment="PATH=/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin:/usr/games:/usr/local/games:/snap/bin"
Environment="OLLAMA_HOST=192.168.101.215" #Reemplaza con tu IP
[Install]
WantedBy=default.target
¿Por qué no dejarlo en localhost?
Por defecto, Ollama escucha únicamente en localhost, lo que significa que solo es accesible desde el propio servidor donde está instalado. Sin embargo, en nuestro caso, esto no es suficiente, ya que queremos que Open WebUI, que se ejecutará en un contenedor Docker, pueda comunicarse con Ollama.
Los contenedores Docker operan en un entorno de red separado del sistema anfitrión, por lo que localhost no será accesible para ellos. Al configurar OLLAMA_HOST con la dirección IP local del servidor (por ejemplo, 192.168.101.215), permitimos que Open WebUI pueda interactuar con Ollama y gestionar el modelo DeepSeek-R1 desde una interfaz gráfica.
Recarga y Reinicia Ollama:
sudo systemctl daemon-reload
sudo systemctl restart ollama
sudo systemctl enable ollama
Verifica que Ollama Funcione:
sudo systemctl status ollama
Si todo está bien deberías ver algo como esto:

Paso 3: Explora y Descarga el Modelo DeepSeek-R1
Antes de descargar el modelo, es útil explorar los modelos disponibles y elegir el que mejor se adapte a tus necesidades. Ollama ofrece una biblioteca extensa de modelos que puedes usar para diversos casos de uso, desde procesamiento de lenguaje natural hasta tareas de codificación.
Consulta los Modelos Disponibles
Visita la Biblioteca de Modelos de Ollama para explorar la lista completa de modelos, sus descripciones y casos de uso.
Para este tutorial, usaremos el modelo DeepSeek-R1 debido a su excelente rendimiento en tareas de razonamiento y codificación. Sin embargo, puedes seleccionar otro modelo de la biblioteca según tus necesidades.
Descarga el Modelo:
Establece la Variable de Entorno y Ejecuta el Comando:
export OLLAMA_HOST=192.168.101.215
ollama run deepseek-r1
¿Por qué este comando?
export OLLAMA_HOST=192.168.101.215
: Configura la dirección IP donde el cliente Ollama se conectará al servidor Ollama, asegurando que la comunicación sea correcta. (Recuerda sustituir 192.168.101.215 con tu IP)
ollama run deepseek-r1
: Descarga e inicia el modelo DeepSeek-R1 en tu servidor.
Este método es el más simple ya que solo requiere ejecutar dos comandos consecutivos sin necesidad de modificar archivos de configuración del sistema. Además, al establecer la variable de entorno de esta manera, te aseguras de que el cliente Ollama apunte al servidor correcto durante la ejecución del modelo.
Ventajas de Este Método
- Simplicidad: Fácil de seguir con solo dos comandos.
- Rapidez: No requiere modificaciones adicionales en la configuración del sistema.
- Control: La variable de entorno solo afecta a la sesión actual, evitando conflictos con otras aplicaciones.
Consideraciones Adicionales
- Persistencia: La variable de entorno se establece solo para la sesión actual. Si cierras la terminal y abres una nueva, deberás volver a exportarla si necesitas ejecutar más comandos de Ollama.
- Uso Frecuente: Si planeas usar Ollama regularmente, considera añadir la línea
export OLLAMA_HOST=192.168.101.215
a tu archivo de configuración del shell (como~/.bashrc
o~/.zshrc
) para automatizar este paso en futuras sesiones.

Ya puedes interactuar con DeepSeek-R1 directamente desde la línea de comandos utilizando Ollama. Esto es útil para realizar pruebas rápidas o integraciones básicas sin necesidad de una interfaz gráfica. Por ejemplo:

Escribe /bye para terminar tu interacción

Verifica los Modelos Descargados:
Una vez descargado, puedes verificar que el modelo está disponible en tu sistema con:
ollama list

Paso 4: Instala Docker
Para desplegar Open WebUI y otros contenedores necesarios, primero asegurémonos de tener Docker instalado en tu servidor. Si ya lo tienes instalado, puedes pasar al siguiente paso. Si no, consulta nuestro post dedicado para obtener una guía más detallada sobre cómo instalarlo: Cómo Instalar Docker y Docker Compose en Linux: Guía Paso a Paso.
Descarga e Instala Docker:
curl -sSL https://get.docker.com | sh
Añade tu Usuario al Grupo Docker:
Para evitar usar sudo
en cada comando relacionado con Docker, añade tu usuario al grupo docker
:
sudo usermod -aG docker $USER
newgrp docker
Paso 5: Despliega Open WebUI con Docker
Ejecuta el Contenedor de Open WebUI:
docker run -d \
-p 8080:8080 \
-e OLLAMA_BASE_URL=http://192.168.101.215:11434 \
-v open-webui:/app/backend/data \
--name open-webui \
--restart always \
ghcr.io/open-webui/open-webui:main
Recuerda remplazar OLLAMA_BASE_URL=http://192.168.101.215:11434 con tu IP
Verifica el Contenedor:
docker ps

Paso 6: Accede a Open WebUI
Abre tu Navegador:
Dirígete a http://192.168.101.215:8080
(reemplaza con tu IP local).

Crea tu cuenta e inicia sesión
Selecciona el Modelo:

Desde la interfaz de Open WebUI, elige DeepSeek-R1 en el menú desplegable y comienza a interactuar con él.

Paso 7: Lleva DeepSeek AI al Mundo: Acceso Remoto Seguro
Si deseas que tu modelo de DeepSeek AI esté disponible para acceder desde cualquier lugar, puedes aprovechar distintas opciones de configuración que hemos explorado en nuestros tutoriales. Estas soluciones no solo garantizan un acceso remoto seguro, sino que también te permiten personalizar la implementación según tus necesidades.
1. Usar la Red Tor para Acceso Privado
¿Quieres mantener tu modelo accesible solo a través de un entorno anónimo y seguro? La red Tor es ideal para este propósito. Configura tus servicios internos en la red Tor siguiendo nuestra guía:
Acceso Global y Privado: Configura tus Servicios Internos en la Red Tor
2. Conecta tu Modelo con un Túnel de Cloudflare
Si buscas una forma gratuita y segura de exponer tu modelo a Internet sin necesidad de abrir puertos en tu router, los túneles de Cloudflare son una opción excelente. Aprende a implementarlos con esta guía:
Conecta tus Servicios Internos al Mundo Exterior sin Abrir Puertos: Cómo Usar un Túnel de Cloudflare (¡Gratis!)
3. Configura Nginx Proxy Manager
Para una solución más avanzada, puedes usar Nginx Proxy Manager. Este proxy inverso te permitirá gestionar el acceso a tu modelo a través de una interfaz gráfica, simplificando la configuración de certificados SSL y puertos personalizados. Sigue nuestra guía para instalarlo:
Cómo Instalar Nginx Proxy Manager en un Contenedor Docker: Guía Completa
4. Implementación en un Entorno Virtualizado con Proxmox
Si solo estás probando DeepSeek AI como un hobby o en un entorno de aprendizaje, te recomendamos usar Proxmox VE. Es ideal para crear y gestionar contenedores o máquinas virtuales, aislando tu modelo en un entorno seguro. Aprende a configurarlo desde cero con estos tutoriales:
- Proxmox desde Cero: Guía Completa para Iniciarte en la Virtualización con Proxmox VE
- Cómo Instalar Proxmox VE Desde Cero: Guía Paso a Paso
Hacer tu modelo accesible desde cualquier parte no solo aumenta la versatilidad de tu implementación, sino que también te brinda la posibilidad de experimentar con configuraciones más avanzadas.
Para obtener más detalles sobre cada enfoque, explora los tutoriales enlazados y adapta la solución que mejor se alinee con tus objetivos. 🚀
Conclusión
Con esta guía, has aprendido cómo autohospedar el modelo DeepSeek-R1 en tu servidor, configurándolo paso a paso con Ollama y Open WebUI. Esta configuración no solo te permite explorar las capacidades de un modelo de IA avanzado, sino también mantener un control total sobre tus datos y personalizar la implementación según tus necesidades.
Además, gracias a la licencia MIT, tienes libertad para usar este modelo en proyectos comerciales o personales, abriendo las puertas a un sinfín de posibilidades:
- Desarrollar asistentes virtuales personalizados para tu empresa o proyectos.
- Construir herramientas especializadas, como aplicaciones de codificación, razonamiento lógico o análisis de datos.
- Crear servicios comerciales basados en inteligencia artificial que puedas monetizar.
No olvides que puedes descargar y gestionar varios modelos desde la biblioteca de Ollama para combinar capacidades según lo requieran tus proyectos. Por ejemplo, usa DeepSeek-R1 para tareas de razonamiento y complementa con modelos como Llama 3 o Phi 3 para optimizar diferentes áreas de tu solución.
¡Este es solo el comienzo! Tener control total sobre modelos como DeepSeek AI te coloca en una posición privilegiada para liderar proyectos de innovación en inteligencia artificial. ¡No hay límites para lo que puedes crear!
¿Tienes preguntas o sugerencias? ¡Déjalas en los comentarios y estaré encantado de ayudarte! 🚀