DeepSeek – La revolución de la Inteligencia Arificial

DeepSeek – La revolución de la Inteligencia Arificial

Tiempo de lectura: 2 minutos En el mundo de la inteligencia artificial, donde los avances se suceden a un ritmo vertiginoso, DeepSeek ha emergido como un actor clave en la evolución de los modelos de IA. Esta plataforma ha redefinido los límites del aprendizaje automático, combinando técnicas avanzadas de modelado de lenguaje con enfoques innovadores que han llevado a mejoras … Leer más

Utilizar DeepSeek con API gratis y OpenRouter

Utilizar DeepSeek con API gratis y OpenRouter

Tiempo de lectura: 2 minutos Hoy vamos a aprender a utilizar DeepSeek usando su API de forma gratuita usando OpenRouter. Lo primero que haremos es registrarnos en la web de OpenRouter: https://openrouter.ai/ Una vez tenemos la cuenta creada e iniciada la sesión tenemos que ir a buscar el modelo «DeepSeek R1 (free)» Y aquí tendremos toda la información necesaria. Pulsaremos … Leer más

Añadir GPU en Docker para Ollama u otros servicios

Añadir GPU en Docker para Ollama u otros servicios

Tiempo de lectura: 2 minutos Hoy vamos a ver cómo podemos añadir acceso a GPU desde Docker para poderlo utilizar con Ollama u otros servicios. Para darle acceso a la GPU a tu contenedor Ollama, necesitas asegurarte de que tu host tenga soporte para GPU y que el contenedor pueda usarla. Esto se logra configurando correctamente el entorno Docker y … Leer más

DeepSeek R1 con Ollama en Docker Compose

DeepSeek R1 con Ollama en Docker Compose

Tiempo de lectura: < 1 minuto Hoy os voy a enseñar cómo podemos desplegar DeepSeek R1 el nuevo modelo Chino en un Docker compose usando Ollama. Es un proceso muy sencillo. Primero vamos a crear el docker compose con la imagen de Ollama: Levantamos el contenedor: Y ahora vamos a descargar el modelo correspondiente a deepseek r1 7b Y aparecerá un … Leer más

Cómo Crear Tu Propia App con ChatGPT Integrado en Menos de 1 Hora

Cómo Crear Tu Propia App con ChatGPT Integrado en Menos de 1 Hora

Tiempo de lectura: 2 minutos En este tutorial, aprenderás a crear una aplicación desde cero que aprovecha el poder de la IA generativa de ChatGPT (OpenAI) para interactuar con los usuarios en tiempo real. Perfecto para principiantes y profesionales que quieran llevar su desarrollo al siguiente nivel y generar un producto atractivo. Usaremos React Native para la app móvil y … Leer más

Implementar un método para obtener text/event-stream de un LLm usando React Native

Implementar un método para obtener text/event-stream de un LLm usando React Native

Tiempo de lectura: 2 minutos Hoy vamos a aprender cómo podemos obtener un stream de datos de un LLm usando React Native. Por defecto React Native no permite obtener un text/event-stream usando librerías como Axios o Fetch. Para obtenerlo vamos a usar la librería react-native-sse que maneja event source. Una vez instalada vamos a implementar nuestro código. Tenemos que tener … Leer más

Parámetros para optimizar llamadas a Ollama

Parámetros para optimizar llamadas a Ollama

Tiempo de lectura: 2 minutos Con estos parámetros podemos mejorar la llamada a Ollama desde una petición. Principales parámetros para mejorar la eficiencia: Ejemplo de Configuración Optimizada: Prueba estas configuraciones y verifica si la generación es más rápida y eficiente en tu hardware. isMa Ingeniero en Informática, Investigador, me encanta crear cosas o arreglarlas y darles una nueva vida. Escritor … Leer más

Aplicar Fine-tunning a Llama 3.2 para crear un custom dataset sobre un tema en concreto con Google Colab

Aplicar Fine-tunning a Llama 3.2 para crear un custom dataset sobre un tema en concreto con Google Colab

Tiempo de lectura: 6 minutos Hoy vamos a crear una versión custom de Llama 3.2 mediante la técnica de Fine-tunning usando Google Colab cómo máquina de entrenamiento. Primero tenemos que ir a Google Colab y crear un nuevo cuaderno. https://colab.research.google.com/ Una vez creado vamos a ir a Entorno de ejecución o Runtime y pulsamos en cambiar tipo de entorno de … Leer más

Mostrar una interfaz web de chat usando open-webui para llama 3.2 o cualquier modelo compatible con ollama usando docker compose

Mostrar una interfaz web de chat usando open-webui para llama 3.2 o cualquier modelo compatible con ollama usando docker compose

Tiempo de lectura: 2 minutos Hoy vamos a montar un docker compose qué es capaz de generar una web con interfaz de chat para cualquier modelo compatible con ollama. Lo primero que tenemos que hacer es crear este docker-compose.yml basado en open-webui En mi caso lo voy a acoplar en el mismo docker-compose.yml de ollama: Ahora será tan sencillo como … Leer más

Ollama con Llama 3.2 en Docker

Ollama con Llama 3.2 en Docker

Tiempo de lectura: 2 minutos Hoy vamos a ejecutar el nuevo modelo de llama 3.2 en Docker utilizando Ollama. Lo primero que haremos es crear este docker-compose.yml Vamos a utilizar el puerto por defecto 11434. Ahora tendremos que lanzar el comando: Y tendremos desplegado ollama en el contenedor Docker. Ahora para descargar y ejecutar el modelo llama 3.2 usaremos el … Leer más