Parámetros para optimizar llamadas a Ollama

Parámetros para optimizar llamadas a Ollama

Tiempo de lectura: 2 minutos Con estos parámetros podemos mejorar la llamada a Ollama desde una petición. Principales parámetros para mejorar la eficiencia: Ejemplo de Configuración Optimizada: Prueba estas configuraciones y verifica si la generación es más rápida y eficiente en tu hardware. isMa Ingeniero en Informática, me encanta crear cosas o arreglarlas y darles una nueva vida. Escritor y … Leer más

Aplicar Fine-tunning a Llama 3.2 para crear un custom dataset sobre un tema en concreto con Google Colab

Aplicar Fine-tunning a Llama 3.2 para crear un custom dataset sobre un tema en concreto con Google Colab

Tiempo de lectura: 6 minutos Hoy vamos a crear una versión custom de Llama 3.2 mediante la técnica de Fine-tunning usando Google Colab cómo máquina de entrenamiento. Primero tenemos que ir a Google Colab y crear un nuevo cuaderno. https://colab.research.google.com/ Una vez creado vamos a ir a Entorno de ejecución o Runtime y pulsamos en cambiar tipo de entorno de … Leer más

Mostrar una interfaz web de chat usando open-webui para llama 3.2 o cualquier modelo compatible con ollama usando docker compose

Mostrar una interfaz web de chat usando open-webui para llama 3.2 o cualquier modelo compatible con ollama usando docker compose

Tiempo de lectura: 2 minutos Hoy vamos a montar un docker compose qué es capaz de generar una web con interfaz de chat para cualquier modelo compatible con ollama. Lo primero que tenemos que hacer es crear este docker-compose.yml basado en open-webui En mi caso lo voy a acoplar en el mismo docker-compose.yml de ollama: Ahora será tan sencillo como … Leer más

Ollama con Llama 3.2 en Docker

Ollama con Llama 3.2 en Docker

Tiempo de lectura: 2 minutos Hoy vamos a ejecutar el nuevo modelo de llama 3.2 en Docker utilizando Ollama. Lo primero que haremos es crear este docker-compose.yml Vamos a utilizar el puerto por defecto 11434. Ahora tendremos que lanzar el comando: Y tendremos desplegado ollama en el contenedor Docker. Ahora para descargar y ejecutar el modelo llama 3.2 usaremos el … Leer más

Crea una App de Adivinanzas con React y ChatGPT API

Crea una App de Adivinanzas con React y ChatGPT API

Tiempo de lectura: 2 minutos En este tutorial, vamos a construir una aplicación divertida de adivinanzas donde los usuarios pueden intentar adivinar objetos, animales o cualquier cosa que quieran. La gracia es que la app usará la API de ChatGPT para dar pistas creativas y a veces desafiantes. Paso 1: Configura tu Proyecto de React Paso 2: Diseña el Componente … Leer más

La Revolución de la Inteligencia Artificial: ¿Estás Listo para el Futuro?

La Revolución de la Inteligencia Artificial: ¿Estás Listo para el Futuro?

Tiempo de lectura: 2 minutos En un mundo que cambia a la velocidad de la luz, la inteligencia artificial (IA) está redefiniendo el futuro de la humanidad. Desde asistentes virtuales que responden a nuestras preguntas hasta coches autónomos que se conducen solos, la IA está en todas partes. Pero, ¿estamos realmente preparados para lo que viene? La IA en Nuestras … Leer más

Inteligencia Artificial y Creatividad: La Fusión que está Transformando el Arte y la Música

Inteligencia Artificial y Creatividad: La Fusión que está Transformando el Arte y la Música

Tiempo de lectura: 2 minutos La Inteligencia Artificial (IA) ha dejado de ser solo una herramienta para resolver problemas matemáticos complejos o para optimizar procesos industriales. En 2024, la IA está emergiendo como una fuerza creativa revolucionaria, transformando cómo se crean y experimentan el arte y la música. Descubre cómo la tecnología está redefiniendo la creatividad y por qué esta … Leer más

Desplegar Llama 2 en Google Colab y acceder mediante FAST-API y el tunnel Ngrok

Desplegar Llama 2 en Google Colab y acceder mediante FAST-API y el tunnel Ngrok

Tiempo de lectura: 4 minutos Hola, hoy vamos a aprender cómo podemos desplegar gratis el modelo de IA Llama 2 usando Google Colab y Fast API. Me baso en el tutorial que encontré navegando https://medium.com/@yuhongsun96/host-a-llama-2-api-on-gpu-for-free-a5311463c183 En este ejemplo crearé un pequeño programa que se desplegará en Google Colab. Lo primero que vamos a hacer es acceder a Google Colab: https://colab.research.google.com/?hl=es … Leer más

Utilizar llama-2 con Python y entorno ARM64 o AMD64 en un contenedor Docker Compose

Utilizar llama-2 con Python y entorno ARM64 o AMD64 en un contenedor Docker Compose

Tiempo de lectura: 3 minutos Hola, hoy vamos a aprender cómo podemos desplegar llama-2 en un servidor con entorno ARM64 como por ejemplo un Ampere 1 de los que ofrece Oracle Cloud, hay que destacar que también es compatible con AMD64. El programa en cuestión tiene de nombre LlaMA C++ y está disponible para múltiples entornos: En nuestro caso vamos … Leer más

Utilizar y desplegar GPT4ALL alternativa a Llama-2 y GPT4 pero para PCs con bajos recursos con Python y Docker

Utilizar y desplegar GPT4ALL alternativa a Llama-2 y GPT4 pero para PCs con bajos recursos con Python y Docker

Tiempo de lectura: 2 minutos Hola, hoy vamos a aprender cómo podemos desplegar GPT4All, la alternativa open source y comercial de GPT4 que además consume menos recursos que Llama-2. En este tutorial, vamos a aprender cómo podemos ejecutar GPT4All en una máquina de Docker y con una librería para poder obtener directamente los promts en código y utilizarlos fuera de … Leer más