curso
¿Qué es la Llama 3.3 70B de Meta? Cómo funciona, casos de uso y más
Meta presenta Llama 3.3, un modelo de 70B parámetros que ofrece un rendimiento comparable a Llama 3.1 405B, pero con una demanda computacional significativamente menor.
Actualizado 6 dic 2024 · 8 min de lectura
Desarrollar aplicaciones de IA
Aprende a crear aplicaciones de IA utilizando la API OpenAI.
¿En qué se diferencia Llama 3.3 de Llama 3.2?
¿En qué se diferencia Llama 3.3 de Llama 405B?
¿Qué idiomas admite Llama 3.3?
¿En qué pruebas destaca Llama 3.3?
¿Puede funcionar Llama 3.3 en hardware estándar para desarrolladores?
Aprende IA con DataCamp
Certificación disponible
4 hr
3.1K
programa
Ingeniero Asociado de IA para Científicos de Datos
48 hr
Certificación disponible
curso
Conceptos de IA Generativa
2 hr
43.6K
Ver más
RelacionadoSee MoreSee More
blog
¿Qué es Mistral Large 2? Cómo funciona, casos de uso y más
Mistral Large 2 es el último modelo lingüístico de Mistral AI, que compite con modelos como GPT-4o, Llama 3.1 y Claude 3 Opus.
Ryan Ong
8 min
blog
Evaluación de un LLM: Métricas, metodologías y buenas prácticas
Aprende a evaluar grandes modelos lingüísticos (LLM) utilizando métricas clave, metodologías y mejores prácticas para tomar decisiones informadas.
Stanislav Karzhev
9 min
tutorial
Ajuste fino de LLaMA 2: Guía paso a paso para personalizar el modelo de lenguaje grande
Aprende a ajustar Llama-2 en Colab utilizando nuevas técnicas para superar las limitaciones de memoria y computación y hacer más accesibles los grandes modelos lingüísticos de código abierto.
Abid Ali Awan
12 min
tutorial
Guía introductoria para el ajuste preciso de los LLM
El ajuste preciso de los grandes modelos lingüísticos (LLM) ha revolucionado el procesamiento del lenguaje natural (PLN) y ofrece capacidades sin precedentes en tareas como la traducción lingüística, el análisis del sentimiento y la generación de textos. Este enfoque transformador aprovecha modelos preentrenados como el GPT-2 y mejora su rendimiento en dominios específicos mediante el proceso de ajuste preciso.
Josep Ferrer
12 min
tutorial
RAG Con Llama 3.1 8B, Ollama y Langchain: Tutorial
Aprende a crear una aplicación RAG con Llama 3.1 8B utilizando Ollama y Langchain, configurando el entorno, procesando documentos, creando incrustaciones e integrando un recuperador.
Ryan Ong
12 min
tutorial
Guía para principiantes de LlaMA-Factory WebUI: Ajuste de los LLM
Aprende a afinar los LLM en conjuntos de datos personalizados, evaluar el rendimiento y exportar y servir modelos sin problemas utilizando el marco de trabajo de bajo/ningún código de LLaMA-Factory.
Abid Ali Awan
12 min