Saltar al contenido principal
InicioBlogInteligencia Artificial (IA)

Mezcla de un millón de expertos (MoME): Explicación de los conceptos clave

MoME (Mezcla de Millones de Expertos) es un modelo de lenguaje escalable que utiliza la Mezcla de Expertos (MoE) con un mecanismo de encaminamiento llamado PEER para utilizar eficazmente millones de redes especializadas.
Actualizado ago 2024  · 7 min leer

Durante años, escalar los modelos de IA significaba sobre todo añadir más parámetros y datos de entrenamiento.

Aunque este enfoque mejora el rendimiento, también aumenta significativamente los costes computacionales. La Mezcla de Expertos (ME) ha surgido como una solución prometedora para abordar este reto, utilizando módulos expertos activados de forma dispersa en lugar de las tradicionales capas densas de avance.

El ME funciona delegando las tareas en distintos expertos en función de su experiencia en el tema. Cada experto está muy entrenado en un conjunto de datos específico para servir a un propósito concreto, y otro componente, la red de compuertas, se encarga de delegar estas tareas.

Flujo de trabajo de alto nivel del ME

Aunque los modelos MoE superan a los modelos tradicionales con Capas Feed-Forward, su eficacia puede estancarse a medida que crece el tamaño del modelo, debido a las limitaciones de utilizar un número fijo de fichas de entrenamiento.

Abordar esta cuestión requiere arquitecturas de alta granularidad con un gran número de expertos. Sin embargo, la única arquitectura existente que admite más de diez mil expertos, la Mezcla de Expertos en Palabras (MoWE)es específica para cada lengua y se basa en un esquema de enrutamiento fijo.

El sitio Mezcla de un millón de expertos (MoME)presentada en este documentoaborda este reto introduciendo la Recuperación de Expertos Eficiente en Parámetros (PEER) que emplea la recuperación de claves de producto para el enrutamiento eficiente a un gran número de expertos.

Comprender el PEER: El poder de los expertos paralelos

Uno de los principales retos a la hora de ampliar LLM reside en las demandas de cálculo y memoria de las capas de avance dentro de los bloques transformadores. El ME lo aborda sustituyendo estas capas por módulos expertos activados de forma dispersa, cada uno especializado en diferentes aspectos de la tarea. Este enfoque mejora la eficacia activando sólo a los expertos relevantes para una entrada dada, reduciendo la sobrecarga computacional.

Los enfoques actuales del ME tienen limitaciones, como los encaminadores fijos que hay que reajustar cuando se añaden nuevos expertos. Por tanto, se introduce un nuevo enfoque del encaminamiento, sustituyendo el encaminador fijo por un índice aprendido.

La Recuperación Experta Eficaz de Parámetros (PEER) reduce el número de parámetros activos en la capa ME, lo que afecta al consumo de memoria de cálculo y activación durante el preentrenamiento y la inferencia.

PEER demuestra que, aplicando los mecanismos adecuados de recuperación y encaminamiento, MoE puede ampliarse a millones de expertos, reduciendo el coste y la complejidad de la formación y el servicio de modelos lingüísticos muy grandes.

Flujo de trabajo de Mezcla de Millones de Expertos con técnica de recuperación de claves de producto

Fuente

En el diagrama anterior, la consulta de entrada se somete inicialmente a una recuperación de claves de producto para identificar a los kmejores expertos de. A continuación, estos expertos seleccionados procesan la entrada basándose en sus conocimientos especializados, y sus resultados se combinan durante la fase de inferencia para generar la salida final del modelo.

Mezcla de Millones de Expertos: Los detalles técnicos

La principal innovación de PEER es el uso de la recuperación de claves de producto. El objetivo sigue siendo el mismo que en el ME tradicional: encontrar a los k expertos más adecuados para la tarea dada. Sin embargo, con un gran número de expertos (potencialmente superior a un millón), las técnicas anteriores se vuelven computacionalmente caras o ineficaces.

Considera un escenario con N expertos, cada uno representado por un vectord-dimensional. Calcular directamente los k mejores expertos implicaría calcular la similitud entre la consulta de entrada y todas las N claves de expertos, lo que daría lugar a una complejidad temporal de O(Nd). Cuando N es muy grande (por ejemplo, N ≥ 10^6), esto resulta prohibitivamente caro.

PEER aborda esta cuestión empleando una estrategia inteligente: en lugar de utilizar N claves expertas independientes de d dimensiones, divide cada clave en dos subconjuntos independientes, cada uno con dimensionalidad d/2. Del mismo modo, el vector de consulta se divide en dos subconsultas. A continuación, se aplica la operación top-k a los productos internos entre estas subconsultas y subclaves.

Esta estructura de producto cartesiano de las claves reduce drásticamente la complejidad computacional de O(Nd) a O((N^.5+ k2)d), lo que hace factible identificar eficazmente a los k mejores expertos incluso con un número masivo de expertos.

Arquitectura de la capa PEER

La capa de Recuperación Experta Eficaz en Parámetros (PEER) es una arquitectura MoE que utiliza claves de producto en el enrutador y MLP de neurona única como expertos.

Una capa PEER consta de tres componentes:

  1. Una piscina de N expertos E
  2. Un conjunto correspondiente de N claves de producto K
  3. Una red de consulta q 

Así es como funciona: 

  1. Dada una consulta de entrada xrecupera un subconjunto de k expertos cuyas claves de producto correspondientes tengan los productos internos más altos con la consulta q(x).
  2. Aplicar una función de activación como sigmoide o softmax para obtener las puntuaciones de los enrutadores para estos top k expertos.
  3. Calcula la salida combinando linealmente las salidas de los expertos ponderadas por las puntuaciones de los enrutadores.

En esencia, la capa PEER identifica eficazmente a los expertos más relevantes para una entrada dada, lo que permite la utilización eficaz de un número masivo de expertos manteniendo la trazabilidad computacional. Esta innovación es un factor clave para escalar los modelos de ME a millones de expertos, allanando el camino para unos LLM más potentes y eficientes.

Ventajas del enfoque PEER

PEER, junto con la arquitectura MoME, ofrece varias ventajas convincentes sobre los enfoques tradicionales de MoE, ampliando los límites de las capacidades de LLM:

  • Mejora de la eficacia: Al utilizar un gran número de expertos especializados, el PEER permite una recuperación más precisa y eficaz de la información relevante, lo que mejora el rendimiento general del modelo.
  • Aprendizaje permanente: PEER facilita el aprendizaje continuo y el crecimiento del modelo. Se pueden añadir nuevos expertos de forma incremental, ampliando la base de conocimientos del modelo sin necesidad de un reentrenamiento completo, preservando así los conocimientos adquiridos previamente.
  • Escalabilidad: PEER aborda las limitaciones de escalabilidad de las arquitecturas tradicionales de MoE, permitiendo el desarrollo de modelos de billones de parámetros como el GPT-MoE-1.8T. Esto abre nuevas posibilidades para crear LLM aún más potentes y capaces.

Aplicaciones potenciales de la EMM

La Mezcla de Expertos ya es un paradigma de modelo ampliamente utilizado en el sector, con empresas como YouTube que lo integran en su sistema de recomendación. El futuro de MoME parece similar, y ya se insinuó en la GTC 2024 de Nvidia, cuando hablaron del modelo de 1,8 billones de GPT.

NVIDIA GTC 2024 - mención de GPT-MoE-1.8T

Fuente

La Mezcla de Millones de Expertos (MoME), con su arquitectura PEER, resulta especialmente prometedora para tareas complejas de PNL que requieren una amplia base de conocimientos y una rápida recuperación de respuestas. Aborda los retos de escalabilidad inherentes al entrenamiento y servicio de modelos lingüísticos muy grandes, abriendo nuevas posibilidades para su uso en dominios como la visión por ordenador, la generación de contenidos, los sistemas de recomendación y la informática inteligente.

Retos y limitaciones

Ampliar un modelo hasta un millón de expertos parece prometedor desde el punto de vista de la eficacia, pero gestionar una red tan grande plantea sus dificultades. Exploremos algunas de ellas: 

  1. Complejidad y eficiencia computacionales:
    • Coste de recuperación experto: Calcular los mejores k expertos de un conjunto de un millón puede ser costoso computacionalmente. Incluso con optimizaciones como la recuperación por clave de producto, gestionar eficientemente el proceso de recuperación sigue siendo un reto.
    • Sobrecarga de formación: Entrenar un modelo tan grande con un número masivo de expertos requiere importantes recursos informáticos, lo que puede no ser factible para todos los laboratorios de investigación o empresas.
  2. Limitaciones de memoria:
    • Memoria de activación: A medida que aumenta el número de expertos, la memoria necesaria para almacenar las activaciones y los resultados intermedios durante el entrenamiento y la inferencia puede llegar a ser prohibitiva.
    • Almacenamiento de parámetros: Almacenar un millón de expertos exige una capacidad de memoria significativa, lo que puede limitar la implantación en dispositivos con recursos limitados.
  3. Regularización y estabilidad:
    • Sobreajuste: Con un número tan elevado de parámetros, existe el riesgo de sobreajustar los datos de entrenamiento. Las técnicas de regularización eficaces son cruciales, pero pueden ser difíciles de diseñar y aplicar.
    • Estabilidad: La estabilidad del entrenamiento puede ser un problema, ya que la gestión de gradientes y actualizaciones para un millón de expertos puede provocar inestabilidades numéricas y problemas de convergencia.

Conclusión

En este artículo, exploramos la técnica de la Mezcla de Millones de Expertos (MoME), un enfoque escalable para grandes modelos lingüísticos.

MoME aprovecha las redes de expertos especializados y el mecanismo de encaminamiento PEER para mejorar la eficacia y el rendimiento. 

Hablamos de sus componentes básicos, ventajas y aplicaciones potenciales. Para profundizar más, consulta el documento de investigación para ver los detalles técnicos y los resultados de las pruebas comparativas.

Para más información, consulta el documento de investigación para conocer los detalles técnicos y los resultados de las pruebas comparativas.

Temas

¡Desarrolla aplicaciones de IA!

Track

Developing AI Applications

23hrs hr
Learn to create AI-powered applications with the latest AI developer tools, including the OpenAI API, Hugging Face, and LangChain.
See DetailsRight Arrow
Start Course
Ver másRight Arrow
Relacionado

blog

Evaluación de un LLM: Métricas, metodologías y buenas prácticas

Aprende a evaluar grandes modelos lingüísticos (LLM) utilizando métricas clave, metodologías y mejores prácticas para tomar decisiones informadas.
Stanislav Karzhev's photo

Stanislav Karzhev

9 min

Machine Learning

blog

25 proyectos de machine learning para todos los niveles

Proyectos de machine learning para principiantes, estudiantes de último curso y profesionales. La lista consta de proyectos guiados, tutoriales y código fuente de ejemplo.
Abid Ali Awan's photo

Abid Ali Awan

20 min

blog

8 modelos de machine learning explicados en 20 minutos

Descubre todo lo que necesitas saber sobre los tipos de modelos de machine learning, incluyendo para qué se utilizan y ejemplos de cómo ponerlos en práctica.
Natassha Selvaraj's photo

Natassha Selvaraj

25 min

tutorial

Guía introductoria para el ajuste preciso de los LLM

El ajuste preciso de los grandes modelos lingüísticos (LLM) ha revolucionado el procesamiento del lenguaje natural (PLN) y ofrece capacidades sin precedentes en tareas como la traducción lingüística, el análisis del sentimiento y la generación de textos. Este enfoque transformador aprovecha modelos preentrenados como el GPT-2 y mejora su rendimiento en dominios específicos mediante el proceso de ajuste preciso.
Josep Ferrer's photo

Josep Ferrer

12 min

tutorial

IA explicable - Comprender y confiar en los modelos de aprendizaje automático

Sumérjase en la IA explicable (XAI) y aprenda a generar confianza en los sistemas de IA con LIME y SHAP para la interpretabilidad de modelos. Comprender la importancia de la transparencia y la equidad en las decisiones basadas en la IA.
Zoumana Keita 's photo

Zoumana Keita

12 min

tutorial

Ajuste fino de LLaMA 2: Guía paso a paso para personalizar el modelo de lenguaje grande

Aprende a ajustar Llama-2 en Colab utilizando nuevas técnicas para superar las limitaciones de memoria y computación y hacer más accesibles los grandes modelos lingüísticos de código abierto.
Abid Ali Awan's photo

Abid Ali Awan

12 min

See MoreSee More