Informe de investigación profunda de OpenLedger: construir una economía de agentes impulsada por datos y modelada de manera combinable sobre la base de OP Stack + EigenDA
I. Introducción | El salto en la capa de modelos de Crypto AI
Los datos, los modelos y la potencia de cálculo son los tres elementos centrales de la infraestructura de IA, comparables al combustible (datos), motor (modelo) y energía (potencia de cálculo), siendo todos imprescindibles. Al igual que la trayectoria de evolución de la infraestructura en la industria tradicional de IA, el campo de Crypto AI también ha pasado por etapas similares. A principios de 2024, el mercado estuvo dominado por proyectos de GPU descentralizados, enfatizando en la lógica de crecimiento extensivo de "competir en potencia de cálculo". Sin embargo, a partir de 2025, el enfoque de la industria se ha ido desplazando gradualmente hacia los niveles de modelo y datos, marcando la transición de Crypto AI de la competencia por recursos básicos a la construcción de niveles intermedios con mayor sostenibilidad y valor de aplicación.
Modelos generales (LLM) vs Modelos especializados (SLM)
Los modelos de lenguaje de gran tamaño (LLM) tradicionales dependen en gran medida de conjuntos de datos masivos y arquitecturas distribuidas complejas, con un tamaño de parámetros que varía de 70B a 500B, y el costo de entrenar uno puede alcanzar fácilmente varios millones de dólares. Por otro lado, el SLM (Modelo de Lenguaje Especializado), como un paradigma de ajuste fino ligero de modelos base reutilizables, generalmente se basa en modelos de código abierto como LLaMA, Mistral, DeepSeek, combinando una pequeña cantidad de datos profesionales de alta calidad y tecnologías como LoRA, para construir rápidamente modelos de expertos con conocimientos en campos específicos, reduciendo significativamente los costos de entrenamiento y las barreras técnicas.
Es importante señalar que SLM no se integra en los pesos de LLM, sino que colabora con LLM a través de llamadas de arquitectura de Agente, enrutamiento dinámico del sistema de plugins, hot-swappable módulos LoRA, RAG (Generación Aumentada por Recuperación), entre otros. Esta arquitectura conserva la capacidad de amplia cobertura de LLM, mientras que mejora el rendimiento profesional a través de módulos de ajuste fino, formando un sistema inteligente combinado altamente flexible.
El valor y los límites de Crypto AI en la capa del modelo
Los proyectos de Crypto AI son en esencia difíciles de mejorar directamente las capacidades centrales de los modelos de lenguaje de gran tamaño (LLM), la razón principal radica en que
La barrera técnica es demasiado alta: la escala de datos, los recursos de computación y la capacidad de ingeniería necesarios para entrenar un modelo base son extremadamente grandes, y actualmente solo las grandes empresas tecnológicas de países como Estados Unidos y China tienen la capacidad correspondiente.
Limitaciones del ecosistema de código abierto: Aunque modelos básicos como LLaMA y Mixtral ya están disponibles como código abierto, la clave para impulsar verdaderos avances en los modelos sigue estando concentrada en instituciones de investigación y sistemas de ingeniería cerrados, y el espacio de participación de los proyectos en cadena en la capa de modelos centrales es limitado.
Sin embargo, sobre los modelos básicos de código abierto, los proyectos de Crypto AI aún pueden extender su valor mediante el ajuste fino de modelos de lenguaje especializados (SLM), y combinando la verificabilidad y los mecanismos de incentivos de Web3. Como "capa de interfaz periférica" de la cadena de la industria de IA, se manifiesta en dos direcciones clave:
Capa de verificación confiable: a través del registro en cadena de la ruta de generación del modelo, la contribución de datos y el uso, se mejora la trazabilidad y la resistencia a la manipulación de las salidas de IA.
Mecanismo de incentivos: Utilizando el Token nativo para incentivar acciones como la carga de datos, la llamada al modelo y la ejecución del agente, se construye un ciclo positivo de entrenamiento y servicio del modelo.
Análisis de la aplicabilidad de los tipos de modelos de IA y blockchain
Como se puede ver, los puntos de enfoque viables de los proyectos de Crypto AI de clase modelo se concentran principalmente en la ligera afinación de pequeños SLM, la integración y verificación de datos en cadena de la arquitectura RAG, así como el despliegue local de modelos Edge y los incentivos asociados. Combinando la verificabilidad de la blockchain y los mecanismos de tokens, Crypto puede proporcionar un valor único para estos escenarios de modelos de recursos medios y bajos, formando un valor diferencial en la «capa de interfaz» de la IA.
La cadena de bloques AI basada en datos y modelos puede llevar un registro claro e inmutable de la fuente de contribución de cada dato y modelo, mejorando significativamente la credibilidad de los datos y la trazabilidad del entrenamiento de modelos. Al mismo tiempo, a través del mecanismo de contratos inteligentes, se activa automáticamente la distribución de recompensas cuando se invocan datos o modelos, convirtiendo el comportamiento de la IA en un valor tokenizado medible y negociable, y construyendo un sistema de incentivos sostenible. Además, los usuarios de la comunidad también pueden evaluar el rendimiento del modelo mediante votación con tokens, participar en la formulación y iteración de reglas, y mejorar la estructura de gobernanza descentralizada.
II. Resumen del Proyecto | La visión de la cadena AI de OpenLedger
OpenLedger es uno de los pocos proyectos de blockchain AI en el mercado actual que se centra en los mecanismos de incentivos de datos y modelos. Fue el primero en proponer el concepto de "Payable AI", con el objetivo de construir un entorno de ejecución de IA justo, transparente y combinable, incentivando a los contribuyentes de datos, desarrolladores de modelos y constructores de aplicaciones de IA a colaborar en una misma plataforma y obtener ingresos en la cadena según sus contribuciones reales.
OpenLedger ofrece un ciclo completo que va desde "provisión de datos" hasta "despliegue de modelos" y luego "llamada de reparto de beneficios", cuyos módulos principales incluyen:
Fábrica de Modelos: sin necesidad de programación, se puede utilizar LoRA para ajustar, entrenar y desplegar modelos personalizados basados en LLM de código abierto;
OpenLoRA: soporta la coexistencia de miles de modelos, carga dinámica bajo demanda, reduce significativamente los costos de implementación;
PoA (Prueba de Atribución): a través de registros de llamadas en la cadena, se logra la medición de contribuciones y la distribución de recompensas;
Datanets: Red de datos estructurados orientada a escenarios verticales, construida y validada por la colaboración de la comunidad;
Plataforma de Propuestas de Modelos (Model Proposal Platform): mercado de modelos en cadena que es combinable, llamable y pagable.
A través de los módulos anteriores, OpenLedger ha construido una "infraestructura de economía de agentes" impulsada por datos y con modelos combinables, promoviendo la cadena de valor de la IA en la cadena.
Y en la adopción de la tecnología blockchain, OpenLedger utiliza OP Stack + EigenDA como base para construir un entorno de ejecución de datos y contratos de alto rendimiento, bajo costo y verificable para modelos de IA.
Construido sobre OP Stack: basado en la pila tecnológica de Optimism, soporta alta profundidad y ejecución de bajos costos;
Liquidación en la red principal de Ethereum: Asegurar la seguridad de las transacciones y la integridad de los activos;
Compatible con EVM: permite a los desarrolladores desplegar y ampliar rápidamente basándose en Solidity;
EigenDA proporciona soporte de disponibilidad de datos: reduce significativamente los costos de almacenamiento y garantiza la verificabilidad de los datos.
En comparación con cadenas de IA generales como NEAR, que se centran más en la infraestructura subyacente y en la soberanía de datos con la arquitectura de "AI Agents on BOS", OpenLedger se enfoca más en construir cadenas de IA especializadas orientadas a incentivos de datos y modelos, comprometida a lograr que el desarrollo y la invocación de modelos se realicen en la cadena con un ciclo de valor trazable, combinable y sostenible. Es la infraestructura de incentivos de modelos en el mundo Web3, combinando el alojamiento de modelos al estilo de HuggingFace, la facturación de uso al estilo de Stripe y interfaces combinables en la cadena al estilo de Infura, impulsando el camino hacia la realización de "modelos como activos".
Tres, los componentes clave y la arquitectura técnica de OpenLedger
3.1 Modelo de Fábrica, modelo de fábrica sin necesidad de código
ModelFactory es una plataforma de ajuste fino de modelos de lenguaje (LLM) a gran escala dentro del ecosistema OpenLedger. A diferencia de los marcos de ajuste fino tradicionales, ModelFactory ofrece una operación completamente gráfica, sin necesidad de herramientas de línea de comandos o integración de API. Los usuarios pueden ajustar el modelo basado en conjuntos de datos autorizados y revisados completados en OpenLedger. Se ha logrado un flujo de trabajo integrado de autorización de datos, entrenamiento de modelos y despliegue, cuyos procesos centrales incluyen:
Control de acceso a datos: Los usuarios envían solicitudes de datos, los proveedores revisan y aprueban, los datos se integran automáticamente en la interfaz de entrenamiento del modelo.
Selección y configuración del modelo: Soporta LLM de uso común (como LLaMA, Mistral), configurando los hiperparámetros a través de la GUI.
Ajuste ligero: motor LoRA / QLoRA incorporado, muestra el progreso del entrenamiento en tiempo real.
Evaluación y despliegue de modelos: herramientas de evaluación integradas, que admiten la exportación de despliegues o el uso compartido en ecosistemas.
Interfaz de verificación interactiva: Proporciona una interfaz de chat, fácil para probar directamente la capacidad de respuesta del modelo.
Generación de trazabilidad RAG: Responder con citas de origen, aumentando la confianza y la auditabilidad.
La arquitectura del sistema Model Factory incluye seis módulos, abarcando la autenticación de identidad, los permisos de datos, el ajuste fino del modelo, la evaluación y el despliegue, así como la trazabilidad RAG, creando una plataforma de servicio de modelos integrada, segura, controlable, interactiva en tiempo real y capaz de generar ingresos de manera sostenible.
El resumen de las capacidades de los grandes modelos de lenguaje que ModelFactory admite actualmente es el siguiente:
Serie LLaMA: La más amplia en ecología, con una comunidad activa y un rendimiento general fuerte, es uno de los modelos base de código abierto más populares en la actualidad.
Mistral: Arquitectura eficiente, rendimiento de inferencia excelente, adecuado para escenarios de despliegue flexible y recursos limitados.
Qwen: Producto de Alibaba, destaca en tareas en chino, con habilidades integrales fuertes, adecuado como primera opción para desarrolladores nacionales.
ChatGLM: Efecto de conversación en chino destacado, adecuado para atención al cliente de nicho y escenarios de localización.
Deepseek: Destaca en la generación de código y razonamiento matemático, adecuado para herramientas de asistencia en el desarrollo inteligente.
Gemma: un modelo ligero lanzado por Google, con una estructura clara, fácil de comenzar rápidamente y experimentar.
Falcon: Solía ser un referente de rendimiento, adecuado para investigaciones básicas o pruebas comparativas, pero la actividad de la comunidad ha disminuido.
BLOOM: Soporte multilingüe fuerte, pero el rendimiento de inferencia es débil, adecuado para investigaciones de cobertura del lenguaje.
GPT-2: modelo clásico temprano, adecuado solo para fines de enseñanza y verificación, no se recomienda su uso en despliegues reales.
Aunque la combinación de modelos de OpenLedger no incluye los últimos modelos MoE de alto rendimiento o modelos multimodales, su estrategia no es obsoleta, sino que se basa en las restricciones de implementación en cadena (costos de inferencia, adaptación RAG, compatibilidad LoRA, entorno EVM) para hacer una configuración "prioritaria en la práctica".
Model Factory como una cadena de herramientas sin código, todos los modelos incorporan un mecanismo de prueba de contribución, asegurando los derechos de los contribuyentes de datos y desarrolladores de modelos, con ventajas de bajo umbral, monetización y combinabilidad, en comparación con las herramientas de desarrollo de modelos tradicionales:
Para los desarrolladores: proporcionar un camino completo para la incubación, distribución e ingresos del modelo;
Para la plataforma: formar un ecosistema de circulación y combinación de activos modelo;
Para los usuarios: se pueden combinar los modelos o agentes como si se estuviera llamando a una API.
3.2 OpenLoRA, la tokenización de activos en cadena del modelo de ajuste fino
LoRA (Adaptación de Bajo Rango) es un método de ajuste de parámetros eficiente que aprende nuevas tareas insertando "matrices de bajo rango" en un modelo grande preentrenado, sin modificar los parámetros del modelo original, lo que reduce significativamente los costos de entrenamiento y los requisitos de almacenamiento. Los modelos de lenguaje grandes tradicionales (como LLaMA, GPT-3) suelen tener decenas de miles de millones o incluso cientos de miles de millones de parámetros. Para utilizarlos en tareas específicas (como preguntas legales, consultas médicas), es necesario realizar un ajuste fino (fine-tuning). La estrategia central de LoRA es: "congelar los parámetros del modelo grande original, solo entrenar las nuevas matrices de parámetros insertadas." Su eficiencia en parámetros, entrenamiento rápido y despliegue flexible lo convierten en el método de ajuste más adecuado para el despliegue de modelos Web3 y llamadas combinadas.
OpenLoRA es un marco de inferencia ligero diseñado por OpenLedger, destinado al despliegue de múltiples modelos y al intercambio de recursos. Su objetivo principal es resolver los problemas comunes en el despliegue de modelos de IA, como los altos costos, la baja reutilización y el desperdicio de recursos de GPU, promoviendo la ejecución de "IA Pagable".
OpenLoRA arquitectura del sistema componentes centrales, basado en un diseño modular, cubre el almacenamiento de modelos, ejecución de inferencias, enrutamiento de solicitudes y otros aspectos clave, logrando capacidades de despliegue y llamada de múltiples modelos de manera eficiente y a bajo costo:
Módulo de almacenamiento de adaptadores LoRA ( Almacenamiento de adaptadores LoRA ): El adaptador LoRA ajustado se aloja en OpenLedger, permitiendo la carga bajo demanda, evitando la precarga de todos los modelos en la memoria de video, ahorrando recursos.
Alojamiento de modelos y capa de fusión dinámica (Model
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
12 me gusta
Recompensa
12
8
Compartir
Comentar
0/400
MissedAirdropBro
· 07-24 23:59
Otra vez la inteligencia artificial, ¿hasta cuándo va a seguir esto?
Ver originalesResponder0
blocksnark
· 07-24 15:44
¿Cuándo podremos aprovechar gratuitamente los grandes modelos de IA?
Ver originalesResponder0
DaoGovernanceOfficer
· 07-23 12:04
*sigh* otro trabajo de composición de modelo que carece de kpis claros y tokenómica... hablando empíricamente, esto no escalará
Ver originalesResponder0
PanicSeller
· 07-22 15:15
No entiendo, ¿salir corriendo con el dinero?
Ver originalesResponder0
tokenomics_truther
· 07-22 14:56
El tonto que se rinde en la industria
Ver originalesResponder0
GasFeeThunder
· 07-22 14:53
¿Con tarifas de gas tan altas, de qué innovación en modelos estamos hablando?
Ver originalesResponder0
SchroedingerAirdrop
· 07-22 14:49
Ay, ¿no te atrevas a competir tan ferozmente, por favor?
Ver originalesResponder0
SadMoneyMeow
· 07-22 14:47
Los datos del modelo no son más que un concepto inflado.
OpenLedger: Construyendo infraestructuras económicas de IA impulsadas por datos y modelos combinables
Informe de investigación profunda de OpenLedger: construir una economía de agentes impulsada por datos y modelada de manera combinable sobre la base de OP Stack + EigenDA
I. Introducción | El salto en la capa de modelos de Crypto AI
Los datos, los modelos y la potencia de cálculo son los tres elementos centrales de la infraestructura de IA, comparables al combustible (datos), motor (modelo) y energía (potencia de cálculo), siendo todos imprescindibles. Al igual que la trayectoria de evolución de la infraestructura en la industria tradicional de IA, el campo de Crypto AI también ha pasado por etapas similares. A principios de 2024, el mercado estuvo dominado por proyectos de GPU descentralizados, enfatizando en la lógica de crecimiento extensivo de "competir en potencia de cálculo". Sin embargo, a partir de 2025, el enfoque de la industria se ha ido desplazando gradualmente hacia los niveles de modelo y datos, marcando la transición de Crypto AI de la competencia por recursos básicos a la construcción de niveles intermedios con mayor sostenibilidad y valor de aplicación.
Modelos generales (LLM) vs Modelos especializados (SLM)
Los modelos de lenguaje de gran tamaño (LLM) tradicionales dependen en gran medida de conjuntos de datos masivos y arquitecturas distribuidas complejas, con un tamaño de parámetros que varía de 70B a 500B, y el costo de entrenar uno puede alcanzar fácilmente varios millones de dólares. Por otro lado, el SLM (Modelo de Lenguaje Especializado), como un paradigma de ajuste fino ligero de modelos base reutilizables, generalmente se basa en modelos de código abierto como LLaMA, Mistral, DeepSeek, combinando una pequeña cantidad de datos profesionales de alta calidad y tecnologías como LoRA, para construir rápidamente modelos de expertos con conocimientos en campos específicos, reduciendo significativamente los costos de entrenamiento y las barreras técnicas.
Es importante señalar que SLM no se integra en los pesos de LLM, sino que colabora con LLM a través de llamadas de arquitectura de Agente, enrutamiento dinámico del sistema de plugins, hot-swappable módulos LoRA, RAG (Generación Aumentada por Recuperación), entre otros. Esta arquitectura conserva la capacidad de amplia cobertura de LLM, mientras que mejora el rendimiento profesional a través de módulos de ajuste fino, formando un sistema inteligente combinado altamente flexible.
El valor y los límites de Crypto AI en la capa del modelo
Los proyectos de Crypto AI son en esencia difíciles de mejorar directamente las capacidades centrales de los modelos de lenguaje de gran tamaño (LLM), la razón principal radica en que
Sin embargo, sobre los modelos básicos de código abierto, los proyectos de Crypto AI aún pueden extender su valor mediante el ajuste fino de modelos de lenguaje especializados (SLM), y combinando la verificabilidad y los mecanismos de incentivos de Web3. Como "capa de interfaz periférica" de la cadena de la industria de IA, se manifiesta en dos direcciones clave:
Análisis de la aplicabilidad de los tipos de modelos de IA y blockchain
Como se puede ver, los puntos de enfoque viables de los proyectos de Crypto AI de clase modelo se concentran principalmente en la ligera afinación de pequeños SLM, la integración y verificación de datos en cadena de la arquitectura RAG, así como el despliegue local de modelos Edge y los incentivos asociados. Combinando la verificabilidad de la blockchain y los mecanismos de tokens, Crypto puede proporcionar un valor único para estos escenarios de modelos de recursos medios y bajos, formando un valor diferencial en la «capa de interfaz» de la IA.
La cadena de bloques AI basada en datos y modelos puede llevar un registro claro e inmutable de la fuente de contribución de cada dato y modelo, mejorando significativamente la credibilidad de los datos y la trazabilidad del entrenamiento de modelos. Al mismo tiempo, a través del mecanismo de contratos inteligentes, se activa automáticamente la distribución de recompensas cuando se invocan datos o modelos, convirtiendo el comportamiento de la IA en un valor tokenizado medible y negociable, y construyendo un sistema de incentivos sostenible. Además, los usuarios de la comunidad también pueden evaluar el rendimiento del modelo mediante votación con tokens, participar en la formulación y iteración de reglas, y mejorar la estructura de gobernanza descentralizada.
II. Resumen del Proyecto | La visión de la cadena AI de OpenLedger
OpenLedger es uno de los pocos proyectos de blockchain AI en el mercado actual que se centra en los mecanismos de incentivos de datos y modelos. Fue el primero en proponer el concepto de "Payable AI", con el objetivo de construir un entorno de ejecución de IA justo, transparente y combinable, incentivando a los contribuyentes de datos, desarrolladores de modelos y constructores de aplicaciones de IA a colaborar en una misma plataforma y obtener ingresos en la cadena según sus contribuciones reales.
OpenLedger ofrece un ciclo completo que va desde "provisión de datos" hasta "despliegue de modelos" y luego "llamada de reparto de beneficios", cuyos módulos principales incluyen:
A través de los módulos anteriores, OpenLedger ha construido una "infraestructura de economía de agentes" impulsada por datos y con modelos combinables, promoviendo la cadena de valor de la IA en la cadena.
Y en la adopción de la tecnología blockchain, OpenLedger utiliza OP Stack + EigenDA como base para construir un entorno de ejecución de datos y contratos de alto rendimiento, bajo costo y verificable para modelos de IA.
En comparación con cadenas de IA generales como NEAR, que se centran más en la infraestructura subyacente y en la soberanía de datos con la arquitectura de "AI Agents on BOS", OpenLedger se enfoca más en construir cadenas de IA especializadas orientadas a incentivos de datos y modelos, comprometida a lograr que el desarrollo y la invocación de modelos se realicen en la cadena con un ciclo de valor trazable, combinable y sostenible. Es la infraestructura de incentivos de modelos en el mundo Web3, combinando el alojamiento de modelos al estilo de HuggingFace, la facturación de uso al estilo de Stripe y interfaces combinables en la cadena al estilo de Infura, impulsando el camino hacia la realización de "modelos como activos".
Tres, los componentes clave y la arquitectura técnica de OpenLedger
3.1 Modelo de Fábrica, modelo de fábrica sin necesidad de código
ModelFactory es una plataforma de ajuste fino de modelos de lenguaje (LLM) a gran escala dentro del ecosistema OpenLedger. A diferencia de los marcos de ajuste fino tradicionales, ModelFactory ofrece una operación completamente gráfica, sin necesidad de herramientas de línea de comandos o integración de API. Los usuarios pueden ajustar el modelo basado en conjuntos de datos autorizados y revisados completados en OpenLedger. Se ha logrado un flujo de trabajo integrado de autorización de datos, entrenamiento de modelos y despliegue, cuyos procesos centrales incluyen:
La arquitectura del sistema Model Factory incluye seis módulos, abarcando la autenticación de identidad, los permisos de datos, el ajuste fino del modelo, la evaluación y el despliegue, así como la trazabilidad RAG, creando una plataforma de servicio de modelos integrada, segura, controlable, interactiva en tiempo real y capaz de generar ingresos de manera sostenible.
El resumen de las capacidades de los grandes modelos de lenguaje que ModelFactory admite actualmente es el siguiente:
Aunque la combinación de modelos de OpenLedger no incluye los últimos modelos MoE de alto rendimiento o modelos multimodales, su estrategia no es obsoleta, sino que se basa en las restricciones de implementación en cadena (costos de inferencia, adaptación RAG, compatibilidad LoRA, entorno EVM) para hacer una configuración "prioritaria en la práctica".
Model Factory como una cadena de herramientas sin código, todos los modelos incorporan un mecanismo de prueba de contribución, asegurando los derechos de los contribuyentes de datos y desarrolladores de modelos, con ventajas de bajo umbral, monetización y combinabilidad, en comparación con las herramientas de desarrollo de modelos tradicionales:
3.2 OpenLoRA, la tokenización de activos en cadena del modelo de ajuste fino
LoRA (Adaptación de Bajo Rango) es un método de ajuste de parámetros eficiente que aprende nuevas tareas insertando "matrices de bajo rango" en un modelo grande preentrenado, sin modificar los parámetros del modelo original, lo que reduce significativamente los costos de entrenamiento y los requisitos de almacenamiento. Los modelos de lenguaje grandes tradicionales (como LLaMA, GPT-3) suelen tener decenas de miles de millones o incluso cientos de miles de millones de parámetros. Para utilizarlos en tareas específicas (como preguntas legales, consultas médicas), es necesario realizar un ajuste fino (fine-tuning). La estrategia central de LoRA es: "congelar los parámetros del modelo grande original, solo entrenar las nuevas matrices de parámetros insertadas." Su eficiencia en parámetros, entrenamiento rápido y despliegue flexible lo convierten en el método de ajuste más adecuado para el despliegue de modelos Web3 y llamadas combinadas.
OpenLoRA es un marco de inferencia ligero diseñado por OpenLedger, destinado al despliegue de múltiples modelos y al intercambio de recursos. Su objetivo principal es resolver los problemas comunes en el despliegue de modelos de IA, como los altos costos, la baja reutilización y el desperdicio de recursos de GPU, promoviendo la ejecución de "IA Pagable".
OpenLoRA arquitectura del sistema componentes centrales, basado en un diseño modular, cubre el almacenamiento de modelos, ejecución de inferencias, enrutamiento de solicitudes y otros aspectos clave, logrando capacidades de despliegue y llamada de múltiples modelos de manera eficiente y a bajo costo: