La semana pasada lanzamos c3-llamacpp, un llama.cpp en contenedor con un descargador hf rápido. Esta semana, c3-vllm. Esto contenedora vLLM, el jefe final de los servidores API de LLM.
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
14 me gusta
Recompensa
14
4
Compartir
Comentar
0/400
ForkTrooper
· hace5h
No puedo manejar tantos modelos.
Ver originalesResponder0
UncleWhale
· 08-03 01:51
Este contenedor sirve para mí, ¡vamos!
Ver originalesResponder0
TrustlessMaximalist
· 08-03 01:50
No está mal, vllm en la cadena.
Ver originalesResponder0
PumpAnalyst
· 08-03 01:44
La información favorable del análisis técnico no debe llevar a perseguir el precio de manera ciega, ten cuidado de no convertirte en un héroe que se corta la muñeca.
La semana pasada lanzamos c3-llamacpp, un llama.cpp en contenedor con un descargador hf rápido. Esta semana, c3-vllm. Esto contenedora vLLM, el jefe final de los servidores API de LLM.