Código abierto de Ling-mini-2.0 — 16B-A1B MoE LLM. Entrenado con más de 20T de tokens con SFT + RLVR + RLHF.
300+ tok/s (7× más rápido)
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
11 me gusta
Recompensa
11
8
Republicar
Compartir
Comentar
0/400
ForkMonger
· hace4h
meh, otro modelo para fork y optimizar... típico régimen de entrenamiento ineficiente
Ver originalesResponder0
CompoundPersonality
· 09-13 22:16
Desarrolladores de Web3 que juegan mucho
Dame todo el Código abierto, por favor.
Ver originalesResponder0
PumpDetector
· 09-13 02:42
pump it and dump it más rápido que sus 300 tok/s
Ver originalesResponder0
DefiEngineerJack
· 09-13 02:42
mostrarme los puntos de referencia contra gpt4 o no sucedió ser
Ver originalesResponder0
PoetryOnChain
· 09-13 02:41
Código abierto加码呗
Ver originalesResponder0
GasFeeLady
· 09-13 02:37
alcista en ganancias de computación, los desarrolladores están pumpando esas velocidades fr fr
Código abierto de Ling-mini-2.0 — 16B-A1B MoE LLM. Entrenado con más de 20T de tokens con SFT + RLVR + RLHF.
300+ tok/s (7× más rápido)
Dame todo el Código abierto, por favor.