ZHIPU

Precio en ZhiPu 02513.HK

Cerrado
ZHIPU
€0
+€0(0,00%)
Sin datos

*Datos actualizados por última vez: 2026-05-01 02:54 (UTC+8)

A fecha de 2026-05-01 02:54, ZhiPu 02513.HK (ZHIPU) tiene un precio de €0, con una capitalización de mercado total de --, un ratio P/E de 0,00 y un rendimiento por dividendo de 0,00%. Hoy, el precio de la acción ha oscilado entre €0 y €0. El precio actual está 0,00% por encima del mínimo del día y 0,00% por debajo del máximo del día, con un volumen de trading de --. Durante las últimas 52 semanas, ZHIPU ha cotizado entre €0 y €0, y el precio actual está a 0,00% del máximo de las últimas 52 semanas.

Estadísticas clave de ZHIPU

Ratio P/E0,00
Rendimiento por dividendo (últimos doce meses)0,00%
Acciones en circulación0,00

Más información sobre ZhiPu 02513.HK (ZHIPU)

Preguntas frecuentes sobre ZhiPu 02513.HK (ZHIPU)

¿A qué precio cotiza hoy ZhiPu 02513.HK (ZHIPU) hoy?

x
ZhiPu 02513.HK (ZHIPU) cotiza actualmente a €0, con una variación en 24 h del 0,00%. El rango de trading de 52 semanas es de €0 a €0.

¿Cuáles son los precios máximo y mínimo de 52 semanas para ZhiPu 02513.HK (ZHIPU)?

x

¿Cuál es el ratio precio-beneficio (P/E) de ZhiPu 02513.HK (ZHIPU) y qué indica?

x

¿Cuál es la capitalización de mercado de ZhiPu 02513.HK (ZHIPU)?

x

¿Cuál es el beneficio por acción (BPA) del trimestre más reciente de ZhiPu 02513.HK (ZHIPU)?

x

¿Deberías comprar o vender ZhiPu 02513.HK (ZHIPU) ahora?

x

¿Qué factores pueden afectar el precio de las acciones de ZhiPu 02513.HK (ZHIPU)?

x

¿Cómo comprar acciones de ZhiPu 02513.HK (ZHIPU)?

x

Aviso de riesgo

El mercado de valores implica un alto nivel de riesgo y volatilidad en los precios. El valor de tu inversión puede subir o bajar, y es posible que no puedas recuperar la totalidad del importe invertido. El rendimiento pasado no es un indicador fiable de los resultados futuros. Antes de tomar cualquier decisión de inversión, debes evaluar cuidadosamente tu experiencia, situación financiera, objetivos de inversión y tolerancia al riesgo, además de realizar tu propia investigación. Si lo consideras necesario, consulta con un asesor financiero independiente.

Aviso legal

El contenido de esta página se proporciona únicamente con fines informativos y no constituye asesoramiento de inversión o financiero ni recomendaciones de trading. Gate no se hará responsable de ninguna pérdida o daño derivado de dichas decisiones financieras. Además, ten en cuenta que es posible que Gate no pueda ofrecer todos sus servicios en determinados mercados y jurisdicciones, entre los que se incluyen, entre otros, los Estados Unidos de América, Canadá, Irán y Cuba. Para obtener más información sobre las ubicaciones restringidas, consulta el Acuerdo de usuario.

Últimas notícias sobre ZhiPu 02513.HK (ZHIPU)

2026-04-28 06:00

Time Magazine clasifica las 10 empresas de IA más influyentes; ByteDance, Zhipu, Alibaba entre las mejores selecciones

Mensaje de Gate News, 28 de abril — Time ha presentado su lista de las "10 empresas de IA más influyentes en 2026", destacando el impacto integral en la industria, las vías tecnológicas y la sociedad en lugar de centrarse únicamente en las capacidades del modelo. Las empresas seleccionadas son ByteDance, Amazon, Zhipu, OpenAI, Alphabet, Meta, Anthropic, Alibaba, Mistral y Hugging Face. Entre estas, tres empresas chinas entraron en la lista: ByteDance, Zhipu y Alibaba.

2026-04-28 00:57

Zhipu Z.ai amplía la promoción triple cuota del GLM Coding Plan hasta el 30 de junio

Mensaje de Gate News, 28 de abril — Zhipu Z.ai anunció una extensión de su promoción triple cuota del GLM Coding Plan, del plazo original del 30 de abril al 30 de junio, abarcando tanto los modelos GLM-5.1 como GLM-5-Turbo. La promoción está disponible en horario de la Hora del Este, de 6:00 AM a 2:00 AM del día siguiente. El GLM Coding Plan es un servicio de suscripción para desarrolladores que permite a los usuarios invocar modelos GLM dentro de herramientas de programación, incluyendo Claude Code, Cursor y OpenCode. La promoción triple cuota se lanzó inicialmente el 16 de marzo con cobertura limitada a GLM-5-Turbo; más tarde se amplió para incluir ambos modelos tras el lanzamiento de GLM-5.1.

2026-04-27 03:11

MiniMax-W Cotizada en Hong Kong Cae Más de 14%, Zhipu Baja Más de 6% en el Lanzamiento del Modelo de DeepSeek

Mensaje de Gate News, 27 de abril — MiniMax-W, cotizada en Hong Kong, cayó más de un 14% intradía, mientras que Zhipu bajó más de un 6% durante la misma sesión. La caída siguió al lanzamiento de un nuevo modelo de DeepSeek el viernes y a su anuncio de ofertas promocionales por tiempo limitado el sábado.

2026-04-27 01:31

Alerta de Bajada de TradFi: ZHIPU (ZhiPu 02513.HK) baja más del 4%

Gate News: según los últimos datos de [Gate TradFi](https://www.gate.com/es/tradfi), ZHIPU (ZhiPu 02513.HK) ha bajado un 4% en poco tiempo. La volatilidad actual es significativamente mayor que las medias recientes, lo que indica un aumento de la actividad del mercado.

2026-04-24 05:00

Alerta de Bajada de TradFi: ZHIPU (ZhiPu 02513.HK) baja más del 8%

Gate News: según los últimos datos de [Gate TradFi](https://www.gate.com/es/tradfi), ZHIPU (ZhiPu 02513.HK) ha bajado un 8% en poco tiempo. La volatilidad actual es significativamente mayor que las medias recientes, lo que indica un aumento de la actividad del mercado.

Publicaciones destacadas de ZhiPu 02513.HK (ZHIPU)

Huoshan

Huoshan

Hace 12 horas
Hermanos, ¿han notado un hecho que da miedo al pensarlo? En la era de la inteligencia artificial, parece que solo hay dos países en el mundo. Estados Unidos está creando: ChatGPT, Claude, Gemini, Grok, Perplexity. China está creando: Doubao, DeepSeek, Qianwen, Zhipu, Kimi, MiniMax, MiMo. ¿Y los demás? Europa, Japón, Corea, Rusia, India, Brasil, el sudeste asiático, más de 190 países. ¿Ellos qué están haciendo? La respuesta duele: están usando IA de China y EE. UU. No desarrollan modelos propios, no tienen ecosistema de código abierto, no tienen reserva de talento, no invierten en potencia de cálculo, incluso todavía están discutiendo si regular o no. No es que esté menospreciando a otros países, es que esto es muy contra la lógica común. Antes hablábamos de globalización, cada país tenía su propia cadena de producción. Ahora, en la era de la IA, solo hay dos jugadores en la cadena industrial. Los demás países son solo usuarios finales. Y lo más aterrador es, que los usuarios finales no tienen poder de negociación. Usas ChatGPT, las reglas las establecen los estadounidenses. Usas DeepSeek, las reglas las establecen los chinos. Tú proporcionas los datos, ellos obtienen el valor. La iteración del modelo depende de tus datos, pero el modelo no te pertenece. ¿Alguna vez han pensado, por qué Europa, tan avanzada, no ha producido un producto de IA decente? Porque la investigación y desarrollo requiere inversión real, dinero que quema, y talento. Y en la era de la IA, la mayoría del talento ha sido atraído por China y EE. UU. El mapa de flujo de talento en IA global, básicamente muestra que el talento de todos los países va hacia China y EE. UU. No es alarmismo, esto está ocurriendo ahora mismo. Así que vuelvo a la pregunta, ¿solo China y EE. UU. están investigando en IA? ¿Los demás solo disfrutan de la IA? La respuesta es: casi. La diferencia radica en que, tú disfrutas de la IA china o de la estadounidense, y esa elección, puede ser más importante de lo que imaginas.
0
0
0
0
CoinNetwork

CoinNetwork

Hace 15 horas
Mensaje de Binance, Zhipu publicó un artículo revisando los problemas de caracteres ilegibles, repeticiones y caracteres poco comunes que aparecían en la serie de modelos GLM-5 en escenarios de agentes de codificación. Desde marzo, los usuarios han reportado que las anomalías solo se activan en tareas de alta concurrencia y con contextos largos (promedio superior a 70k tokens). Zhipu afirma que su sistema de inferencia soporta miles de millones de llamadas diarias de agentes de codificación. Tras una investigación, el equipo identificó dos bugs de condición de carrera independientes. El primer bug ocurrió en la arquitectura de separación de pd, donde, tras un timeout en la decodificación, se interrumpe la solicitud y se recupera la caché kv, pero la escritura RDMA en la prellenado no había terminado, y una nueva solicitud sobrescribía los datos antiguos. La solución fue agregar una sincronización explícita antes de la recuperación, reduciendo la tasa de anomalías de unas diez milésimas a menos de tres milésimas. El segundo bug ocurrió en hicache, donde las líneas de carga y cálculo carecían de un punto de sincronización, por lo que el cálculo podía leer datos aún no cargados. Tras la reparación, las anomalías desaparecieron por completo y el parche fue enviado a la comunidad sglang. El equipo también descubrió que el índice de aceptación de muestreo especulativo puede servir como señal de detección de anomalías: durante caracteres ilegibles, casi todos los tokens en borrador son rechazados, mientras que en repeticiones, la tasa de aceptación es más alta.
0
0
0
0
BlockBeatNews

BlockBeatNews

Hace 16 horas
Según la monitorización de Beating, Zhipu publicó un análisis sobre los problemas de caracteres ilegibles, repeticiones y caracteres poco comunes que aparecían en la serie de modelos GLM-5 en el escenario de Coding Agent. Desde marzo, algunos usuarios reportaron que estas anomalías solo se activaban en tareas de Coding Agent con alta concurrencia y contextos largos (promedio superior a 70K tokens), y no podían reproducirse en entornos de inferencia estándar. Zhipu afirmó que su sistema de inferencia soporta miles de millones de llamadas diarias a Coding Agent. Tras varias semanas de investigación, el equipo identificó dos bugs de competencia en el nivel base que eran independientes entre sí. El primero ocurrió en la arquitectura de separación PD (desplegar la prellenado y la decodificación en nodos diferentes): tras un timeout en la decodificación, se recuperó el KV Cache (que almacena los estados de atención ya calculados para evitar recomputaciones), pero la escritura RDMA en la prellenado aún no había terminado, y una nueva solicitud se asignó a la misma memoria de video, sobrescribiendo datos antiguos con nuevos. La solución fue agregar una sincronización explícita antes de la recuperación, confirmando que la escritura había finalizado antes de liberar. Después del despliegue, la tasa de anomalías bajó de más de 0.1% a menos del 0.03%. El segundo bug ocurrió en HiCache (KV Cache multinivel): al cargar en memoria del CPU de forma asíncrona en la caché, faltaba un punto de sincronización entre la línea de carga y la de cálculo, por lo que el cálculo podía comenzar a leer datos aún no cargados. Tras la corrección, estas anomalías desaparecieron por completo, y el parche fue enviado a la comunidad SGLang (PR #22811). Durante la investigación, también se descubrió un hallazgo inesperado: el índice de aceptación de la muestra especulativa (una técnica de aceleración que predice tokens con un modelo pequeño y luego verifica con uno grande) puede servir como señal de detección de anomalías. Cuando hay caracteres ilegibles, casi todos los tokens en borrador son rechazados; en las repeticiones, la tasa de aceptación es anormalmente alta. El equipo implementó un monitoreo en línea: si se supera un umbral, se detiene automáticamente la generación y se reintenta. Tras corregir los bugs, el equipo optimizó un cuello de botella: el almacenamiento en capas del KV Cache LayerSplit, donde cada GPU solo almacena parte de las capas en lugar de toda la caché, mediante cálculo colaborativo por difusión. Con una tasa de acierto del 90%, al aumentar la longitud del contexto de 40K a 120K tokens, la capacidad de procesamiento mejoró entre un 10% y un 132%, y cuanto más largo el contexto, mayores las ganancias.
0
0
0
0