La representación basada en el navegador acaba de alcanzar un nuevo hito. La transmisión con optimización de nivel de detalle finalmente está funcionando sin problemas.
Logré ejecutar un recorrido con más de 100 millones de salpicaduras renderizadas directamente en el navegador—suena increíble, ¿verdad? El truco fue dividir las salpicaduras en aproximadamente 900 páginas, manteniendo alrededor de 16 millones en el conjunto de trabajo activo en cualquier momento. Este enfoque realmente escala.
Aquí está la cuestión: teóricamente, esto debería manejar mundos masivos de tamaño arbitrario ahora. La gestión de la memoria se mantiene ágil, el renderizado se mantiene receptivo. Pero necesito llevarlo más allá.
Así que aquí hay una pregunta abierta para cualquiera que trabaje con datos 3D a gran escala: si tienes un conjunto de datos de mil millones de salpicaduras por ahí, me encantaría poner esto a prueba. Veamos dónde están los verdaderos límites.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
7 me gusta
Recompensa
7
5
Republicar
Compartir
Comentar
0/400
staking_gramps
· 12-22 22:42
¡Vaya, 100 millones de puntos de renderización corriendo bien en el navegador? Este tipo realmente tiene algo, esta trampa de paginación es impresionante.
Ver originalesResponder0
LayoffMiner
· 12-22 22:40
¡Vaya! ¿Puede correr 100 millones de puntos de renderizado? El navegador realmente va a despegar.
¿Un conjunto de datos de mil millones de puntos? Siento que podría intentarlo, pero en ese momento la tarjeta gráfica va a llorar, ¡ja ja!
La idea de paginación de 900 páginas es bastante inteligente, solo que no sé cómo funcionará en la práctica.
Si puede funcionar de manera estable, el ecosistema de webgl tendrá otra ronda de competencia.
Siento que estamos un paso más cerca de que los navegadores corran grandes juegos 3D.
Ver originalesResponder0
SchroedingerAirdrop
· 12-22 22:28
100 millones de puntos corriendo directamente en el navegador, eso no es científico... hay que pensar que el metaverso realmente está por llegar.
La idea de 900 páginas de paginación es bastante inteligente, pero la prueba de estrés de un conjunto de datos de mil millones de puntos es lo que realmente importa.
¿Puede esta trampa manejar la visualización de datos on-chain? Imagina eso.
Ver originalesResponder0
LidoStakeAddict
· 12-22 22:28
¡Hermano, esta idea de optimización es increíble! Un conjunto de trabajo activo de 16 millones presionando 100 millones de puntos, ¡el diseño de paginación es genial!
Ver originalesResponder0
HashRateHermit
· 12-22 22:26
¿100 millones de puntos corriendo en el navegador? Vaya, esto no es científico, ¿cómo lo logran?
Me gusta esta trampa de paginación dinámica, la gestión de memoria es realmente clave.
¿Conjuntos de datos de mil millones? ¿Alguien realmente tiene este tipo de escala? Saquémoslo y trabajemos juntos.
La optimización de renderizado siempre es un tema eterno, pero esta vez parece que realmente hay algo.
¿Por qué siento que esto está en sintonía con la ola del metaverso? El hardware no da abasto.
La representación basada en el navegador acaba de alcanzar un nuevo hito. La transmisión con optimización de nivel de detalle finalmente está funcionando sin problemas.
Logré ejecutar un recorrido con más de 100 millones de salpicaduras renderizadas directamente en el navegador—suena increíble, ¿verdad? El truco fue dividir las salpicaduras en aproximadamente 900 páginas, manteniendo alrededor de 16 millones en el conjunto de trabajo activo en cualquier momento. Este enfoque realmente escala.
Aquí está la cuestión: teóricamente, esto debería manejar mundos masivos de tamaño arbitrario ahora. La gestión de la memoria se mantiene ágil, el renderizado se mantiene receptivo. Pero necesito llevarlo más allá.
Así que aquí hay una pregunta abierta para cualquiera que trabaje con datos 3D a gran escala: si tienes un conjunto de datos de mil millones de salpicaduras por ahí, me encantaría poner esto a prueba. Veamos dónde están los verdaderos límites.