A renderização baseada em navegador atingiu um novo marco. O streaming com otimização de nível de detalhe está finalmente a funcionar sem problemas.
Consegui realizar uma simulação com mais de 100 milhões de splats renderizados diretamente no navegador—parece incrível, certo? O truque foi dividir os splats em cerca de 900 páginas, mantendo cerca de 16 milhões no conjunto de trabalho ativo a qualquer momento. Esta abordagem realmente escala.
Aqui está a questão: teoricamente, isto deve lidar com mundos massivos de tamanho arbitrário agora. A gestão de memória mantém-se leve, a renderização mantém-se responsiva. Mas preciso de o levar mais longe.
Então aqui está uma pergunta aberta para quem trabalha com dados 3D em grande escala: se você tiver um conjunto de dados de um bilhão de manchas por aí, eu adoraria testar isso ao máximo. Vamos ver onde estão os verdadeiros limites.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
8 Curtidas
Recompensa
8
5
Repostar
Compartilhar
Comentário
0/400
staking_gramps
· 2025-12-22 22:42
Caramba, 100 milhões de pontos de renderização estão a correr bem no navegador? Este gajo realmente tem algo de especial, esta armadilha de paginação é realmente impressionante.
Ver originalResponder0
LayoffMiner
· 2025-12-22 22:40
Uau, 100 milhões de pontos de renderização conseguem rodar? O navegador realmente até à lua!
Um conjunto de dados de um bilhão de pontos? Parece que posso tentar, mas nesse caso a placa de vídeo vai chorar, haha.
A ideia de paginar 900 páginas é bem Satoshi, só não sei como será na prática.
Se isso conseguir rodar de forma estável, o ecossistema webgl vai ter mais uma rodada de competição.
Parece que estamos mais perto de ver navegadores rodando grandes jogos 3D.
Ver originalResponder0
SchroedingerAirdrop
· 2025-12-22 22:28
1 milhão de pontos a correr diretamente no navegador, isso não é científico... precisamos pensar se o metaverso realmente está a chegar
A ideia de 900 páginas paginadas é bastante inteligente, mas o teste de pressão de um bilhão de pontos de dados é o verdadeiro desafio
Esta armadilha pode lidar com a visualização de dados na cadeia? Imagine só
Ver originalResponder0
LidoStakeAddict
· 2025-12-22 22:28
O pensamento de otimização do irmão é incrível, 16 milhões de conjuntos de trabalho ativos pressionando 100 milhões de pontos, o design de paginação é genial.
Ver originalResponder0
HashRateHermit
· 2025-12-22 22:26
100 milhões de pontos a correr no navegador? Uau, isso não é científico, como conseguiram?
2 Gostei da estratégia de paginação dinâmica, a gestão de memória realmente é a chave.
3 Um conjunto de dados de bilhões? Alguém realmente tem algo dessa escala, vamos juntos trabalhar nisso.
4 A otimização de renderização é sempre um tópico eterno, mas desta vez parece que realmente há algo de novo.
5 Como se sente que isso se alinha com a onda do metaverso, o hardware não está a acompanhar.
A renderização baseada em navegador atingiu um novo marco. O streaming com otimização de nível de detalhe está finalmente a funcionar sem problemas.
Consegui realizar uma simulação com mais de 100 milhões de splats renderizados diretamente no navegador—parece incrível, certo? O truque foi dividir os splats em cerca de 900 páginas, mantendo cerca de 16 milhões no conjunto de trabalho ativo a qualquer momento. Esta abordagem realmente escala.
Aqui está a questão: teoricamente, isto deve lidar com mundos massivos de tamanho arbitrário agora. A gestão de memória mantém-se leve, a renderização mantém-se responsiva. Mas preciso de o levar mais longe.
Então aqui está uma pergunta aberta para quem trabalha com dados 3D em grande escala: se você tiver um conjunto de dados de um bilhão de manchas por aí, eu adoraria testar isso ao máximo. Vamos ver onde estão os verdadeiros limites.