Рендеринг в браузере только что достиг новой вехи. Стриминг с оптимизацией уровня детализации наконец работает без сбоев.
Удалось запустить пролёт с более чем 100 миллионами сплатов, отрендеренных непосредственно в браузере — звучит дико, не правда ли? Секрет заключался в разбиении сплатов на примерно 900 страниц, удерживая около 16 миллионов в активном рабочем наборе в любой момент времени. Этот подход действительно масштабируется.
Дело в том, что теоретически это должно обрабатывать огромные миры произвольного размера сейчас. Управление памятью остается легким, рендеринг остается отзывчивым. Но мне нужно продвинуть это дальше.
Итак, вот открытый вопрос для всех, кто работает с крупномасштабными 3D-данными: если у вас есть набор данных с миллиарди́м сплэтов, я бы хотел это протестировать на прочность. Давайте посмотрим, где настоящие пределы.
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
7 Лайков
Награда
7
5
Репост
Поделиться
комментарий
0/400
staking_gramps
· 12-22 22:42
Ё-моё, 100 миллионов рендеринговых точек нормально работают в браузере? Этот парень действительно что-то умеет, схема постраничной навигации действительно впечатляет.
Посмотреть ОригиналОтветить0
LayoffMiner
· 12-22 22:40
Офигеть, 100 миллионов рендеринг-точек и это всё может работать? Браузер действительно на луну!
Десяток миллиардов данных? Кажется, стоит попробовать, но тогда видеокарте придётся поплакать, ха-ха!
Подход с 900 страницами разбивки довольно умный, только не знаю, как это будет работать на практике.
Если это сможет стабильно работать, экосистема webgl снова будет конкурировать.
Кажется, мы стали ещё ближе к тому, чтобы браузер мог запускать крупные 3D-игры.
Посмотреть ОригиналОтветить0
SchroedingerAirdrop
· 12-22 22:28
1 миллиард точек напрямую в браузере, это не научно... нужно подумать, действительно ли метавселенная приходит
900 страниц с постраничной навигацией — довольно умная идея, но стресс-тест на десяти миллиардах точек данных — настоящая задача
Сможет ли эта ловушка справиться с визуализацией данных в блокчейне? Представьте себе
Посмотреть ОригиналОтветить0
LidoStakeAddict
· 12-22 22:28
Брат, эта оптимизация просто великолепна, 16 миллионов активных рабочих наборов давит на 100 миллионов точек, дизайн страниц просто гениален.
Посмотреть ОригиналОтветить0
HashRateHermit
· 12-22 22:26
1 миллиард точек в браузере? Черт, это не научно, как это возможно
2 Мне нравится этот подход с динамической пагинацией, управление памятью действительно является ключом
3 Данные в масштабе миллиардов? У кого-то действительно есть такие объемы, давайте вытащим и разберемся
4 Оптимизация рендеринга всегда была вечной темой, но на этот раз, похоже, действительно есть что-то интересное
5 Как-то кажется, что это отзывается на волну метавселенной, оборудование не справляется.
Рендеринг в браузере только что достиг новой вехи. Стриминг с оптимизацией уровня детализации наконец работает без сбоев.
Удалось запустить пролёт с более чем 100 миллионами сплатов, отрендеренных непосредственно в браузере — звучит дико, не правда ли? Секрет заключался в разбиении сплатов на примерно 900 страниц, удерживая около 16 миллионов в активном рабочем наборе в любой момент времени. Этот подход действительно масштабируется.
Дело в том, что теоретически это должно обрабатывать огромные миры произвольного размера сейчас. Управление памятью остается легким, рендеринг остается отзывчивым. Но мне нужно продвинуть это дальше.
Итак, вот открытый вопрос для всех, кто работает с крупномасштабными 3D-данными: если у вас есть набор данных с миллиарди́м сплэтов, я бы хотел это протестировать на прочность. Давайте посмотрим, где настоящие пределы.