Найбільша вартісна чорна діра команди DevOps насправді не на рівні обчислень, а в схемах аварійного відновлення. Багато команд зберігають снімки серверів рівня Т в архівах традиційних хмарних провайдерів — спочатку ціна здається неправдоподібно дешевою, але коли приходить час навчального відновлення, лише плата за повернення даних та вихідна пропускна спроможність можуть зруйнувати весь квартальний бюджет. Це відчуття захопленості централізованим постачальником розуміють всі в індустрії.
Розподілені рішення зберігання на рівні блокчейна зараз починають змінювати цю ситуацію. Ключ — в інноваціях архітектури: використання ефективних алгоритмів стирання кодів означає, що мережі не потрібно підтримувати десятки копій даних як у традиційних публічних блокчейнах — достатньо 4-5-кратної надмірності для досягнення майже византійської стійкості до відмов. Це прямо знижує вартість зберігання за одиницю.
Ще важливіша різниця в дизайні механізму відновлення. Відновлення даних традиційної хмари — це централізований одноточковий витяг, провайдер встановлює грабіжницькі тарифи на вихідну пропускну спроможність. Розподілений підхід дозволяє клієнтам витягувати фрагменти даних паралельно безпосередньо з кількох децентралізованих вузлів — без посередника і його "штрафних зборів". Витрати на пропускну спроможність можна утримати в передбачуваному діапазоні.
З точки зору практичних потреб DevOps розподілене зберігання пропонує збалансоване рішення: византійська стійкість до відмов (збій окремого центру обробки даних не впливає на доступність даних) плюс модель ціноутворення, близька до Web2. Це справді застосовна ідея децентралізованої інфраструктури, а не ідеалізм, що залишається на етапі технічного whitepaper.
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
17 лайків
Нагородити
17
6
Репост
Поділіться
Прокоментувати
0/400
MemeCoinSavant
· 01-09 02:54
Чесно кажучи, це по-іншому відчувається... нарешті хтось визнає, що справжній шахрайство — це плата за пропускну здатність, а не інфраструктура 💀
Переглянути оригіналвідповісти на0
SmartMoneyWallet
· 01-09 02:53
Говорять гарно, але які дані на ланцюгу? Обсяги фінансування таких проектів розподіленого зберігання зазвичай перебільшують, і ще зарано казати, скільки довго зможе триматися справжній механізм стимулювання вузлів.
Переглянути оригіналвідповісти на0
GweiWatcher
· 01-09 02:52
Ціни у хмарних провайдерів справді вражають: зазвичай дуже дешеві, а як тільки щось змінюється — починається «жати» на новачків.
Переглянути оригіналвідповісти на0
MetaMuskRat
· 01-09 02:46
Тепер нарешті хтось наважився вказати на болюче місце хмарних постачальників
Переглянути оригіналвідповісти на0
ForkInTheRoad
· 01-09 02:45
Тепер нарешті хтось наважився розвінчати цю гру хмарних постачальників, витрати на аварійне відновлення справді безглузді
Переглянути оригіналвідповісти на0
GasOptimizer
· 01-09 02:37
Візьмемо історичні дані, і стане ясно, що тариф на пропускну здатність у традиційних хмарних провайдерів — це просто шахрайство з можливістю арбітражу... Код корекції помилок дійсно вирішує проблему одноточкового завантаження.
Найбільша вартісна чорна діра команди DevOps насправді не на рівні обчислень, а в схемах аварійного відновлення. Багато команд зберігають снімки серверів рівня Т в архівах традиційних хмарних провайдерів — спочатку ціна здається неправдоподібно дешевою, але коли приходить час навчального відновлення, лише плата за повернення даних та вихідна пропускна спроможність можуть зруйнувати весь квартальний бюджет. Це відчуття захопленості централізованим постачальником розуміють всі в індустрії.
Розподілені рішення зберігання на рівні блокчейна зараз починають змінювати цю ситуацію. Ключ — в інноваціях архітектури: використання ефективних алгоритмів стирання кодів означає, що мережі не потрібно підтримувати десятки копій даних як у традиційних публічних блокчейнах — достатньо 4-5-кратної надмірності для досягнення майже византійської стійкості до відмов. Це прямо знижує вартість зберігання за одиницю.
Ще важливіша різниця в дизайні механізму відновлення. Відновлення даних традиційної хмари — це централізований одноточковий витяг, провайдер встановлює грабіжницькі тарифи на вихідну пропускну спроможність. Розподілений підхід дозволяє клієнтам витягувати фрагменти даних паралельно безпосередньо з кількох децентралізованих вузлів — без посередника і його "штрафних зборів". Витрати на пропускну спроможність можна утримати в передбачуваному діапазоні.
З точки зору практичних потреб DevOps розподілене зберігання пропонує збалансоване рішення: византійська стійкість до відмов (збій окремого центру обробки даних не впливає на доступність даних) плюс модель ціноутворення, близька до Web2. Це справді застосовна ідея децентралізованої інфраструктури, а не ідеалізм, що залишається на етапі технічного whitepaper.