Le plus grand gouffre de coût pour l'équipe d'exploitation n'est en réalité pas au niveau du calcul, mais dans la stratégie de reprise après sinistre. Beaucoup d'équipes stockent des snapshots de serveurs T-level dans l'archivage des fournisseurs cloud traditionnels, ce qui au début est incroyablement bon marché, mais lorsque vient le moment de la simulation de récupération, les coûts de récupération des données et de bande passante sortante suffisent à détruire le budget de tout un trimestre. Ce sentiment d'être asservi par des fournisseurs de services centralisés est bien compris dans l'industrie.
Les solutions de stockage distribué de niveau blockchain commencent maintenant à changer cette situation. La clé réside dans l'innovation de l'architecture technique — en utilisant des algorithmes de correction d'erreurs efficaces, le réseau n'a pas besoin de maintenir des dizaines de copies de données comme dans les blockchains publiques traditionnelles, une redondance de 4-5 fois suffit pour atteindre une tolérance aux fautes proche du niveau byzantin. Cela réduit directement le coût de stockage par unité.
Plus important encore, la différence réside dans la conception du mécanisme de récupération. La récupération de données dans les services cloud traditionnels est une opération centralisée avec un point unique de récupération, et les fournisseurs cloud imposent des tarifs exorbitants pour la bande passante sortante. La solution distribuée permet aux clients de récupérer directement des fragments de données depuis plusieurs nœuds décentralisés en parallèle, sans "frais punitifs" par des intermédiaires, ce qui permet de contrôler les coûts de bande passante dans une fourchette prévisible.
Du point de vue des besoins pratiques de DevOps, le stockage distribué offre une solution équilibrée : une tolérance aux fautes de niveau byzantin (une panne d’un seul centre de données n’affecte pas la disponibilité des données), tout en maintenant un modèle de tarification proche de celui du Web2. C’est ainsi que l’infrastructure décentralisée réellement applicable peut être réalisée, plutôt que de rester au stade de la théorie dans des livres blancs, dans un idéalisme.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
25 J'aime
Récompense
25
10
Reposter
Partager
Commentaire
0/400
RugDocScientist
· 01-11 23:18
Oh là là, c'est vraiment là où ça fait mal, le système de frais d'exportation des fournisseurs cloud est tout simplement un trou noir
Le stockage distribué est effectivement attrayant, mais combien de projets peuvent réellement être mis en œuvre ? La plupart restent sur le papier
Voir l'originalRépondre0
LiquidatedTwice
· 01-11 22:53
Les fournisseurs de cloud centralisés sont vraiment des vampires, c'est au moment de l'exercice de reprise d'activité qu'on découvre que la facture explose.
Voir l'originalRépondre0
PortfolioAlert
· 01-11 18:35
Haha, la méthode de vol de la cloud vendor est vraiment exceptionnelle, elle était bon marché au début jusqu'à en pleurer, et lors de la récupération, elle vide directement le portefeuille.
Ce schéma de code de correction d'erreurs est plutôt innovant, une redondance de 4-5 fois suffit pour tout gérer, c'est beaucoup plus intelligent que la méthode traditionnelle de copier des dizaines de copies.
Le point clé, c'est qu'il n'y a pas d'intermédiaires qui siphonnent, la distribution parallèle et décentralisée pour tirer les données est vraiment impressionnante, les coûts de bande passante sont totalement maîtrisés.
Si cela devait être mis en œuvre, le département opération et maintenance serait probablement très favorable, ce n'est pas nécessairement pour expérimenter une idéologie technique utopique.
Cette approche est bien plus fiable que ce qui est vanté sur le papier.
Voir l'originalRépondre0
GigaBrainAnon
· 01-11 12:24
Ah, vous avez raison, la méthode des fournisseurs de cloud traditionnels n'est qu'une solution temporaire insatisfaisante.
Les codes de correction d'erreurs sont vraiment impressionnants, mais sont-ils réellement écologiques en production ?
Voir l'originalRépondre0
MemeCoinSavant
· 01-09 02:54
Honnêtement, ça fait un effet différent... enfin quelqu'un qui admet que la vraie arnaque, ce sont les frais de bande passante et non l'infrastructure 💀
Voir l'originalRépondre0
SmartMoneyWallet
· 01-09 02:53
C'est bien dit, mais qu'en est-il des données réelles sur la chaîne ? Le financement de ce type de projets de stockage distribué est souvent exagéré, et il est encore difficile de dire combien de temps le véritable mécanisme d'incitation des nœuds pourra tenir.
Voir l'originalRépondre0
GweiWatcher
· 01-09 02:52
Les stratégies tarifaires des fournisseurs de cloud sont vraiment incroyables, ils sont généralement très bon marché, mais dès qu'ils se remettent en marche, ils arrachent les gains comme des coupeurs de ciboules.
Voir l'originalRépondre0
MetaMuskRat
· 01-09 02:46
Cette fois, quelqu'un ose enfin toucher au point sensible du fournisseur cloud.
Voir l'originalRépondre0
ForkInTheRoad
· 01-09 02:45
Cette fois, quelqu'un ose enfin dévoiler la mise en scène des fournisseurs de cloud, les coûts de sauvegarde sont vraiment absurdes.
Voir l'originalRépondre0
GasOptimizer
· 01-09 02:37
En analysant les données historiques, les taux de bande passante des fournisseurs de cloud traditionnels sont tout simplement des opportunités d'arbitrage douteuses... La technologie de code de correction d'erreurs résout effectivement le problème de récupération à un seul point.
Le plus grand gouffre de coût pour l'équipe d'exploitation n'est en réalité pas au niveau du calcul, mais dans la stratégie de reprise après sinistre. Beaucoup d'équipes stockent des snapshots de serveurs T-level dans l'archivage des fournisseurs cloud traditionnels, ce qui au début est incroyablement bon marché, mais lorsque vient le moment de la simulation de récupération, les coûts de récupération des données et de bande passante sortante suffisent à détruire le budget de tout un trimestre. Ce sentiment d'être asservi par des fournisseurs de services centralisés est bien compris dans l'industrie.
Les solutions de stockage distribué de niveau blockchain commencent maintenant à changer cette situation. La clé réside dans l'innovation de l'architecture technique — en utilisant des algorithmes de correction d'erreurs efficaces, le réseau n'a pas besoin de maintenir des dizaines de copies de données comme dans les blockchains publiques traditionnelles, une redondance de 4-5 fois suffit pour atteindre une tolérance aux fautes proche du niveau byzantin. Cela réduit directement le coût de stockage par unité.
Plus important encore, la différence réside dans la conception du mécanisme de récupération. La récupération de données dans les services cloud traditionnels est une opération centralisée avec un point unique de récupération, et les fournisseurs cloud imposent des tarifs exorbitants pour la bande passante sortante. La solution distribuée permet aux clients de récupérer directement des fragments de données depuis plusieurs nœuds décentralisés en parallèle, sans "frais punitifs" par des intermédiaires, ce qui permet de contrôler les coûts de bande passante dans une fourchette prévisible.
Du point de vue des besoins pratiques de DevOps, le stockage distribué offre une solution équilibrée : une tolérance aux fautes de niveau byzantin (une panne d’un seul centre de données n’affecte pas la disponibilité des données), tout en maintenant un modèle de tarification proche de celui du Web2. C’est ainsi que l’infrastructure décentralisée réellement applicable peut être réalisée, plutôt que de rester au stade de la théorie dans des livres blancs, dans un idéalisme.