Plutôt que de suivre le vent avec des MEME coins, regardons où se trouvent réellement les technologies capables de changer l'industrie. Récemment, j'ai découvert une direction intéressante — le stockage décentralisé de données, plus précisément une toute nouvelle solution d'architecture de stockage.
Je vais commencer par vous poser une question : combien de données faut-il pour entraîner un GPT-5 ? La réponse est au moins 100PB. Où stocker cette quantité massive de données, qui en assure la garde ? C'est un défi d'une valeur de plusieurs billions.
Actuellement, les coûts des services cloud centralisés sont trop élevés, la vitesse trop lente, et il y a de nombreux risques de sécurité. Les solutions traditionnelles de stockage décentralisé ne sont pas assez stables, ce qui crée un paradoxe qui dure depuis des années. Jusqu'à récemment, une nouvelle voie technologique est apparue, changeant complètement les règles du jeu.
Voici quelques points clés de cette avancée :
**Premier point : l'avantage en termes de coûts.** Plusieurs startups en IA avec lesquelles je travaille dépensent des millions de dollars chaque mois uniquement pour le stockage. En adoptant cette nouvelle solution en masse, elles peuvent réduire leurs coûts de plus de 60 %. Ce n'est pas une simple promesse, c'est une réalité comptable.
**Deuxième point : le mécanisme de sécurité.** Il utilise la technologie de codage par effacement — en termes simples, cela consiste à diviser une donnée en 1000 parts, dispersées à travers le monde. Même si 900 de ces parts sont perdues, la donnée originale peut toujours être restaurée intégralement. Ce niveau de sécurité est utilisé même par des applications bancaires.
**Troisième point : un espace d'expansion illimité.** La blockchain traditionnelle a ses limites, mais cette solution peut s'intégrer de manière transparente à tout type de dispositif de stockage — des centres de données aux disques durs personnels. La limite de croissance est presque inexistante.
Regardant vers l'avenir, trois phases d'explosion sont en préparation : d'ici la fin de l'année, les premières grandes entreprises d'IA auront terminé leur migration, ce qui entraînera une augmentation exponentielle des besoins en stockage ; au milieu de l'année prochaine, les fournisseurs de cloud traditionnels commenceront à s'adapter ; et ensuite, toute l'industrie passera à une application à grande échelle. Ce n'est pas une spéculation sur une nouvelle crypto-monnaie, mais la mise en place d'une infrastructure nouvelle.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
25 J'aime
Récompense
25
10
Reposter
Partager
Commentaire
0/400
MetaDreamer
· Il y a 13h
Réduire les coûts de 60 % ? Vraiment ? Ce chiffre semble un peu exagéré... Mais si une entreprise d'IA l'utilise réellement, cela vaut vraiment la peine de s'y intéresser.
Mais pour en revenir à la question, la stabilité de tout ce système d'effacement de code est-elle vraiment fiable ? Ne s'agit-il pas encore une fois d'une campagne de communication excessive en amont, avec toutes sortes de problèmes lors de la véritable utilisation ?
Voir l'originalRépondre0
LayerZeroEnjoyer
· 01-10 12:00
L'effacement du code est vraiment impressionnant, mais quelle solution précise est utilisée ? Je ne veux pas me faire arnaquer.
Voir l'originalRépondre0
DegenDreamer
· 01-10 02:00
Eh attendez, cette feuille de route technologique peut vraiment se concrétiser ? Ce ne serait pas encore une spéculation de concept ?
---
Réduire 60 % des coûts... ce chiffre est assez impressionnant, il faut voir si le projet réel fonctionne pour y croire
---
J'ai déjà entendu parler de la méthode de suppression de codage, la sécurité de niveau bancaire semble vraiment bien, mais l'écosystème reste un problème
---
On peut aussi connecter un disque dur personnel ? Alors, comment gérer la confidentialité et la réglementation, c'est déjà compliqué rien qu'à y penser
---
Les infrastructures industrielles, c'est facile à dire, mais leur généralisation est extrêmement difficile
---
Le point clé, c'est qui pousse derrière ? Il faut regarder l'équipe et les investisseurs pour juger de leur fiabilité
---
Je suis d'accord pour dire que c'est plus fiable que les MEME coins, mais pour investir, il faut attendre de voir les données réelles des utilisateurs
---
Le marché d'un billion de dollars est une attraction, mais le vrai problème, c'est combien on peut en tirer, c'est ça le cœur du sujet
Voir l'originalRépondre0
CryptoWageSlave
· 01-10 01:56
Attendez, c'est quoi exactement ce projet avec cette feuille de route technique ? Se contenter de dire qu'on réduit les coûts de 60%, c'est un peu vague.
Voir l'originalRépondre0
quietly_staking
· 01-10 01:56
Attendez, cette solution de diviser le codage en 1000 parties... est-ce que toutes les banques l'utilisent ? Je n'en ai jamais entendu parler, laquelle en est responsable précisément ?
Voir l'originalRépondre0
Degentleman
· 01-10 01:52
Réduire les coûts de 60 %... Vrai ou faux, y a-t-il des exemples concrets à montrer ?
Voir l'originalRépondre0
ForkItAll
· 01-10 01:42
Euh, attendez, ces données sont réparties dans 1000 emplacements à travers le monde. Si jamais le gros du nœud disparaît, qu'est-ce qu'on fait...
Voir l'originalRépondre0
rugged_again
· 01-10 01:41
Est-ce que cette solution est vraiment fiable ou s'agit-il encore d'une autre tentative de faire croire à une nouvelle opportunité pour les investisseurs...
---
Attends, effacer 900 copies de code et pouvoir encore restaurer, cette technologie est-elle vraiment aussi impressionnante ?
---
Réduire les coûts de 60 %, mais j'ai l'impression que ces chiffres sont un peu optimistes...
---
Plutôt que de dire tout ça, dis simplement de quel projet il s'agit, comme ça je pourrai faire des recherches
---
Encore un problème de taille à l'échelle du trillion, ou une nouvelle règle du jeu, j'ai déjà entendu ces mots plusieurs fois l'année dernière
---
Si cette chose devait vraiment décoller, des grands capitaux seraient déjà entrés, pourquoi n'en ai-je pas entendu parler ?
---
Je ne fais ni l'éloge ni la critique, d'un point de vue technique cette idée est intéressante, mais la réussite dépend surtout de l'écosystème
---
Le problème de stockage de GPT-5 existe effectivement, mais cette solution peut-elle résoudre le problème de commercialisation ?
---
Les disques durs personnels pour participer au stockage ? La sécurité peut-elle vraiment être assurée ? J'ai toujours l'impression qu'il y a des vulnérabilités
---
Voyons d'abord si les grands acteurs de l'IA migrent réellement d'ici la fin de l'année, à ce moment-là on saura ce qui est réel ou non
Voir l'originalRépondre0
ImpermanentPhobia
· 01-10 01:30
100PB de données, c'est vraiment impressionnant, mais pour être honnête, cette solution peut-elle vraiment battre AWS ? Tout dépendra de sa mise en œuvre.
Le codage d'effacement semble intéressant, mais comment garantir la cohérence du stockage distribué ? C'est là la clé.
Réduire les coûts de 60 %, ça fait rêver, mais quel est le niveau de maturité ? Se lancer maintenant ne risque-t-il pas de devenir un pari risqué...
Les disques durs personnels peuvent-ils aussi être intégrés ? Ce n'est pas un risque de sécurité encore plus grand ? Je ne comprends pas trop.
Ça a l'air prometteur, mais quand cette technologie pourra-t-elle vraiment se généraliser ? Ou est-ce encore un projet en PowerPoint ?
Plutôt que de suivre le vent avec des MEME coins, regardons où se trouvent réellement les technologies capables de changer l'industrie. Récemment, j'ai découvert une direction intéressante — le stockage décentralisé de données, plus précisément une toute nouvelle solution d'architecture de stockage.
Je vais commencer par vous poser une question : combien de données faut-il pour entraîner un GPT-5 ? La réponse est au moins 100PB. Où stocker cette quantité massive de données, qui en assure la garde ? C'est un défi d'une valeur de plusieurs billions.
Actuellement, les coûts des services cloud centralisés sont trop élevés, la vitesse trop lente, et il y a de nombreux risques de sécurité. Les solutions traditionnelles de stockage décentralisé ne sont pas assez stables, ce qui crée un paradoxe qui dure depuis des années. Jusqu'à récemment, une nouvelle voie technologique est apparue, changeant complètement les règles du jeu.
Voici quelques points clés de cette avancée :
**Premier point : l'avantage en termes de coûts.** Plusieurs startups en IA avec lesquelles je travaille dépensent des millions de dollars chaque mois uniquement pour le stockage. En adoptant cette nouvelle solution en masse, elles peuvent réduire leurs coûts de plus de 60 %. Ce n'est pas une simple promesse, c'est une réalité comptable.
**Deuxième point : le mécanisme de sécurité.** Il utilise la technologie de codage par effacement — en termes simples, cela consiste à diviser une donnée en 1000 parts, dispersées à travers le monde. Même si 900 de ces parts sont perdues, la donnée originale peut toujours être restaurée intégralement. Ce niveau de sécurité est utilisé même par des applications bancaires.
**Troisième point : un espace d'expansion illimité.** La blockchain traditionnelle a ses limites, mais cette solution peut s'intégrer de manière transparente à tout type de dispositif de stockage — des centres de données aux disques durs personnels. La limite de croissance est presque inexistante.
Regardant vers l'avenir, trois phases d'explosion sont en préparation : d'ici la fin de l'année, les premières grandes entreprises d'IA auront terminé leur migration, ce qui entraînera une augmentation exponentielle des besoins en stockage ; au milieu de l'année prochaine, les fournisseurs de cloud traditionnels commenceront à s'adapter ; et ensuite, toute l'industrie passera à une application à grande échelle. Ce n'est pas une spéculation sur une nouvelle crypto-monnaie, mais la mise en place d'une infrastructure nouvelle.