David Tepper, le célèbre gestionnaire de fonds spéculatifs derrière Appaloosa Management, a effectué un remaniement stratégique de son portefeuille au quatrième trimestre 2025, révélant un changement fascinant dans sa philosophie d’investissement. Plutôt que de miser uniquement sur les fabricants de semi-conducteurs, l’investisseur milliardaire a redirigé une part importante de son capital vers des entreprises qui consomment et déploient réellement l’intelligence artificielle à grande échelle. Cette réallocation offre une fenêtre intrigante sur les opportunités que voient les capitaux sophistiqués dans la course à l’infrastructure IA.
La décision phare a été le retrait calculé de Tepper des actions des fabricants de puces GPU. Il a réduit sa position Nvidia de plus de 10 % et a diminué ses holdings dans Advanced Micro Devices de deux tiers — bien que Nvidia reste sa septième plus grande position. Ces réductions pourraient initialement suggérer une prudence quant aux dépenses dans l’infrastructure IA. Cependant, rien ne pourrait être plus éloigné de la vérité. Au contraire, les mouvements de Tepper indiquent une thèse plus nuancée : les véritables profits pourraient de plus en plus revenir aux entreprises qui construisent avec ces puces, et non seulement à celles qui fabriquent les puces elles-mêmes.
La stratégie d’infrastructure dans les semi-conducteurs : tripler sur la mémoire
Le rééquilibrage de Tepper a révélé une compréhension sophistiquée des véritables goulets d’étranglement dans la chaîne d’approvisionnement IA. Plutôt que d’abandonner totalement la thèse sur les semi-conducteurs, il a triplé sa position dans Micron Technology, un fabricant de mémoire dont les produits de mémoire à haute bande passante (HBM) s’associent directement aux processeurs GPU pour maximiser la performance. La logique est convaincante — la DRAM (mémoire vive dynamique) traverse actuellement un supercycle massif, caractérisé par une demande explosive et une offre contrainte, positionnant Micron comme l’un des véhicules les plus efficaces pour saisir cette opportunité.
Par ailleurs, Tepper a accru sa participation dans Taiwan Semiconductor Manufacturing (TSMC), le principal fabricant indépendant de puces au monde, qui soutient la production de GPU et d’autres puces IA sur mesure. Ce double mouvement — en augmentant l’exposition à la mémoire et à la fabrication — suggère que Tepper est confiant dans la poursuite des dépenses en infrastructure IA, mais réparties à travers différentes parties de la chaîne d’approvisionnement.
La transition vers les hyperscalers : là où se trouve la vraie croissance
La dimension la plus frappante du repositionnement de Tepper est sa réaffectation agressive de capitaux vers les hyperscalers — ces grandes entreprises technologiques qui construisent l’infrastructure des centres de données et dépensent des sommes énormes pour l’achat de puces IA. Il ne s’agit pas d’un ajustement marginal ; c’est une réorientation structurelle de ses investissements.
Alphabet a reçu une conviction particulièrement forte. Tepper a augmenté sa position dans la société mère de Google de près de 30 %, la portant à sa deuxième plus grande position. L’attrait est multiple : la division cloud d’Alphabet accélère, notamment grâce à ses puces IA personnalisées développées en interne, qui offrent un avantage en termes de coûts. Avec Alphabet qui possède peut-être la gamme IA la plus complète au monde — combinant conception de puces propriétaire et le modèle IA Gemini de classe mondiale — l’entreprise propose une solution intégrée que ses concurrents ont du mal à reproduire.
Meta Platforms a connu une injection de capitaux encore plus spectaculaire, avec une augmentation de plus de 60 % de sa position, la plaçant en cinquième position. La transformation de Meta est remarquable. La société a fait preuve d’une agilité exceptionnelle pour intégrer des capacités IA dans ses activités principales afin de stimuler l’engagement des utilisateurs et les revenus. Elle agit sur tous les fronts : l’IA augmente à la fois le volume d’impressions publicitaires et leur prix. Au-delà de ces catalyseurs immédiats, Meta ouvre de nouvelles surfaces publicitaires sur WhatsApp et Threads, offrant des voies supplémentaires d’expansion des revenus.
Enfin, Tepper a également renforcé sa participation dans Microsoft, augmentant sa part de 8 %. La plateforme cloud Azure de Microsoft connaît une croissance explosive, et l’entreprise bénéficie d’engagements fermes avec OpenAI, qui devraient soutenir des taux de croissance à deux chiffres élevés à moyen terme. Ces accords de revenus à long terme offrent une visibilité et une durabilité exceptionnelles.
La logique d’investissement : une thèse complémentaire, pas un choix exclusif
Ce qui ressort des mouvements de Tepper, ce n’est ni une rotation complète hors de l’infrastructure IA ni une conviction absolue dans une seule approche. C’est plutôt une stratégie d’investissement à la fois et. Les grands concepteurs et fabricants de puces traditionnels comme Nvidia et AMD subissent une pression accrue sur leurs marges à mesure que la capacité s’étend et que la concurrence s’intensifie. Mais les entreprises qui achètent ces puces — Alphabet, Meta, et Microsoft — contrôlent l’expérience utilisateur finale et peuvent monétiser les capacités IA de manières que les fournisseurs de puces ne peuvent pas. Elles captent une plus grande part de la chaîne de valeur de l’IA.
En maintenant leur exposition aux fabricants de mémoire et aux fondeurs tout en augmentant leurs paris sur les plateformes hyperscalers, Tepper s’est positionné pour bénéficier de deux scénarios : une poursuite du déploiement de l’infrastructure IA et une compression des marges dans les puces ou, à l’inverse, une rentabilité exceptionnelle au niveau des applications où opèrent ces hyperscalers.
La perspective à long terme
Les mouvements de portefeuille de David Tepper suggèrent que, si les dépenses en infrastructure IA restent probablement encore à ses débuts, la voie la plus profitable à l’avenir passe de plus en plus par les géants du cloud déployant ces technologies, plutôt que par les fournisseurs traditionnels de semi-conducteurs uniquement. Les deux segments — les fournisseurs d’infrastructure et les consommateurs d’infrastructure — semblent positionnés pour une forte performance à long terme, mais ce sont surtout les choix d’allocation de capitaux qui révèlent où les investisseurs institutionnels les plus avisés voient actuellement les opportunités les plus profondes dans la révolution IA.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
Comment le milliardaire investisseur David Tepper a restructuré son portefeuille technologique au quatrième trimestre 2025
David Tepper, le célèbre gestionnaire de fonds spéculatifs derrière Appaloosa Management, a effectué un remaniement stratégique de son portefeuille au quatrième trimestre 2025, révélant un changement fascinant dans sa philosophie d’investissement. Plutôt que de miser uniquement sur les fabricants de semi-conducteurs, l’investisseur milliardaire a redirigé une part importante de son capital vers des entreprises qui consomment et déploient réellement l’intelligence artificielle à grande échelle. Cette réallocation offre une fenêtre intrigante sur les opportunités que voient les capitaux sophistiqués dans la course à l’infrastructure IA.
La décision phare a été le retrait calculé de Tepper des actions des fabricants de puces GPU. Il a réduit sa position Nvidia de plus de 10 % et a diminué ses holdings dans Advanced Micro Devices de deux tiers — bien que Nvidia reste sa septième plus grande position. Ces réductions pourraient initialement suggérer une prudence quant aux dépenses dans l’infrastructure IA. Cependant, rien ne pourrait être plus éloigné de la vérité. Au contraire, les mouvements de Tepper indiquent une thèse plus nuancée : les véritables profits pourraient de plus en plus revenir aux entreprises qui construisent avec ces puces, et non seulement à celles qui fabriquent les puces elles-mêmes.
La stratégie d’infrastructure dans les semi-conducteurs : tripler sur la mémoire
Le rééquilibrage de Tepper a révélé une compréhension sophistiquée des véritables goulets d’étranglement dans la chaîne d’approvisionnement IA. Plutôt que d’abandonner totalement la thèse sur les semi-conducteurs, il a triplé sa position dans Micron Technology, un fabricant de mémoire dont les produits de mémoire à haute bande passante (HBM) s’associent directement aux processeurs GPU pour maximiser la performance. La logique est convaincante — la DRAM (mémoire vive dynamique) traverse actuellement un supercycle massif, caractérisé par une demande explosive et une offre contrainte, positionnant Micron comme l’un des véhicules les plus efficaces pour saisir cette opportunité.
Par ailleurs, Tepper a accru sa participation dans Taiwan Semiconductor Manufacturing (TSMC), le principal fabricant indépendant de puces au monde, qui soutient la production de GPU et d’autres puces IA sur mesure. Ce double mouvement — en augmentant l’exposition à la mémoire et à la fabrication — suggère que Tepper est confiant dans la poursuite des dépenses en infrastructure IA, mais réparties à travers différentes parties de la chaîne d’approvisionnement.
La transition vers les hyperscalers : là où se trouve la vraie croissance
La dimension la plus frappante du repositionnement de Tepper est sa réaffectation agressive de capitaux vers les hyperscalers — ces grandes entreprises technologiques qui construisent l’infrastructure des centres de données et dépensent des sommes énormes pour l’achat de puces IA. Il ne s’agit pas d’un ajustement marginal ; c’est une réorientation structurelle de ses investissements.
Alphabet a reçu une conviction particulièrement forte. Tepper a augmenté sa position dans la société mère de Google de près de 30 %, la portant à sa deuxième plus grande position. L’attrait est multiple : la division cloud d’Alphabet accélère, notamment grâce à ses puces IA personnalisées développées en interne, qui offrent un avantage en termes de coûts. Avec Alphabet qui possède peut-être la gamme IA la plus complète au monde — combinant conception de puces propriétaire et le modèle IA Gemini de classe mondiale — l’entreprise propose une solution intégrée que ses concurrents ont du mal à reproduire.
Meta Platforms a connu une injection de capitaux encore plus spectaculaire, avec une augmentation de plus de 60 % de sa position, la plaçant en cinquième position. La transformation de Meta est remarquable. La société a fait preuve d’une agilité exceptionnelle pour intégrer des capacités IA dans ses activités principales afin de stimuler l’engagement des utilisateurs et les revenus. Elle agit sur tous les fronts : l’IA augmente à la fois le volume d’impressions publicitaires et leur prix. Au-delà de ces catalyseurs immédiats, Meta ouvre de nouvelles surfaces publicitaires sur WhatsApp et Threads, offrant des voies supplémentaires d’expansion des revenus.
Enfin, Tepper a également renforcé sa participation dans Microsoft, augmentant sa part de 8 %. La plateforme cloud Azure de Microsoft connaît une croissance explosive, et l’entreprise bénéficie d’engagements fermes avec OpenAI, qui devraient soutenir des taux de croissance à deux chiffres élevés à moyen terme. Ces accords de revenus à long terme offrent une visibilité et une durabilité exceptionnelles.
La logique d’investissement : une thèse complémentaire, pas un choix exclusif
Ce qui ressort des mouvements de Tepper, ce n’est ni une rotation complète hors de l’infrastructure IA ni une conviction absolue dans une seule approche. C’est plutôt une stratégie d’investissement à la fois et. Les grands concepteurs et fabricants de puces traditionnels comme Nvidia et AMD subissent une pression accrue sur leurs marges à mesure que la capacité s’étend et que la concurrence s’intensifie. Mais les entreprises qui achètent ces puces — Alphabet, Meta, et Microsoft — contrôlent l’expérience utilisateur finale et peuvent monétiser les capacités IA de manières que les fournisseurs de puces ne peuvent pas. Elles captent une plus grande part de la chaîne de valeur de l’IA.
En maintenant leur exposition aux fabricants de mémoire et aux fondeurs tout en augmentant leurs paris sur les plateformes hyperscalers, Tepper s’est positionné pour bénéficier de deux scénarios : une poursuite du déploiement de l’infrastructure IA et une compression des marges dans les puces ou, à l’inverse, une rentabilité exceptionnelle au niveau des applications où opèrent ces hyperscalers.
La perspective à long terme
Les mouvements de portefeuille de David Tepper suggèrent que, si les dépenses en infrastructure IA restent probablement encore à ses débuts, la voie la plus profitable à l’avenir passe de plus en plus par les géants du cloud déployant ces technologies, plutôt que par les fournisseurs traditionnels de semi-conducteurs uniquement. Les deux segments — les fournisseurs d’infrastructure et les consommateurs d’infrastructure — semblent positionnés pour une forte performance à long terme, mais ce sont surtout les choix d’allocation de capitaux qui révèlent où les investisseurs institutionnels les plus avisés voient actuellement les opportunités les plus profondes dans la révolution IA.