Cảnh quan cạnh tranh trong lĩnh vực phần cứng AI đang chuyển biến rõ rệt khi Google đạt được những bước tiến chiến lược trên thị trường lâu nay do Nvidia thống trị. Meta Platforms được cho là đang đàm phán với Google để sử dụng các đơn vị xử lý tensor (TPUs) của họ để triển khai trên các trung tâm dữ liệu bắt đầu từ năm 2027, với khả năng truy cập sớm thông qua Google Cloud ngay trong năm tới. Phát triển này báo hiệu một xu hướng rộng hơn: các công ty công nghệ lớn đang tích cực đa dạng hóa nhà cung cấp chip AI của họ thay vì phụ thuộc hoàn toàn vào các sản phẩm của Nvidia.
Thị trường ngay lập tức phản ánh sự chuyển động cạnh tranh này. Cổ phiếu của Nvidia giảm 2,7% trong phiên giao dịch sau giờ làm việc vào thứ Ba, trong khi Alphabet—công ty mẹ của Google—tăng 2,7%, tận dụng sự lạc quan ngày càng tăng xung quanh mô hình AI Gemini của Google và khả năng mở rộng phần cứng. Các nhà cung cấp châu Á liên kết với Google cũng hưởng lợi, với IsuPetasys của Hàn Quốc—một nhà cung cấp chính về bo mạch đa lớp—tăng 18%, và MediaTek của Đài Loan tăng gần 5%.
Việc Meta có thể chấp nhận sử dụng TPUs của Google sẽ theo một quỹ đạo tương tự đã được thiết lập bởi Anthropic. Google đã đạt được thỏa thuận cung cấp lên tới 1 triệu chip cho startup AI này, một cột mốc mà nhà phân tích Jay Goldberg của Seaport mô tả là một “xác nhận thực sự mạnh mẽ” về công nghệ của Google. Sự xác nhận này đã lan tỏa trong ngành, khuyến khích các công ty khác xem xét TPUs như một lựa chọn thay thế hợp pháp cho các GPU của Nvidia (GPUs).
Hiểu rõ vị thế cạnh tranh đòi hỏi phải xem xét cách các công nghệ này khác nhau như thế nào. Các GPU của Nvidia phát triển từ các ứng dụng chơi game và đồ họa ban đầu và đã trở thành lựa chọn mặc định cho các khối lượng công việc huấn luyện AI, chiếm lĩnh thị phần lớn trong ngành. Trong khi đó, TPUs của Google, ngược lại, thể hiện một triết lý thiết kế chuyên biệt—mạch tích hợp tùy chỉnh (ASICs) được xây dựng từ đầu cho các nhiệm vụ AI và học máy. Hơn một thập kỷ hoàn thiện qua việc triển khai trong các sản phẩm và mô hình của Google như Gemini đã giúp công ty tối ưu đồng thời phần cứng và phần mềm, tạo ra một vòng phản hồi củng cố vị thế cạnh tranh của mình.
Đối với Meta, về mặt kinh tế, các lợi ích là rõ ràng. Công ty dự kiến sẽ chi ít nhất $100 tỷ đô la cho chi tiêu vốn trong năm 2026, với các nhà phân tích tại Bloomberg Intelligence ước tính rằng từ 40–50 tỷ đô la có thể được dành cho năng lực chip suy luận. Nếu Meta tiếp tục sử dụng GPU cùng với việc mua Nvidia, mô hình chi tiêu này có thể thúc đẩy đáng kể sự tăng trưởng của mảng hạ tầng Google Cloud.
Các nhà phân tích của Bloomberg, Mandeep Singh và Robert Biggar, xem các cuộc đàm phán của Meta như một phần của xu hướng ngành rộng lớn hơn: các nhà cung cấp AI bên thứ ba ngày càng xem Google là một nhà cung cấp thứ cấp đáng tin cậy cho các chip suy luận thay vì chỉ dựa vào Nvidia. Tâm lý này phản ánh sự tin tưởng ngày càng tăng vào hiệu suất và độ tin cậy của TPU.
Cả Meta lẫn Google đều chưa chính thức xác nhận các cuộc thảo luận hợp tác. Tuy nhiên, việc Meta khám phá lựa chọn này—kết hợp với cam kết đầu tư lớn vào hạ tầng AI—nhấn mạnh cách các nhà vận hành AI lớn nhất thế giới đang chủ động quản lý rủi ro tập trung nhà cung cấp chip. Thành công lâu dài của chiến lược TPU của Google cuối cùng sẽ phụ thuộc vào khả năng các chip này cung cấp hiệu suất cạnh tranh và hiệu quả năng lượng ở quy mô lớn, nhưng phản hồi ban đầu từ ngành cho thấy Google đã định vị thành công mình như một lực lượng mới nổi trong cuộc đua phần cứng AI ngày càng tăng.
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
Viện chip Tensor của Google cạnh tranh với Nvidia khi Meta khám phá hợp tác chiến lược
Cảnh quan cạnh tranh trong lĩnh vực phần cứng AI đang chuyển biến rõ rệt khi Google đạt được những bước tiến chiến lược trên thị trường lâu nay do Nvidia thống trị. Meta Platforms được cho là đang đàm phán với Google để sử dụng các đơn vị xử lý tensor (TPUs) của họ để triển khai trên các trung tâm dữ liệu bắt đầu từ năm 2027, với khả năng truy cập sớm thông qua Google Cloud ngay trong năm tới. Phát triển này báo hiệu một xu hướng rộng hơn: các công ty công nghệ lớn đang tích cực đa dạng hóa nhà cung cấp chip AI của họ thay vì phụ thuộc hoàn toàn vào các sản phẩm của Nvidia.
Thị trường ngay lập tức phản ánh sự chuyển động cạnh tranh này. Cổ phiếu của Nvidia giảm 2,7% trong phiên giao dịch sau giờ làm việc vào thứ Ba, trong khi Alphabet—công ty mẹ của Google—tăng 2,7%, tận dụng sự lạc quan ngày càng tăng xung quanh mô hình AI Gemini của Google và khả năng mở rộng phần cứng. Các nhà cung cấp châu Á liên kết với Google cũng hưởng lợi, với IsuPetasys của Hàn Quốc—một nhà cung cấp chính về bo mạch đa lớp—tăng 18%, và MediaTek của Đài Loan tăng gần 5%.
Việc Meta có thể chấp nhận sử dụng TPUs của Google sẽ theo một quỹ đạo tương tự đã được thiết lập bởi Anthropic. Google đã đạt được thỏa thuận cung cấp lên tới 1 triệu chip cho startup AI này, một cột mốc mà nhà phân tích Jay Goldberg của Seaport mô tả là một “xác nhận thực sự mạnh mẽ” về công nghệ của Google. Sự xác nhận này đã lan tỏa trong ngành, khuyến khích các công ty khác xem xét TPUs như một lựa chọn thay thế hợp pháp cho các GPU của Nvidia (GPUs).
Hiểu rõ vị thế cạnh tranh đòi hỏi phải xem xét cách các công nghệ này khác nhau như thế nào. Các GPU của Nvidia phát triển từ các ứng dụng chơi game và đồ họa ban đầu và đã trở thành lựa chọn mặc định cho các khối lượng công việc huấn luyện AI, chiếm lĩnh thị phần lớn trong ngành. Trong khi đó, TPUs của Google, ngược lại, thể hiện một triết lý thiết kế chuyên biệt—mạch tích hợp tùy chỉnh (ASICs) được xây dựng từ đầu cho các nhiệm vụ AI và học máy. Hơn một thập kỷ hoàn thiện qua việc triển khai trong các sản phẩm và mô hình của Google như Gemini đã giúp công ty tối ưu đồng thời phần cứng và phần mềm, tạo ra một vòng phản hồi củng cố vị thế cạnh tranh của mình.
Đối với Meta, về mặt kinh tế, các lợi ích là rõ ràng. Công ty dự kiến sẽ chi ít nhất $100 tỷ đô la cho chi tiêu vốn trong năm 2026, với các nhà phân tích tại Bloomberg Intelligence ước tính rằng từ 40–50 tỷ đô la có thể được dành cho năng lực chip suy luận. Nếu Meta tiếp tục sử dụng GPU cùng với việc mua Nvidia, mô hình chi tiêu này có thể thúc đẩy đáng kể sự tăng trưởng của mảng hạ tầng Google Cloud.
Các nhà phân tích của Bloomberg, Mandeep Singh và Robert Biggar, xem các cuộc đàm phán của Meta như một phần của xu hướng ngành rộng lớn hơn: các nhà cung cấp AI bên thứ ba ngày càng xem Google là một nhà cung cấp thứ cấp đáng tin cậy cho các chip suy luận thay vì chỉ dựa vào Nvidia. Tâm lý này phản ánh sự tin tưởng ngày càng tăng vào hiệu suất và độ tin cậy của TPU.
Cả Meta lẫn Google đều chưa chính thức xác nhận các cuộc thảo luận hợp tác. Tuy nhiên, việc Meta khám phá lựa chọn này—kết hợp với cam kết đầu tư lớn vào hạ tầng AI—nhấn mạnh cách các nhà vận hành AI lớn nhất thế giới đang chủ động quản lý rủi ro tập trung nhà cung cấp chip. Thành công lâu dài của chiến lược TPU của Google cuối cùng sẽ phụ thuộc vào khả năng các chip này cung cấp hiệu suất cạnh tranh và hiệu quả năng lượng ở quy mô lớn, nhưng phản hồi ban đầu từ ngành cho thấy Google đã định vị thành công mình như một lực lượng mới nổi trong cuộc đua phần cứng AI ngày càng tăng.