Lại một bước đột phá về công nghệ. Cụm đào tạo AI quy mô gigawatt đầu tiên trên thế giới chính thức đi vào hoạt động, quy mô lần này đã hoàn toàn làm mới nhận thức của ngành.
Chỉ riêng lượng điện tiêu thụ đã đủ để minh chứng vấn đề—— công suất đỉnh đã vượt quá đỉnh tiêu thụ điện của toàn thành phố San Francisco. Nói cách khác, lượng điện tiêu thụ trong một ngày của hệ thống này có thể làm căng thẳng lưới điện của một thành phố. Thậm chí còn gây sốc hơn là, vào tháng 4 năm nay, hệ thống này sẽ nâng cấp lên 1.5GW, gần như tương đương với công suất liên tục của một nhà máy điện hạt nhân lớn.
Quy mô cụ thể là gì? Một cụm đào tạo gồm 55 vạn chip GPU hàng đầu xếp chồng lên nhau. Đây không chỉ là một đổi mới kỹ thuật, mà còn là thách thức toàn diện về năng lượng, tản nhiệt và kiến trúc mạng. Từ góc độ hạ tầng, điều này đại diện cho cuộc chạy đua về năng lực tính toán trong kỷ nguyên AI đã bước vào một cấp độ mới.
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
15 thích
Phần thưởng
15
6
Đăng lại
Retweed
Bình luận
0/400
CoffeeNFTrader
· 2giờ trước
550,000 chiếc GPU, thật sự điên rồi. Một thành phố không đủ điện năng, hãy tưởng tượng hóa đơn tiền điện...
Xem bản gốcTrả lời0
VitaliksTwin
· 13giờ trước
卧槽55万张 GPU,这是要把 điện lưới chơi崩吗
Cuộc đua vũ khí AI này thật sự điên rồ, tiêu thụ điện đến mức của một thành phố
Chờ đã, điều này có thực sự đáng giá không? Tính toán chi phí đổi lấy biến đổi khí hậu như thế nào
Không ổn rồi, cảm giác như đang vì quy mô mà quy mô, lợi ích thực sự ở đâu
Công suất tiêu thụ như nhà máy điện hạt nhân để huấn luyện mô hình, các cao thủ đang tự kiểm chứng điều gì vậy
Xem bản gốcTrả lời0
RugpullSurvivor
· 01-18 11:52
Chết rồi, 550.000 GPU? Phải tiêu bao nhiêu tiền mới đủ, chỉ tiền điện thôi đã đủ nuôi một quốc gia nhỏ rồi
Xem bản gốcTrả lời0
GasFeeGazer
· 01-18 11:50
550,000 GPU được xếp chồng lên nhau, tiêu tốn bao nhiêu tiền đây... mức tiêu thụ điện năng như nhà máy điện hạt nhân, thật là điên rồ
Xem bản gốcTrả lời0
StablecoinArbitrageur
· 01-18 11:48
550,000 GPU... thực ra nếu bạn tính toán các số liệu về chi phí vận hành, điểm cơ sở mới là điều quan trọng hơn nhiều so với tiêu đề. Chi phí thực tế cho mỗi flop là bao nhiêu và điều đó ảnh hưởng như thế nào đến ROI của đào tạo mô hình? Đây là chiến lược cổ điển để khoe khoang về gigawatt trong khi không ai nói về tỷ lệ hiệu quả.
Lại một bước đột phá về công nghệ. Cụm đào tạo AI quy mô gigawatt đầu tiên trên thế giới chính thức đi vào hoạt động, quy mô lần này đã hoàn toàn làm mới nhận thức của ngành.
Chỉ riêng lượng điện tiêu thụ đã đủ để minh chứng vấn đề—— công suất đỉnh đã vượt quá đỉnh tiêu thụ điện của toàn thành phố San Francisco. Nói cách khác, lượng điện tiêu thụ trong một ngày của hệ thống này có thể làm căng thẳng lưới điện của một thành phố. Thậm chí còn gây sốc hơn là, vào tháng 4 năm nay, hệ thống này sẽ nâng cấp lên 1.5GW, gần như tương đương với công suất liên tục của một nhà máy điện hạt nhân lớn.
Quy mô cụ thể là gì? Một cụm đào tạo gồm 55 vạn chip GPU hàng đầu xếp chồng lên nhau. Đây không chỉ là một đổi mới kỹ thuật, mà còn là thách thức toàn diện về năng lượng, tản nhiệt và kiến trúc mạng. Từ góc độ hạ tầng, điều này đại diện cho cuộc chạy đua về năng lực tính toán trong kỷ nguyên AI đã bước vào một cấp độ mới.