Sumber: CryptoNewsNet
Judul Asli: Strategi AI Sumber Terbuka Amerika: Dua Laboratorium, Satu Pertanyaan—Dapatkah AS Bersaing?
Tautan Asli:
Dua laboratorium AI Amerika merilis model sumber terbuka minggu ini, masing-masing mengambil pendekatan yang sangat berbeda untuk masalah yang sama: bagaimana bersaing dengan dominasi China dalam sistem AI yang dapat diakses publik.
Deep Cogito merilis Cogito v2.1, sebuah model besar dengan 671 miliar parameter yang disebut pendirinya, Drishan Arora, sebagai “LLM open-weight terbaik oleh perusahaan AS.”
Tidak begitu cepat, balas The Allen Institute for AI, yang baru saja meluncurkan Olmo 3, mengklaim sebagai “model dasar terbuka sepenuhnya terbaik.” Olmo 3 memiliki transparansi lengkap, termasuk data pelatihan dan kodenya.
Ironisnya, model unggulan Deep Cognito dibangun di atas fondasi China. Arora mengakui bahwa Cogito v2.1 “memisahkan model dasar Deepseek yang berlisensi terbuka dari November 2024.”
Itu memicu beberapa kritik dan debat tentang apakah penyesuaian model Tiongkok dihitung sebagai kemajuan AI Amerika, atau apakah itu hanya membuktikan seberapa jauh laboratorium AS telah tertinggal.
Namun, peningkatan efisiensi yang ditunjukkan Cogito dibandingkan dengan DeepSeek adalah nyata.
Deep Cognito mengklaim Cogito v2.1 menghasilkan rantai penalaran 60% lebih pendek dibandingkan DeepSeek R1 sambil mempertahankan kinerja yang kompetitif.
Dengan menggunakan apa yang disebut Arora sebagai “Distilasi dan Peningkatan Iteratif”—mengajarkan model untuk mengembangkan intuisi yang lebih baik melalui loop perbaikan diri—startup tersebut melatih modelnya dalam waktu hanya 75 hari menggunakan infrastruktur dari RunPod dan Nebius.
Jika tolok ukur tersebut benar, ini akan menjadi LLM sumber terbuka yang paling kuat yang saat ini dikelola oleh tim AS.
Mengapa ini penting
Sejauh ini, China telah menjadi pelopor dalam AI sumber terbuka, dan perusahaan-perusahaan AS semakin bergantung—secara diam-diam atau terbuka—pada model dasar China untuk tetap bersaing.
Dinamis ini berisiko. Jika laboratorium di China menjadi infrastruktur default untuk AI terbuka di seluruh dunia, startup di AS kehilangan independensi teknis, kekuatan tawar, dan kemampuan untuk membentuk standar industri.
AI berbobot terbuka menentukan siapa yang mengontrol model mentah yang menjadi ketergantungan setiap produk hulu.
Saat ini, model sumber terbuka China (DeepSeek, Qwen, Kimi, MiniMax) mendominasi adopsi global karena mereka murah, cepat, sangat efisien, dan terus diperbarui.
Banyak startup AS sudah membangun di atasnya, bahkan ketika mereka secara publik menghindari mengakui hal itu.
Itu berarti perusahaan-perusahaan AS sedang membangun bisnis di atas kekayaan intelektual asing, jalur pelatihan asing, dan optimisasi perangkat keras asing. Secara strategis, itu menempatkan Amerika dalam posisi yang pernah dihadapinya dengan fabrikasi semikonduktor: semakin bergantung pada rantai pasokan orang lain.
Pendekatan Deep Cogito—dimulai dari fork DeepSeek—menunjukkan keuntungan ( iterasi cepat ) dan kerugian ( ketergantungan ).
Pendekatan Allen Institute—membangun Olmo 3 dengan transparansi penuh—menunjukkan alternatif: jika AS ingin memimpin dalam AI yang terbuka, mereka harus membangun kembali tumpukan itu sendiri, dari data hingga resep pelatihan hingga titik pemeriksaan. Itu memerlukan banyak tenaga dan lambat, tetapi itu menjaga kedaulatan atas teknologi yang mendasarinya.
Secara teori, jika Anda sudah menyukai DeepSeek dan menggunakannya secara online, Cogito akan memberi Anda jawaban yang lebih baik sebagian besar waktu. Jika Anda menggunakannya melalui API, Anda akan dua kali lebih bahagia, karena Anda akan membayar lebih sedikit uang untuk menghasilkan balasan yang baik berkat peningkatan efisiensinya.
Institut Allen mengambil pendekatan yang berlawanan. Seluruh keluarga model Olmo 3 hadir dengan Dolma 3, dataset pelatihan 5,9 triliun token yang dibangun dari awal, ditambah dengan kode lengkap, resep, dan titik pemeriksaan dari setiap tahap pelatihan.
Organisasi nirlaba tersebut merilis tiga varian model—Base, Think, dan Instruct—dengan 7 miliar dan 32 miliar parameter.
“Keterbukaan sejati dalam AI tidak hanya tentang akses—ini tentang kepercayaan, akuntabilitas, dan kemajuan bersama,” tulis lembaga tersebut.
Olmo 3-Think 32B adalah model pemikiran terbuka sepenuhnya yang pertama pada skala itu, dilatih dengan sekitar sepertiga jumlah token dari model sebanding seperti Qwen 3, sambil mencapai kinerja yang kompetitif.
Deep Cognito mengamankan $13 juta dalam pendanaan awal yang dipimpin oleh Benchmark pada bulan Agustus. Startup ini berencana untuk merilis model perbatasan hingga 671 miliar parameter yang dilatih dengan “komputasi yang jauh lebih signifikan dengan dataset yang lebih baik.”
Sementara itu, Nvidia mendukung pengembangan Olmo 3, dengan wakil presiden Kari Briski menyebutnya penting bagi “pengembang untuk meningkatkan AI dengan model terbuka yang dibangun di AS.”
Institut tersebut dilatih pada kluster GPU H100 milik Google Cloud, mencapai kebutuhan komputasi 2,5 kali lebih sedikit daripada Llama 3.1 8B milik Meta.
Cogito v2.1 tersedia untuk pengujian online gratis. Model ini dapat diunduh, tetapi hati-hati: ia memerlukan kartu yang sangat kuat untuk dijalankan.
Olmo tersedia untuk pengujian. Model-modelnya dapat diunduh. Yang ini lebih ramah konsumen, tergantung pada mana yang Anda pilih.
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
Gambit AI Sumber Terbuka Amerika: Dua Laboratorium, Satu Pertanyaan—Dapatkah AS Bersaing?
Sumber: CryptoNewsNet Judul Asli: Strategi AI Sumber Terbuka Amerika: Dua Laboratorium, Satu Pertanyaan—Dapatkah AS Bersaing? Tautan Asli: Dua laboratorium AI Amerika merilis model sumber terbuka minggu ini, masing-masing mengambil pendekatan yang sangat berbeda untuk masalah yang sama: bagaimana bersaing dengan dominasi China dalam sistem AI yang dapat diakses publik.
Deep Cogito merilis Cogito v2.1, sebuah model besar dengan 671 miliar parameter yang disebut pendirinya, Drishan Arora, sebagai “LLM open-weight terbaik oleh perusahaan AS.”
Tidak begitu cepat, balas The Allen Institute for AI, yang baru saja meluncurkan Olmo 3, mengklaim sebagai “model dasar terbuka sepenuhnya terbaik.” Olmo 3 memiliki transparansi lengkap, termasuk data pelatihan dan kodenya.
Ironisnya, model unggulan Deep Cognito dibangun di atas fondasi China. Arora mengakui bahwa Cogito v2.1 “memisahkan model dasar Deepseek yang berlisensi terbuka dari November 2024.”
Itu memicu beberapa kritik dan debat tentang apakah penyesuaian model Tiongkok dihitung sebagai kemajuan AI Amerika, atau apakah itu hanya membuktikan seberapa jauh laboratorium AS telah tertinggal.
Namun, peningkatan efisiensi yang ditunjukkan Cogito dibandingkan dengan DeepSeek adalah nyata.
Deep Cognito mengklaim Cogito v2.1 menghasilkan rantai penalaran 60% lebih pendek dibandingkan DeepSeek R1 sambil mempertahankan kinerja yang kompetitif.
Dengan menggunakan apa yang disebut Arora sebagai “Distilasi dan Peningkatan Iteratif”—mengajarkan model untuk mengembangkan intuisi yang lebih baik melalui loop perbaikan diri—startup tersebut melatih modelnya dalam waktu hanya 75 hari menggunakan infrastruktur dari RunPod dan Nebius.
Jika tolok ukur tersebut benar, ini akan menjadi LLM sumber terbuka yang paling kuat yang saat ini dikelola oleh tim AS.
Mengapa ini penting
Sejauh ini, China telah menjadi pelopor dalam AI sumber terbuka, dan perusahaan-perusahaan AS semakin bergantung—secara diam-diam atau terbuka—pada model dasar China untuk tetap bersaing.
Dinamis ini berisiko. Jika laboratorium di China menjadi infrastruktur default untuk AI terbuka di seluruh dunia, startup di AS kehilangan independensi teknis, kekuatan tawar, dan kemampuan untuk membentuk standar industri.
AI berbobot terbuka menentukan siapa yang mengontrol model mentah yang menjadi ketergantungan setiap produk hulu.
Saat ini, model sumber terbuka China (DeepSeek, Qwen, Kimi, MiniMax) mendominasi adopsi global karena mereka murah, cepat, sangat efisien, dan terus diperbarui.
Banyak startup AS sudah membangun di atasnya, bahkan ketika mereka secara publik menghindari mengakui hal itu.
Itu berarti perusahaan-perusahaan AS sedang membangun bisnis di atas kekayaan intelektual asing, jalur pelatihan asing, dan optimisasi perangkat keras asing. Secara strategis, itu menempatkan Amerika dalam posisi yang pernah dihadapinya dengan fabrikasi semikonduktor: semakin bergantung pada rantai pasokan orang lain.
Pendekatan Deep Cogito—dimulai dari fork DeepSeek—menunjukkan keuntungan ( iterasi cepat ) dan kerugian ( ketergantungan ).
Pendekatan Allen Institute—membangun Olmo 3 dengan transparansi penuh—menunjukkan alternatif: jika AS ingin memimpin dalam AI yang terbuka, mereka harus membangun kembali tumpukan itu sendiri, dari data hingga resep pelatihan hingga titik pemeriksaan. Itu memerlukan banyak tenaga dan lambat, tetapi itu menjaga kedaulatan atas teknologi yang mendasarinya.
Secara teori, jika Anda sudah menyukai DeepSeek dan menggunakannya secara online, Cogito akan memberi Anda jawaban yang lebih baik sebagian besar waktu. Jika Anda menggunakannya melalui API, Anda akan dua kali lebih bahagia, karena Anda akan membayar lebih sedikit uang untuk menghasilkan balasan yang baik berkat peningkatan efisiensinya.
Institut Allen mengambil pendekatan yang berlawanan. Seluruh keluarga model Olmo 3 hadir dengan Dolma 3, dataset pelatihan 5,9 triliun token yang dibangun dari awal, ditambah dengan kode lengkap, resep, dan titik pemeriksaan dari setiap tahap pelatihan.
Organisasi nirlaba tersebut merilis tiga varian model—Base, Think, dan Instruct—dengan 7 miliar dan 32 miliar parameter.
“Keterbukaan sejati dalam AI tidak hanya tentang akses—ini tentang kepercayaan, akuntabilitas, dan kemajuan bersama,” tulis lembaga tersebut.
Olmo 3-Think 32B adalah model pemikiran terbuka sepenuhnya yang pertama pada skala itu, dilatih dengan sekitar sepertiga jumlah token dari model sebanding seperti Qwen 3, sambil mencapai kinerja yang kompetitif.
Deep Cognito mengamankan $13 juta dalam pendanaan awal yang dipimpin oleh Benchmark pada bulan Agustus. Startup ini berencana untuk merilis model perbatasan hingga 671 miliar parameter yang dilatih dengan “komputasi yang jauh lebih signifikan dengan dataset yang lebih baik.”
Sementara itu, Nvidia mendukung pengembangan Olmo 3, dengan wakil presiden Kari Briski menyebutnya penting bagi “pengembang untuk meningkatkan AI dengan model terbuka yang dibangun di AS.”
Institut tersebut dilatih pada kluster GPU H100 milik Google Cloud, mencapai kebutuhan komputasi 2,5 kali lebih sedikit daripada Llama 3.1 8B milik Meta.
Cogito v2.1 tersedia untuk pengujian online gratis. Model ini dapat diunduh, tetapi hati-hati: ia memerlukan kartu yang sangat kuat untuk dijalankan.
Olmo tersedia untuk pengujian. Model-modelnya dapat diunduh. Yang ini lebih ramah konsumen, tergantung pada mana yang Anda pilih.