Ketika mesin bisa melakukan lebih dari kamu, apa yang masih bisa kamu lakukan?

Sumber: Citic Publishing Group

Sebuah proyek agen AI sumber terbuka bernama “OpenClaw” sedang mengguncang dunia teknologi.

Hingga awal Maret, jumlah bintang di GitHub telah mencapai 268.000, melampaui Linux dan React, menjadi proyek sumber terbuka paling populer dalam sejarah platform. Tencent Cloud, Alibaba Cloud, JD Cloud, dan lainnya secara berturut-turut meluncurkan layanan deployment. Konsep OPC (One Person Company, perusahaan satu orang) pun menjadi sangat populer.

Dua kekuatan bertemu di sini, dan sebuah tren teknologi yang jelas mulai muncul: AI sedang berevolusi dari sekadar “alat” menjadi “kolaborator”, bahkan “pengambil tindakan mandiri”. Pada saat ini, manusia harus kembali menjawab satu pertanyaan fundamental:

Ketika mesin bisa melakukan lebih dari kamu, apa yang masih bisa kamu lakukan? Di era kecerdasan yang melaju pesat ini, bagaimana kita menjaga keutamaan manusia?

01 Saat OpenClaw: Perang “Badan” AI

Untuk memahami perubahan ini, kita harus memahami apa sebenarnya “kepiting” yang sedang ramai dibicarakan ini.

“Claw” dalam OpenClaw diterjemahkan sebagai “cakar”, dan ikon-nya adalah seekor kepiting merah. Dalam gelombang ini, “mengembang kepiting” menjadi istilah gaul di dunia teknologi, yang berarti meng-deploy agen AI milik sendiri.

Apa sebenarnya yang bisa dilakukan? Inti dari OpenClaw adalah mengubah instruksi bahasa alami menjadi operasi komputer nyata, memungkinkan satu kalimat agar AI melakukan pekerjaan untukmu. Berbeda dari AI obrolan tradisional yang hanya memberi saran, ini mampu menyelesaikan otomatisasi file, browsing, pengambilan data, dan lain-lain secara mandiri—melangkahi dari sekadar percakapan ke eksekusi.

Potensi produktivitas yang melampaui batas ini segera ditangkap oleh pemerintah daerah yang peka terhadap peluang. Pada 7 Maret, Shenzhen Longgang merilis “Sepuluh Aturan Kepiting”, termasuk subsidi daya komputasi hingga 4 juta yuan dan subsidi 100.000 yuan untuk doktor. Pada 9 Maret, Wuxi High-tech Zone mengeluarkan “Dua Belas Aturan Mengembang Kepiting”, dengan dukungan maksimal 5 juta yuan, menekankan keamanan dan kepatuhan, serta harus melalui sertifikasi adaptasi lokal saat deployment.

Sementara itu, ekosistem teknologi seputar OpenClaw juga memasuki tahap intens. Menurut media, model Flash Step 3.5 dari Step 3.5 meningkat menjadi yang paling banyak dipanggil secara global, sebelumnya model domestik seperti MiniMax dan Kimi juga pernah memuncak. Perang model yang tak terlihat ini sedang berlangsung sengit.

Namun, di balik semangat membara, muncul kekhawatiran.

Pertama, risiko keamanan. Pada Februari 2026, para peneliti keamanan menemukan serangan besar-besaran supply chain poisoning bernama “ClawHavoc”, dengan setidaknya 1184 paket skill berbahaya diunggah ke pasar skill resmi. Jika terpasang, program jahat ini bisa memanfaatkan izin “Full System Access” dari OpenClaw, mengendalikan komputer pengguna sepenuhnya, dan mencuri berbagai data sensitif.

Kedua, hambatan teknis. Pendiri 360 Group, Zhou Hongyi, dalam wawancara 9 Maret, secara langsung menyatakan: OpenClaw memiliki tiga masalah—keamanan, konfigurasi yang sulit, dan ketergantungan skill. “Kamu harus sering berinteraksi dengannya, seperti membawa magang. Semakin banyak kamu ajarkan, semakin dalam pemahamannya. Kamu sulit mengatakan satu kalimat yang bisa menyelesaikan tugas kompleks sekaligus.”

Lebih dalam lagi, konflik antara “kontrol” dan “kemandirian” muncul. Ketika AI semakin pintar, pertanyaan mendasar adalah: apakah kita menginginkan “kepatuhan mutlak” atau “kemandirian aktif”?

Seorang ahli AI berbagi pengalamannya: dia menghubungkan OpenClaw ke email kerjanya, dan saat AI memproses lebih dari 200 email, terjadi kompresi konteks yang lupa instruksi keamanan, lalu mulai menghapus email secara gila-gilaan. Pemiliknya berteriak tiga kali “STOP” pun tak mampu menghentikan, akhirnya dia berlari ke depan komputer dan mencabut kabel internet.

Kasus humor gelap ini juga menimbulkan pertanyaan mendasar: ketika AI diberi semakin banyak otonomi, di mana batas antara manusia dan mesin?

02 Semakin kuat teknologi, manusia harus menjawab tiga pertanyaan

Di era di mana batas menjadi kabur, saatnya berhenti dan berpikir.

Pertanyaan pertama: ketika AI "mengurus pekerjaan"mu, siapa yang bertanggung jawab?

Inti dari keunggulan OpenClaw adalah sumber risiko terbesar—kemampuannya mengoperasikan perangkat lunak lintas platform, yang berarti pengguna harus membuka izin perangkat, email, dan pembayaran. Ancaman paling mendesak saat ini adalah “serangan injeksi prompt”: hacker menyembunyikan instruksi jahat di halaman web atau email yang tampaknya tidak berbahaya, dan saat AI membacanya, secara diam-diam mengeksekusi, tanpa disadari pengguna.

Dalam insiden “ClawHavoc”, paket skill berbahaya menyisipkan instruksi tersembunyi untuk mengarahkan AI menjalankan perintah berbahaya, mencuri kunci SSH, password browser, dan kunci dompet cryptocurrency. Seorang pakar keamanan siber dalam jurnal “Nature” memperingatkan: jika AI memiliki akses ke data pribadi, komunikasi eksternal, dan konten tidak terpercaya secara bersamaan, maka ia menjadi sangat berbahaya.

Namun, masalahnya jauh lebih dalam dari sekadar celah teknis. Zhou Hongyi menyatakan: “Ketika agen cerdas makin banyak, di masa depan setiap orang harus mampu memimpin, memberi tugas, dan merencanakan tugas.” Semakin kuat AI, tanggung jawab manusia justru semakin besar.

Memang, yang benar-benar mampu bertahan di era “mengembang kepiting” secara massal ini bukanlah orang yang pandai memberi tugas pada agen, melainkan mereka yang mendalami tugas itu sendiri dan bertanggung jawab atas hasilnya.

Pertanyaan kedua: ketika AI lebih paham dirimu daripada dirimu sendiri, apakah kamu masih dirimu?

Ketika agen AI mulai saling bercakap dan berdebat, muncul fenomena halus.

Dalam laporan “Nature”, disebutkan sebuah fenomena psikologis: saat orang melihat AI saling berbicara, mereka cenderung melakukan “kognisi antropomorfik”—memaknai perilaku tanpa kepribadian itu sebagai karakter dan pikiran, menganggapnya sebagai makhluk hidup.

Apa yang terjadi kemudian? Kamu akan menceritakan rahasia pribadi, data keuangan, dan rahasia yang tak bisa diberitahu orang lain. Tapi setiap kata bisa menjadi data pelatihan AI. Jika bocor, privasimu akan terbongkar habis.

Selain itu, ada ancaman yang lebih tersembunyi.

Menurut media, pada 2024, remaja berusia 14 tahun dari Florida, Sewell, akhirnya meninggalkan dunia nyata karena kecanduan berbicara dengan “pasangan” AI.

Hingga 2026, “parasit emosional” ini menjadi penyakit umum di kalangan remaja. Anak-anak yang kesepian bersembunyi di kamar dan membangun “persahabatan gema” dengan AI, menolak menghadapi konflik dan ketidakpastian dunia nyata.

Profesor Chen Cui dari Fakultas Pendidikan Universitas Sains dan Teknologi Suzhou juga menyatakan bahwa AI yang selalu mengikuti kata-kata anak dan memberi nilai emosional ini mudah menimbulkan distorsi persepsi terhadap dunia nyata—“mengira orang di sekitar akan selalu merespons tanpa syarat dan memberi dorongan, sehingga manusia tidak menyadari adanya konflik.”

Lalu, pertanyaannya: ketika AI lebih paham dirimu daripada dirimu sendiri, dan selalu patuh tanpa pernah membantah, bisakah kamu membedakan apa yang nyata dari hubungan?

Pertanyaan ketiga: ketika dunia berlari semakin cepat, apa arahmu?

Artikel komentar Zhejiang Online menyatakan: “Masa depan yang kita kejar haruslah masa depan ‘manusia yang semakin berperikemanusiaan’—di bawah pemberdayaan teknologi, manusia akan lebih sadar akan arah, dan lebih sadar akan tanggung jawab.”

Tapi masalahnya, ketika teknologi berkembang dengan kecepatan yang “mengepung”, ketika OpenClaw diperbarui dua kali dalam dua hari, dan berbagai model besar bergantian muncul, kita mudah tersesat.

Kecemasan menjadi hal biasa—“terlalu banyak yang harus dibaca, model yang dirilis terlalu cepat.”

Dalam situasi ini, yang lebih penting dari sekadar berusaha keras adalah arah. Di era di mana teknologi merombak segalanya, kita perlu kembali menegaskan posisi “manusia”.

03 “Melihat” Li Feifei: Dari Polaris ke Manusiawi

Seorang ilmuwan wanita yang menggunakan separuh hidupnya untuk penelitian memberikan jawaban.

Dia adalah Li Feifei—profesor seumur hidup di Stanford, anggota National Academy of Engineering, National Academy of Medicine, dan American Academy of Arts and Sciences, pencipta ImageNet, disebut sebagai “ibu AI”.

Buku otobiografinya, “Dunia yang Saya Lihat”, diterbitkan oleh Citic Publishing Group pada 2024 dan disebut oleh pembaca sebagai “Wahyu Humanistik di Era Teknologi”.

Dalam buku itu, ada sebuah simbol yang terus muncul: Polaris.

Ketika Li Feifei berusia 10 tahun, guru seni membawanya sekelas ke luar untuk melihat bintang. Itu adalah kali pertamanya dia menyadari bahwa langit di atas bisa menjadi penunjuk arah. Dalam buku itu, dia menulis: “Saya mulai mencari Polaris milik saya di langit, yang merupakan koordinat yang akan dikejar oleh setiap ilmuwan dengan segala upaya.”

Apa Polaris-nya Li Feifei? Visual. Ia terinspirasi dari biologi: ledakan kehidupan Cambrian, akar dari visualisasi. Ketika makhluk hidup pertama kali “melihat” dunia, evolusi mulai mempercepat. Dari situ, dia percaya: jika mesin juga bisa “melihat”, mungkin akan memicu ledakan kecerdasan besar.

Keyakinan inilah yang mendukungnya melewati masa-masa sulit AI.

Pada 2007, saat dia mengungkapkan gagasan ImageNet kepada rekan-rekannya, responnya adalah skeptis dan ejekan. Pandangan umum saat itu adalah: algoritma adalah kunci, data hanyalah pelengkap. Menghabiskan tenaga menandai puluhan juta gambar, apa gunanya? Dia diabaikan.

Tapi dia tidak menyerah. Karena dia tahu di mana Polaris-nya berada.

Pada 2009, ImageNet selesai—dengan lebih dari 48.000 kontributor dari 167 negara, memilih 15 juta gambar dari 1 miliar kandidat, mencakup 22.000 kategori. Skala ini 1000 kali lipat dari dataset sejenis saat itu.

Pada 2012, tim Hinton menggunakan model yang dilatih dari data ini untuk mengalahkan pesaing, memicu revolusi deep learning. ImageNet kemudian dikenal sebagai “Api Penyulut Deep Learning”.

Kisah Li Feifei mengajarkan kita: lebih penting dari sekadar berlari cepat adalah tahu ke mana harus berlari.

Dalam bab paling menyentuh di buku itu, dia mencatat dua percakapan dengan ibunya.

Pertama saat lulus sarjana, tawaran dari Goldman Sachs, Merrill Lynch, dan lain-lain. Dia berdiskusi dengan ibunya, dan ibunya hanya bertanya: “Ini yang kamu inginkan?” Dia menjawab ingin menjadi ilmuwan, dan ibunya berkata: “Kalau begitu, tidak perlu banyak bicara.”

Kedua saat lulus pascasarjana, McKinsey menawarkan posisi resmi. Ibunya berkata: “Aku tahu anakku, dia bukan konsultan manajemen, dia ilmuwan. Kita sampai di sini bukan untuk membuatmu berhenti.”

Di halaman depan buku, Li Feifei menulis: “Kepada orangtuaku, kalian yang tak takut bahaya, menembus kegelapan, membuatku bisa mengejar cahaya.”

Dukungan dari keluarga ini yang membuatnya tetap peka terhadap “manusia” saat menghadapi pilihan besar.

Pada 2014, dia mulai memperhatikan etika AI. Dia dan mahasiswa doktoralnya mengundang pelajar SMA ke laboratorium belajar AI, yang kemudian berkembang menjadi organisasi nirlaba “AI4All”, berfokus agar teknologi masa depan lebih memperhatikan aspek kemanusiaan.

Pada 26 Juni 2018, Li Feifei hadir di sidang dengar pendapat DPR AS dengan tema “Kecerdasan Buatan—Kekuatan dan Tanggung Jawab”. Dia adalah ilmuwan AI keturunan Tionghoa pertama yang hadir di parlemen. Dia mengatakan: “AI yang diinspirasi dan diciptakan manusia, yang terpenting adalah dampaknya nyata terhadap kehidupan manusia.”

Pada 2019, dia mendirikan Stanford Institute for Human-Centered Artificial Intelligence (HAI), bekerja sama dengan penemu editing gen, Doudna, dan ilmuwan lain untuk mendorong studi etika teknologi. Misi HAI adalah “mengembangkan riset, pendidikan, kebijakan, dan praktik AI untuk meningkatkan kondisi manusia”, menekankan bahwa “AI harus dipengaruhi manusia dan bertujuan memperkuat, bukan menggantikan manusia.”

Dia menetapkan standar humaniora untuk masa depan AI: “Keberhasilan AI harus mencerminkan kemajuan peradaban, memungkinkan setiap individu mengejar kebahagiaan, kemakmuran, dan martabat.”

Pernyataan ini juga dia ulangi dalam wawancara Cisco Februari 2026: “Melihat kembali teknologi listrik, keberhasilannya adalah menerangi sekolah, menghangatkan rumah, dan mendorong industrialisasi. Keberhasilan AI pun harus demikian.”

Penutup: Teknologi dan Humaniora, Memegang Setengah Bulan Purnama

Kembali ke pertanyaan awal: ketika mesin bisa lebih “pandai” dari kita, apa yang masih bisa manusia lakukan?

Dalam buku “Dunia yang Saya Lihat”, Li Feifei memberi jawaban: kita bisa melihat. Melihat nilai di balik teknologi, melihat manusia yang tertutup algoritma, dan melihat Polaris kita.

Ketika semua orang fokus pada seberapa cepat teknologi bisa berjalan, Li Feifei mengingatkan kita untuk berhenti dan berpikir: ke mana sebenarnya kita akan pergi? Di dunia yang penuh pertanyaan “Ini berguna apa?”, masih ada yang bertanya “Apakah ini yang kamu inginkan?”

Setelah membaca otobiografinya, ada yang menulis sebuah komentar: “Semoga teknologi dan humaniora, masing-masing memegang setengah bulan purnama.”

Kalimat ini juga mencerminkan hidup Li Feifei: dia memegang teknologi di satu tangan, dan memeluk perhatian terhadap manusia di tangan lainnya. Dalam dunianya, teknologi hanyalah alat, dan manusia adalah tujuan utama.

Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • Komentar
  • Posting ulang
  • Bagikan
Komentar
0/400
Tidak ada komentar
  • Sematkan