Dari Risiko Menuju Tanggung Jawab: Ahmad Shadid tentang Membangun Alur Kerja Pengembangan Berbantuan AI yang Aman

Secara Singkat

“Vibe coding” sedang berkembang pesat, tetapi para ahli memperingatkan bahwa alat tradisional menimbulkan risiko keamanan dan kerahasiaan untuk kode perusahaan, menyoroti perlunya solusi “AI rahasia” yang dienkripsi dan didukung perangkat keras.

From Risk To Responsibility: Ahmad Shadid On Building Secure AI-Assisted Development Workflows

Dalam beberapa bulan terakhir, “vibe coding”—sebuah alur kerja berbasis AI di mana pengembang memanfaatkan model bahasa besar (LLMs) dan alat agenik untuk menghasilkan dan menyempurnakan perangkat lunak—telah mendapatkan perhatian. Pada saat yang sama, beberapa laporan industri menyoroti bahwa meskipun kode yang dihasilkan AI menawarkan kecepatan dan kenyamanan, sering kali memperkenalkan risiko keamanan dan rantai pasokan yang serius.

Penelitian Veracode menemukan bahwa hampir setengah dari kode yang dihasilkan oleh LLM mengandung kerentanan kritis, dengan model AI sering menghasilkan implementasi yang tidak aman dan mengabaikan masalah seperti celah injeksi atau otentikasi yang lemah kecuali secara eksplisit diminta. Sebuah studi akademik terbaru juga mencatat bahwa “keterampilan” AI modular dalam sistem berbasis agen dapat membawa kerentanan yang dapat memungkinkan eskalasi hak istimewa atau mengekspos rantai pasokan perangkat lunak.

Selain output yang tidak aman, ada risiko kerahasiaan sistemik yang sering diabaikan. Asisten pengkodean AI saat ini memproses kode internal yang sensitif dan kekayaan intelektual dalam lingkungan cloud bersama, di mana penyedia atau operator dapat mengakses data selama inferensi. Hal ini menimbulkan kekhawatiran tentang eksposur kode produksi milik perusahaan secara besar-besaran, yang merupakan masalah besar bagi pengembang individu dan perusahaan besar.

Apa yang terjadi pada kode perusahaan yang sensitif dalam asisten pengkodean AI, dan mengapa ini berisiko?

Sebagian besar alat pengkodean saat ini hanya dapat melindungi data sampai tingkat tertentu. Kode perusahaan biasanya dienkripsi saat dikirim ke server penyedia, biasanya melalui TLS. Tetapi setelah kode tiba di server tersebut, kode didekripsi di memori agar model dapat membacanya dan memprosesnya. Pada titik itu, detail sensitif seperti logika kepemilikan, API internal, dan detail keamanan disajikan dalam teks biasa di sistem. Dan di situlah risiko berada.

Kode tersebut mungkin melewati log internal, memori sementara, atau sistem debugging yang sulit dilihat atau diaudit oleh pelanggan saat sedang didekripsi. Bahkan jika penyedia menjamin tidak menyimpan data, eksposur tetap terjadi selama proses, dan jendela singkat itu cukup untuk menciptakan titik buta. Bagi perusahaan, ini menciptakan risiko potensial yang mengekspos kode sensitif untuk penyalahgunaan tanpa kontrol kepemilikan.

Mengapa Anda percaya alat pengkodean AI arus utama secara fundamental tidak aman untuk pengembangan perusahaan?

Sebagian besar alat pengkodean AI yang populer tidak dibangun untuk model risiko perusahaan; mereka hanya mengoptimalkan kecepatan dan kenyamanan karena mereka dilatih sebagian besar pada repositori publik yang mengandung kerentanan yang diketahui, pola usang, dan default yang tidak aman. Akibatnya, kode yang mereka hasilkan biasanya menunjukkan kerentanan kecuali melalui pemeriksaan dan koreksi menyeluruh.

Lebih penting lagi, alat ini beroperasi tanpa struktur tata kelola formal, sehingga mereka tidak benar-benar menegakkan standar keamanan internal pada tahap awal, dan ini menciptakan ketidaksesuaian antara cara perangkat lunak diprogram dan cara perangkat lunak tersebut kemudian diaudit atau dilindungi. Ini akhirnya menyebabkan tim terbiasa bekerja dengan output yang hampir tidak mereka pahami, sementara keamanan secara diam-diam meningkat. Kombinasi kurangnya transparansi dan implikasi teknis ini membuat dukungan standar hampir tidak mungkin bagi organisasi yang beroperasi di domain yang mengutamakan keselamatan.

Jika penyedia tidak menyimpan atau melatih kode pelanggan, mengapa itu tidak cukup, dan jaminan teknis apa yang diperlukan?

Menjamin kebijakan sangat berbeda dari jaminan teknis. Data pengguna tetap didekripsi dan diproses selama perhitungan, bahkan ketika penyedia menjamin tidak akan menyimpan data tersebut. Log sementara selama proses debugging masih dapat menciptakan jalur kebocoran yang kebijakan tidak mampu cegah atau buktikan demi keamanan. Dari sudut pandang risiko, kepercayaan tanpa verifikasi tidak cukup.

Perusahaan sebaiknya fokus pada janji yang dapat ditegakkan di tingkat infrastruktur. Ini termasuk lingkungan komputasi rahasia di mana kode tidak hanya dienkripsi saat dikirim tetapi juga saat digunakan. Contoh yang sangat baik adalah lingkungan eksekusi terpercaya berbasis perangkat keras, yang menciptakan lingkungan terenkripsi di mana bahkan operator infrastruktur tidak dapat mengakses kode sensitif. Model memproses data dalam lingkungan aman ini, dan attestasi jarak jauh memungkinkan perusahaan secara kriptografis memverifikasi bahwa langkah-langkah keamanan ini aktif.

Mekanisme seperti ini harus menjadi persyaratan dasar, karena mereka mengubah privasi menjadi properti yang dapat diukur dan bukan sekadar janji.

Apakah menjalankan AI di tempat atau di cloud pribadi sepenuhnya menyelesaikan risiko kerahasiaan?

Menjalankan AI di cloud pribadi membantu mengurangi beberapa risiko, tetapi tidak menyelesaikan masalahnya. Data masih sangat terlihat dan rentan saat diproses kecuali perlindungan tambahan diterapkan. Akibatnya, akses internal, pengaturan yang buruk, dan pergerakan di dalam jaringan masih dapat menyebabkan kebocoran.

Perilaku model adalah kekhawatiran lain. Meskipun sistem pribadi mencatat input atau menyimpan data untuk pengujian, tanpa isolasi yang kuat, risiko ini tetap ada. Tim bisnis masih membutuhkan pemrosesan terenkripsi. Mengimplementasikan kontrol akses berbasis perangkat keras dan menetapkan batasan yang jelas pada penggunaan data sangat penting untuk melindungi data secara aman. Jika tidak, mereka hanya menghindari risiko tetapi tidak menyelesaikannya.

Apa arti “AI rahasia” sebenarnya untuk alat pengkodean?

AI rahasia mengacu pada sistem yang mengelola keamanan data selama perhitungan. Ini memungkinkan data diproses dalam enclave terisolasi, seperti lingkungan eksekusi terpercaya berbasis perangkat keras, tetapi dalam teks biasa agar model dapat bekerja dengannya. Penegakan isolasi perangkat keras kemudian memastikan data tidak dapat diakses oleh operator platform, sistem operasi host, atau pihak eksternal mana pun, sambil juga menyediakan privasi yang dapat diverifikasi secara kriptografis, tanpa mempengaruhi kapasitas fungsional AI.

Ini secara lengkap mengubah model kepercayaan untuk platform pengkodean, karena memungkinkan pengembang menggunakan AI tanpa mengirim logika kepemilikan ke sistem bersama atau publik. Proses ini juga meningkatkan akuntabilitas yang jelas karena batas akses dibangun oleh perangkat keras daripada kebijakan. Beberapa teknologi bahkan menggabungkan komputasi terenkripsi dengan pelacakan historis, sehingga output dapat diverifikasi tanpa mengungkap input.

Meskipun istilah ini terdengar abstrak, implikasinya sederhana: bantuan AI tidak lagi mengharuskan bisnis mengorbankan kerahasiaan demi efektivitas.

Apa trade-off atau keterbatasan menggunakan AI rahasia saat ini?

Trade-off terbesar saat ini adalah kecepatan. Sistem AI yang diisolasi dalam lingkungan eksekusi terpercaya mungkin mengalami sedikit penundaan dibandingkan struktur yang tidak terlindungi, hanya karena enkripsi memori tingkat perangkat keras dan verifikasi attestasi. Kabar baiknya adalah perangkat keras yang lebih baru secara bertahap menutup celah ini.

Selain itu, lebih banyak pengaturan dan perencanaan yang tepat diperlukan, karena sistem harus beroperasi dalam lingkungan yang lebih ketat. Biaya juga harus dipertimbangkan. AI rahasia sering membutuhkan perangkat keras khusus—seperti chip khusus NVIDIA H100 dan H200, misalnya—dan alat, yang dapat meningkatkan biaya awal. Tetapi biaya tersebut harus diseimbangkan dengan potensi kerusakan yang dapat terjadi akibat kebocoran kode atau ketidakpatuhan terhadap regulasi.

AI rahasia belum menjadi persyaratan sistem universal, jadi tim harus menggunakannya di tempat di mana privasi dan akuntabilitas paling penting. Banyak dari keterbatasan ini akan teratasi.

Apakah Anda mengharapkan regulator atau standar segera mewajibkan alat AI untuk menjaga semua data terenkripsi selama proses?

Kerangka regulasi seperti EU AI Act dan U.S. NIST AI Risk Management Framework sudah sangat menekankan manajemen risiko, perlindungan data, dan akuntabilitas untuk sistem AI berdampak tinggi. Seiring berkembangnya kerangka ini, sistem yang secara desain mengekspos data sensitif menjadi semakin sulit dibenarkan di bawah harapan tata kelola yang sudah ada.

Kelompok standar juga sedang membangun fondasi dengan menetapkan aturan yang lebih jelas tentang bagaimana AI harus menangani data selama penggunaan. Aturan ini mungkin berbeda kecepatan di berbagai wilayah. Namun, perusahaan harus mengharapkan tekanan yang lebih besar terhadap sistem yang memproses data dalam teks biasa. Dengan demikian, AI rahasia kurang tentang menebak masa depan dan lebih tentang menyesuaikan dengan arah regulasi yang sudah ada.

Seperti apa “vibe coding bertanggung jawab” saat ini bagi pengembang dan pemimpin TI?

Vibe coding yang bertanggung jawab secara sederhana adalah tetap bertanggung jawab atas setiap baris kode, mulai dari meninjau saran AI hingga memvalidasi implikasi keamanan, serta mempertimbangkan setiap kasus tepi dalam setiap program. Bagi organisasi, ini membutuhkan definisi kebijakan yang jelas tentang persetujuan alat tertentu dan jalur aman untuk kode sensitif, sambil memastikan tim memahami kekuatan dan batasan bantuan AI.

Bagi regulator dan pemimpin industri, tugasnya adalah merancang aturan yang jelas untuk memungkinkan tim dengan mudah mengidentifikasi alat yang diizinkan dan di mana mereka dapat digunakan. Data sensitif hanya boleh masuk ke sistem yang mematuhi persyaratan privasi dan kepatuhan, sambil melatih operator dan pengguna untuk memahami kekuatan dan keterbatasan AI. AI menghemat usaha dan waktu jika digunakan dengan baik, tetapi juga membawa risiko mahal jika digunakan secara ceroboh.

Melihat ke depan, bagaimana Anda membayangkan evolusi asisten pengkodean AI terkait keamanan?

Alat pengkodean AI akan berkembang dari sekadar rekomendasi menjadi memverifikasi kode saat ditulis sambil mematuhi aturan, perpustakaan yang diotorisasi, dan batasan keamanan secara real time.

Keamanan, sebagaimana pentingnya, juga akan dibangun lebih dalam ke dalam cara alat ini berjalan dengan merancang eksekusi terenkripsi dan catatan pengambilan keputusan yang jelas sebagai fitur standar. Seiring waktu, ini akan mengubah asisten AI dari risiko menjadi alat pendukung untuk pengembangan yang aman. Sistem terbaik akan menjadi yang menggabungkan kecepatan dengan kontrol. Dan kepercayaan akan ditentukan oleh bagaimana alat tersebut bekerja, bukan oleh janji pembuatnya.

ON2,35%
Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • Komentar
  • Posting ulang
  • Bagikan
Komentar
0/400
Tidak ada komentar
  • Sematkan

Perdagangkan Kripto Di Mana Saja Kapan Saja
qrCode
Pindai untuk mengunduh aplikasi Gate
Komunitas
Bahasa Indonesia
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)