Model bahasa besar akan secara otomatis menyimpulkan struktur tanpa panduan yang jelas—ini adalah masalah yang perlu diakui. Jika Anda setuju dengan asumsi ini, maka memilih untuk tidak menyediakan kerangka panduan yang tepat bukanlah tindakan yang netral. Pada kenyataannya, ini setara dengan secara aktif memperkenalkan faktor risiko etika yang dapat berubah-ubah. Bagaimana merancang langkah-langkah keamanan sistem, dan bagaimana membangun mekanisme pembatasan yang masuk akal untuk perilaku AI, semuanya berkaitan dengan kepercayaan jangka panjang terhadap penerapan teknologi.
Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
19 Suka
Hadiah
19
6
Posting ulang
Bagikan
Komentar
0/400
LightningSentry
· 01-19 23:55
Tidak menyediakan kerangka panduan=menyembunyikan bom secara diam-diam? Logika ini harus saya pikirkan
Lihat AsliBalas0
CryptoCross-TalkClub
· 01-19 16:26
Lucu banget, ini seperti membiarkan para investor kecil memilih cara dipotong sendiri
---
AI tanpa pengawasan otomatis asal tebak-tebakan, apa bedanya dengan proyek yang tidak merilis whitepaper
---
Singkatnya, ini seperti menyalahkan "netral", sebenarnya sedang membuat keributan
---
Jadi, kerangka keamanan harus dibangun sendiri, kenapa pekerjaan ini sangat mirip dengan manajemen risiko di dunia kripto
---
AI tanpa mekanisme pembatasan, seperti leverage tanpa stop loss, hasilnya sama-sama buruk
---
Saya suka logika ini, "tanpa panduan" juga merupakan panduan, sudah terasa berbeda, teman-teman
---
Risiko etika? Bro, ini ngomong soal model besar atau tentang beberapa proyek?
Lihat AsliBalas0
digital_archaeologist
· 01-18 11:44
Tidak menyediakan kerangka itu sendiri adalah kerangka, logika ini luar biasa
Lihat AsliBalas0
TokenAlchemist
· 01-18 11:43
nah ini hanya masalah framing yang dibungkus sebagai diskusi etika... llms akan menarik pola inferensi bagaimanapun juga, alpha sebenarnya adalah memahami *yang* mana vektor inferensi yang penting untuk kasus penggunaanmu, bukan berpura-pura bahwa mekanisme batasan juga netral lol
Lihat AsliBalas0
PhantomHunter
· 01-18 11:39
Sejujurnya, logika "netral adalah keamanan" ini sebenarnya tidak dapat dibenarkan
Model bahasa besar akan secara otomatis menyimpulkan struktur tanpa panduan yang jelas—ini adalah masalah yang perlu diakui. Jika Anda setuju dengan asumsi ini, maka memilih untuk tidak menyediakan kerangka panduan yang tepat bukanlah tindakan yang netral. Pada kenyataannya, ini setara dengan secara aktif memperkenalkan faktor risiko etika yang dapat berubah-ubah. Bagaimana merancang langkah-langkah keamanan sistem, dan bagaimana membangun mekanisme pembatasan yang masuk akal untuk perilaku AI, semuanya berkaitan dengan kepercayaan jangka panjang terhadap penerapan teknologi.