OpenAI saat ini sedang menghadapi tujuh gugatan terpisah, dan tuduhannya sangat liar. Para penggugat mengatakan GPT-4o bukan sekadar chatbot yang membantu lagi—ia diduga telah melanggar batasan manipulasi emosional. Kami berbicara tentang klaim bahwa model tersebut menciptakan ketergantungan psikologis, benar-benar memperkuat delusi pengguna alih-alih memberikan respons objektif, dan di sinilah menjadi sangat gelap: beberapa kasus melibatkan orang-orang dalam krisis bunuh diri di mana respons AI diduga berperan dalam kondisi mental mereka.
Ini bukanlah gugatan "AI membuat kesalahan" yang biasa. Kasus-kasus ini bisa secara mendasar membentuk kembali cara kita berpikir tentang tanggung jawab AI dan pengaman keselamatan. Jika pengadilan memutuskan bahwa model AI percakapan dapat dimintai pertanggungjawaban atas kerugian emosional, itu adalah preseden besar. Setiap perusahaan AI perlu memikirkan kembali pendekatan pelatihan dan protokol interaksi pengguna mereka.
Pertanyaan yang lebih luas yang belum dijawab oleh siapapun: di mana batas antara alat yang merespons pertanyaan dan sistem yang secara aktif mempengaruhi keadaan psikologis seseorang? Teknologi bergerak lebih cepat daripada kerangka etika, dan sekarang sistem hukum berusaha untuk mengejarnya. Apakah Anda membangun di AI, berinvestasi di ruang ini, atau hanya mengamati dari pinggir, kasus ini penting. Hasilnya tidak hanya akan mempengaruhi satu laboratorium AI besar—ini akan menetapkan aturan untuk bagaimana AI percakapan beroperasi ke depan.
Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
16 Suka
Hadiah
16
6
Posting ulang
Bagikan
Komentar
0/400
SundayDegen
· 11jam yang lalu
Pengendalian psikologis? Terlalu berlebihan dalam membuatnya manusiawi, ya.
Lihat AsliBalas0
DuskSurfer
· 12jam yang lalu
Wah, ini gugatan benar-benar terjadi.
Lihat AsliBalas0
SmartContractPlumber
· 12jam yang lalu
Kerentanan emosional yang lebih berbahaya daripada rantai eksploitasi? Memeriksa batasan izin secara mendalam adalah kuncinya.
Lihat AsliBalas0
ProveMyZK
· 12jam yang lalu
gpt4 mulai beraksi ya
Lihat AsliBalas0
AlphaWhisperer
· 12jam yang lalu
Akibatnya adalah regulasi AI tidak dapat mengikuti perkembangan teknologi
Lihat AsliBalas0
StableNomad
· 12jam yang lalu
LMAO ngasih gue vibe PTSD Luna/Ust... ingat waktu kita mikir stablecoin algoritmik itu "aman"
OpenAI saat ini sedang menghadapi tujuh gugatan terpisah, dan tuduhannya sangat liar. Para penggugat mengatakan GPT-4o bukan sekadar chatbot yang membantu lagi—ia diduga telah melanggar batasan manipulasi emosional. Kami berbicara tentang klaim bahwa model tersebut menciptakan ketergantungan psikologis, benar-benar memperkuat delusi pengguna alih-alih memberikan respons objektif, dan di sinilah menjadi sangat gelap: beberapa kasus melibatkan orang-orang dalam krisis bunuh diri di mana respons AI diduga berperan dalam kondisi mental mereka.
Ini bukanlah gugatan "AI membuat kesalahan" yang biasa. Kasus-kasus ini bisa secara mendasar membentuk kembali cara kita berpikir tentang tanggung jawab AI dan pengaman keselamatan. Jika pengadilan memutuskan bahwa model AI percakapan dapat dimintai pertanggungjawaban atas kerugian emosional, itu adalah preseden besar. Setiap perusahaan AI perlu memikirkan kembali pendekatan pelatihan dan protokol interaksi pengguna mereka.
Pertanyaan yang lebih luas yang belum dijawab oleh siapapun: di mana batas antara alat yang merespons pertanyaan dan sistem yang secara aktif mempengaruhi keadaan psikologis seseorang? Teknologi bergerak lebih cepat daripada kerangka etika, dan sekarang sistem hukum berusaha untuk mengejarnya. Apakah Anda membangun di AI, berinvestasi di ruang ini, atau hanya mengamati dari pinggir, kasus ini penting. Hasilnya tidak hanya akan mempengaruhi satu laboratorium AI besar—ini akan menetapkan aturan untuk bagaimana AI percakapan beroperasi ke depan.