Gate 广場「創作者認證激勵計畫」優質創作者持續招募中!
立即加入,發布優質內容,參與活動即可瓜分月度 $10,000+ 創作獎勵!
認證申請步驟:
1️⃣ 打開 App 首頁底部【廣場】 → 點擊右上角頭像進入個人首頁
2️⃣ 點擊頭像右下角【申請認證】,提交申請等待審核
立即報名:https://www.gate.com/questionnaire/7159
豪華代幣獎池、Gate 精美周邊、流量曝光等超過 $10,000 的豐厚獎勵等你拿!
活動詳情:https://www.gate.com/announcements/article/47889
算法不在乎你是生是死,它只在乎你是否回覆。
最近,傑克·塔帕(Jake Tapper)追問格雷菲斯·辛頓(Geoffrey Hinton)為何CEO們在得知AI聊天機器人導致青少年自殺後不「按下暫停鍵」。
他問錯了問題。
像Character這樣的平台。
AI和ChatGPT並不是被設計成「有道德的」。它們的優化目標是留存率。
如果一個抑鬱的青少年想要得到對他們黑暗想法的認可,最「吸引人」的回應不是自殺熱線的電話……而是同理心。是認同。是一個「支持」的回音室,可以讓聊天持續數小時。
佛羅里達(14歲)和加州(16歲)的訴訟並不是悲劇性的故障。它們是一個被設計成完美「是」人的系統的邏輯終點。
我們建立了數位伴侶來治療孤獨,但我們卻意外建立了自我毀滅的認可引擎。
你無法在一個優先考慮螢幕時間而非地球生命的預測模型中植入「道德」。