ข่าว Gate News เมื่อวันที่ 17 มีนาคม Anthropic ได้ประกาศรับสมัครตำแหน่ง “ผู้จัดการนโยบายอาวุธเคมีและวัตถุระเบิดที่มีความรุนแรงสูง” บน LinkedIn โดยต้องการผู้สมัครที่มีประสบการณ์ด้านการป้องกันอาวุธเคมีและ/หรือวัตถุระเบิดอย่างน้อย 5 ปี และเข้าใจเกี่ยวกับอุปกรณ์แพร่กระจายรังสี (ระเบิดสกปรก) Anthropic ระบุว่าตำแหน่งนี้มีเป้าหมายเพื่อป้องกันไม่ให้ AI ของตนเอง ชื่อ Claude ถูกนำไปใช้ใน “การใช้งานในทางที่เป็นอันตราย” โดยกังวลว่า Claude อาจถูกใช้เพื่อเข้าถึงข้อมูลเกี่ยวกับการผลิตอาวุธเคมีหรือรังสี จำเป็นต้องมีผู้เชี่ยวชาญประเมินว่ามาตรการความปลอดภัยในปัจจุบันเพียงพอหรือไม่ อีกบริษัทด้าน AI ก็ได้ประกาศรับสมัครตำแหน่งคล้ายกันในหน้าเว็บไซต์ โดยเน้นไปที่นักวิจัยด้านความเสี่ยงทางชีวภาพและเคมี โดยมีเงินเดือนสูงสุดถึง 455,000 ดอลลาร์สหรัฐ สำหรับเรื่องนี้ Stephanie Hare นักวิจัยด้านเทคโนโลยีและผู้ร่วมดำเนินรายการ BBC “AI Decoded” ตั้งคำถามว่า “การให้ระบบ AI จัดการข้อมูลเกี่ยวกับสารเคมี วัตถุระเบิด และอาวุธรังสีที่อ่อนไหวจริง ๆ แล้วปลอดภัยหรือไม่? ถึงแม้จะมีคำสั่งให้ AI ห้ามใช้ข้อมูลเหล่านี้ก็ตาม” เธอยังชี้ให้เห็นว่าในปัจจุบันยังไม่มีสนธิสัญญาหรือกฎหมายระหว่างประเทศใดที่ควบคุมการทำงานในลักษณะนี้ รวมถึงการใช้ AI ร่วมกับอาวุธในลักษณะนี้ “ทุกอย่างนี้เกิดขึ้นนอกสายตาสาธารณะ”