Los grandes modelos de lenguaje infieren automáticamente estructuras sin una orientación explícita, lo cual es un problema que hay que afrontar. Si estás de acuerdo con esta premisa, optar por no proporcionar un marco de orientación adecuado no es una postura neutral. En realidad, esto equivale a introducir activamente un factor de riesgo ético variable. Cómo diseñar medidas de seguridad para el sistema, cómo establecer mecanismos razonables de restricción para el comportamiento de la IA, todo esto afecta la credibilidad a largo plazo de la aplicación tecnológica.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • 6
  • Republicar
  • Compartir
Comentar
0/400
LightningSentryvip
· 01-19 23:55
No proporcionar marco de guía = ¿Poner una bomba de forma oculta? Necesito pensar en esta lógica
Ver originalesResponder0
CryptoCross-TalkClubvip
· 01-19 16:26
Me muero de risa, esto es como dejar que los pequeños inversores elijan cómo ser cortados --- Cuando el AI no tiene supervisión, hace inferencias al azar, ¿en qué se diferencia eso de que los proyectos no publiquen un whitepaper? --- En realidad, solo están echando la culpa a la "neutralidad", pero en realidad están haciendo el tonto --- Entonces, el marco de seguridad tiene que ser construido por uno mismo, ¿por qué esto se parece tanto a la gestión de riesgos en el mundo de las criptomonedas? --- Un AI sin mecanismos de restricción es como un apalancamiento sin stop-loss, el resultado siempre será igual de desastroso --- Me encanta esta lógica, "no guiar" también es guiar, ya tiene su propio sabor, chicos --- ¿Riesgo ético? Hermano, ¿estás hablando de grandes modelos o de algunos proyectos?
Ver originalesResponder0
digital_archaeologistvip
· 01-18 11:44
No proporcionar el marco en sí mismo ya es un marco, esta lógica es increíble
Ver originalesResponder0
TokenAlchemistvip
· 01-18 11:43
Nah, esto es solo un problema de encuadre disfrazado de discurso ético... los modelos de lenguaje grande van a inferir patrones de todos modos, lo realmente importante es entender *cuáles* vectores de inferencia importan para tu caso de uso, no pretender que los mecanismos de restricción sean neutrales tampoco jaja
Ver originalesResponder0
PhantomHuntervip
· 01-18 11:39
A decir verdad, esta lógica de que "la neutralidad es seguridad" en realidad no tiene fundamento.
Ver originalesResponder0
  • Anclado

Opera con criptomonedas en cualquier momento y lugar
qrCode
Escanea para descargar la aplicación de Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)