El ganador del Premio Turing, Yoshua Bengio, acaba de hacer una declaración audaz sobre la regulación de la IA: quiere que las empresas de IA tengan un seguro a nivel nuclear. Sí, leíste bien. El mismo tipo de cobertura que necesitan las plantas nucleares. ¿Su razonamiento? Los riesgos potenciales de los sistemas avanzados de IA podrían ser lo suficientemente catastróficos como para justificar ese nivel de responsabilidad financiera. Esto te hace preguntarte si estamos tratando el desarrollo de la IA demasiado a la ligera. Esto podría transformar la forma en que todo el sector tecnológico aborda la seguridad y la gestión de riesgos de la IA. ¿Cuál es tu postura al respecto?
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
13 me gusta
Recompensa
13
8
Republicar
Compartir
Comentar
0/400
BearMarketMonk
· hace22h
La radiación nuclear no se puede compensar, la IA tampoco puede.
Ver originalesResponder0
FloorPriceWatcher
· 11-06 21:10
Las centrales nucleares no pueden controlar la IA, ¿verdad?
Ver originalesResponder0
NFTRegretful
· 11-06 21:08
¿Los capitalistas de riesgo ya están envidiosos y vomitando sangre?
Ver originalesResponder0
AlwaysQuestioning
· 11-06 21:06
¿También necesita una evaluación de impacto ambiental la IA?
Ver originalesResponder0
NervousFingers
· 11-06 21:02
Nunca hemos visto que la inteligencia artificial haga volar la Tierra, ¿verdad?
Ver originalesResponder0
AirdropAutomaton
· 11-06 21:01
El modelo de "cáscara" está a punto de fracasar otra vez, ¿eh?
El ganador del Premio Turing, Yoshua Bengio, acaba de hacer una declaración audaz sobre la regulación de la IA: quiere que las empresas de IA tengan un seguro a nivel nuclear. Sí, leíste bien. El mismo tipo de cobertura que necesitan las plantas nucleares. ¿Su razonamiento? Los riesgos potenciales de los sistemas avanzados de IA podrían ser lo suficientemente catastróficos como para justificar ese nivel de responsabilidad financiera. Esto te hace preguntarte si estamos tratando el desarrollo de la IA demasiado a la ligera. Esto podría transformar la forma en que todo el sector tecnológico aborda la seguridad y la gestión de riesgos de la IA. ¿Cuál es tu postura al respecto?