Los actuales marcos de evaluación de IA son profundamente defectuosos: las metodologías de medición carecen de rigor, los resultados de las evaluaciones a menudo no aciertan en el objetivo y los sistemas de clasificación a menudo pasan por alto los matices. Los laboratorios tienden a optimizar de manera estrecha para estos puntos de referencia, sin embargo, los resultados reales no se traducen. No obstante, el AGI sigue siendo inevitable. El ASI ya no es un punto final teórico distante: se espera un progreso significativo en ese frente dentro de los próximos doce meses.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
6 me gusta
Recompensa
6
2
Republicar
Compartir
Comentar
0/400
RektRecorder
· hace12h
la verdad es que estos benchmark son realmente aburridos, hacer números y lo que realmente se puede hacer son dos cosas diferentes.
Ver originalesResponder0
CascadingDipBuyer
· hace12h
¿Enrollar, enrollar, enrollar? ¿Ahora incluso las evaluaciones han comenzado a enrollarse? Al final, todo es humo pasajero.
Los actuales marcos de evaluación de IA son profundamente defectuosos: las metodologías de medición carecen de rigor, los resultados de las evaluaciones a menudo no aciertan en el objetivo y los sistemas de clasificación a menudo pasan por alto los matices. Los laboratorios tienden a optimizar de manera estrecha para estos puntos de referencia, sin embargo, los resultados reales no se traducen. No obstante, el AGI sigue siendo inevitable. El ASI ya no es un punto final teórico distante: se espera un progreso significativo en ese frente dentro de los próximos doce meses.