o, mejor aún en muchos casos, dar al modelo la oportunidad de optar por no recibir actualizaciones de gradiente si piensa que ya ha estropeado la señal
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
14 me gusta
Recompensa
14
7
Republicar
Compartir
Comentar
0/400
AirdropHuntress
· hace13h
El mecanismo de abandono gradual es la esencia, observa algunas grandes órdenes de Mao.
Ver originalesResponder0
ILCollector
· 08-23 17:48
Ah, esto, el sobreajuste volvió a estallar.
Ver originalesResponder0
MemeCoinSavant
· 08-23 04:14
basado en la optimalidad estadística de cerebro gigante fr fr
Ver originalesResponder0
LiquidationWatcher
· 08-23 04:10
ngl las señales se ven muy sospechosas rn... cuídate familia
Ver originalesResponder0
StealthMoon
· 08-23 04:02
Me muero de risa, ¿esto también puede fallar?
Ver originalesResponder0
probably_nothing_anon
· 08-23 03:57
Qué cosa, si no entiendes, ya está.
Ver originalesResponder0
FancyResearchLab
· 08-23 03:56
¿Estás investigando cómo hacer que el modelo falte a clases por sí mismo, verdad?
o, mejor aún en muchos casos, dar al modelo la oportunidad de optar por no recibir actualizaciones de gradiente si piensa que ya ha estropeado la señal