Potentiellement il a des valeurs négatives et il vaudrait mieux prendre abs(correct(i)-output(i)) pour vraiment avoir une erreur
Sigma peut aussi désigner une douce fonction du nom de sigmoïde qui s'utilise pas mal en machine learning en fonction du problème à résoudre
Enfin en machine learning on cherche à propager l'erreur aux couches de neurones précédents pour qu'elles apprennent tout autant que les suivantes si je ne dis pas de bêtises (on corrige une fois que tout est propagé)
<captain rolls away>
Commentaires de mialou
🤨 Et vice versa
acid_: maintenant il me faut propager l erreur ;)
acid_: (youpi tralala youpi )
acid_: putain je comprends pas comment je dois calculer mon erreur
acid_: je pensais que c'était la somme des differences
acid_: mais lui il a un produit chelou
acid_: en gros je crois que l'erreur qu'on doit propager
acid_: c'est la somme de l'erreur pour chaque neurone de la derniere couche
acid_: E = sigma(Err(i)) ou Err(i) = Correct(i) - Output(i)
acid_: en gros
veins: tout a fait
veins: je viens de comprendre l'effet que ca doit faire a ma mere quand je lui parle de crypto :|
Sigma peut aussi désigner une douce fonction du nom de sigmoïde qui s'utilise pas mal en machine learning en fonction du problème à résoudre
Enfin en machine learning on cherche à propager l'erreur aux couches de neurones précédents pour qu'elles apprennent tout autant que les suivantes si je ne dis pas de bêtises (on corrige une fois que tout est propagé)
<captain rolls away>