logo

Enterprise Miner : Paramétrer les réseaux de neurones

Dans l’onglet Basic du noeud Neural Networks à quoi correspondent « preliminary runs » et « training technique » ? Est-t-il important de les paramétrer ?

PRELIMINARY RUNS : éventualité de faire un premier ajustement des poids synaptiques (coefficients du réseau) parce qu’on ne trouve pas qu’il arrive correctement au minimum d’erreur possible. Généralement inutile à paramétrer.

TRAINING TECHNIQUE : algorithme cherchant un minimum de la fonction d’erreur. DEFAULT correspond à un algorithme très respecté, LEVENBERG-MARQUARDT. Il est néanmoins très coûteux en temps et en mémoire (il inverse une forme hermitienne de la matrice jacobienne, ça a peu d’importance pour la suite mais dans une conversation ça fait toujours bien !) sur les réseaux très complexes (3 neurones cachés ou plus, plusieurs couches cachées, beaucoup de variables en entrée, variable cible polytomique aux nombreuses valeurs). On lui préfèrera alors le gradient conjugué (CONJUGATE GRADIAN) qui est moins efficace, mais plus rapide. En résumé, ici encore, on peut garder le choix par défaut, sauf pour de gros réseaux.