Pages

mardi 25 mai 2010

Formation de mesure de la valeur: Metrics Lite

Être un conseil de vente et de formation en entreprise, clients et prospects demandent souvent si nous pouvons mesurer l'impact de notre formation, et parfois de savoir si nous pouvons vous garantir une augmentation des ventes. Bien que nous ayons confiance dans notre conseil, la conception pédagogique et la facilitation des capacités, et de comprendre l'importance de ces questions à la fois la gestion et la formation des perspectives, la quantification des effets de la formation peut être une pente glissante pour toute entreprise de formation.

Isoler la formation de nombreux facteurs qui peuvent avoir une incidence positive et négative de son succès est un écueil majeur dans le processus d'évaluation. La plupart des professionnels de formation reconnaître que la meilleure formation dans le monde ne peut pas être en mesure de surmonter l'impact de la mauvaise gestion, un moral bas, les structures de rémunération satisfaisante, déraisonnable objectifs de vente, et une variété d'autres facteurs. Inversement, toute la formation trop souvent médiocres semble superbe quand soutenu par une campagne-éclair de marketing, des réductions des prix des produits, ou de relance économique.

Malgré ces difficultés inhérentes, nous sommes d'accord que l'évaluation de la formation est sage et un processus nécessaire. Toutefois, le processus n'a pas besoin de devenir un projet scientifique avec des preuves empiriques pour «prouver» que l'intervention de formation a été le seul responsable des résultats.

De nombreux organismes veulent pour mesurer les résultats, mais sont incapables de fournir les ressources en temps et en argent pour soutenir le processus. Afin d'aider ces organisations, nous suggérons un briquet (bon goût, moins de remplissage) approche: «Metrics Lite. «Metrics Lite" emploie de Donald L. Kirkpatrick '4 niveaux de l'évaluation de programmes de formation en tant que processus tout simplement indiqué ci-dessous:

Niveau 1: Réaction - réaction des participants à la formation

Niveau 2: Apprentissage - modification ou augmentation des connaissances ou des compétences

Niveau 3: Comportement - Étendue de l'application de l'apprentissage

Niveau 4: Résultats - Effets sur l'activité résultant de la formation

Pour illustrer le «Metrics Lite" approche que nous proposons une étude de cas réels et de notre auto-évaluation: ce qui fonctionne bien, ce que nous avons appris, et ce qui pourrait être une pente glissante. Nous avons été contactés par le service d'un prêteur hypothécaire de premier plan's Call Center de formation intéressés à aider à transformer leurs agents réactifs de preneurs de commandes "pour proactive, fondée sur les besoins des artistes solution. En outre, il était important pour eux qu'il y ait une mesure "sur l'efficacité de la formation de.

Nous avons proposé le modèle de Kirkpatrick la conception et niveaux d'exécution, 1, 2 et 3, et parce que de la politique monétaire, de temps et de ressources, nous serions favorables à la conception de niveau 4 seulement.

Niveau 1

Action: Immédiatement après les ateliers de formation, les participants ont évalué la pertinence et l'efficacité de la formation et les méthodes de formation et des techniques employées.

Résultat: Les participants ont considéré la formation comme étant très efficace et appropriée à leur emploi, avec de nombreux commentaires positifs offre spécifique.

L'auto-évaluation: Les participants ont noté toutes les questions de haut, avec les zones les plus élevées sur la pertinence du contenu et la capacité de transfert de compétences à l'emploi. Nous avons appris que les participants souhaitaient une plus grande couverture sur le règlement des griefs et de fermeture (certainement liée concepts!).

Niveau 2

Les participants d'action: écrite complète de pré et post-tests (20 questions), de tester leurs connaissances et l'application des compétences acquises dans les ateliers. Nous avons utilisé des situations réalistes client de tester la capacité d'appliquer les connaissances sur les compétences acquises.

Résultat: les scores participant au post-test étaient plus élevés que leurs scores pré-test, indiquant une meilleure connaissance et application des compétences.

Auto-évaluation: Le questionnaire a été conçu pour être difficile, mais peut-être été trop facile car il n'y avait pas une augmentation significative des scores due à des teneurs relativement élevées sur le test de pré. Notre philosophie de formation est que les gens apprennent par la pratique (J'entends et j'oublie. Je vois et je me souviens. Je fais et je comprends. - Confucius). En conséquence, nous pensons passer une épreuve écrite ne avoir un certain mérite limité dans l'évaluation des compétences d'apprentissage, mais ce n'est certainement pas une bonne indication de la maîtrise des objectifs de formation.

Niveau 3

Action: En utilisant une approche aléatoire de la formation et les participants non-formation, nous a suivi deux à quatre appels enregistrés avec le service de formation. L'aide d'une liste personnalisée 22 le comportement des ventes, nous avons évalué le degré participants et non participants ont appliqué les compétences. Nous avons également procédé à une ligne «perception» d'enquête de deux mois après la formation, en demandant des commentaires sur l'impact et l'utilité de la formation et du matériel.

Résultat: Les participants ont appliqué les compétences acquises durant les appels le plus souvent après une formation. Les participants continuent de se référer aux documents de formation très souvent.

L'auto-évaluation: Nous croyons que l'évaluation de la performance réelle d'un participant à l'évaluation la plus importante. Nous avons été ravis de constater nette amélioration dans les compétences des participants. Il a également été précieuse pour apprendre que les matériaux étaient toujours pertinents deux mois après la formation.

Nous avons deux remarques, cependant. Tout d'abord, nous sommes préoccupés que nous et le personnel des services de formation menées la surveillance. Nous savons que nous étions aussi objective que possible, mais la surveillance doit être fait de façon impartiale par une partie qui n'est pas partie prenante dans le succès de la formation. En second lieu, le succès de la formation repose non seulement sur l'atelier de formation, mais aussi d'autres facteurs tels que le coaching en cours par les directeurs des ventes et le soutien de la direction.

Niveau 4

Action: le service de formation du centre d'appel contre participant et non participant taux de conversion (la capacité de convertir l'intérêt d'un interlocuteur qualifié en information sur les hypothèques en un prêt hypothécaire fermé) et les niveaux de ventes croisées pour les deux mois qui suivent la formation à des périodes antérieures.

Résultat: les agents de vente qui sont passés par la formation a augmenté les taux de conversion et de la vente croisée suite à une formation par rapport aux périodes antérieures, et élever le niveau général que ceux qui ne passent pas par la formation.

L'auto-évaluation: C'est évidemment le bas de ligne à n'importe quel client. Toutefois, comme indiqué précédemment, il existe de nombreux autres facteurs qui peuvent rendre les numéros de mieux ou pire, quelle que soit la qualité de la formation. Compte tenu de besoin du service de formation à passer des heures considérable sur la surveillance des appels, on peut se demander si le coût en temps et en main-d'oeuvre en vaut la chandelle. Deuxièmement, alors que l'évaluation semble très objectif (l'évaluation est purement statistiques), les résultats ont été compilés par ceux qui ont un intérêt au succès de la formation, le département de la formation du client. Nous croyons que si une évaluation de niveau 4 est à faire, cela devrait être fait par un tiers, soit un domaine différent de la société, ou un vendeur expert extérieur.

L'American Society for Training & Development (ASTD) ont constaté que 45 pour cent des organisations interrogées seulement mesuré les réactions des stagiaires à des cours (Bassi & van Buren, 1999). Dans l'ensemble, 93% des cours de formation sont évalués au niveau 1, 52% au niveau 2, 31% au niveau 3 et 28% au niveau 4. Les données montrent une préférence pour effectuer des évaluations simple. Nous croyons que c'est en partie dû à la difficulté de réaliser l'objectif des évaluations approfondies, et en partie due aux statistiques monétaires, contraintes de temps et de ressources.

Malgré les difficultés et les écueils inhérents au processus d'évaluation, nous prions instamment les organisations de la tenter, même si elle n'est pas infaillible. Après tout, malgré le «Metrics Lite" approche étant moins de remplissage, il ne beaucoup de goût.

cet article est traduisé en francais
l'origine de cet article (en anglai): http://ezinearticles.com/?Measuring-Trainings-Value:-Metrics-Lite&id=393573

0 commentaires

Enregistrer un commentaire