A votre avis, "la satisfaction utilisateur" est-elle un bon indicateur pour une équipe?

Je vois plein de problèmes à la mesure de cette « stat », qu’en pensez-vous ? Vous l’utilisez ?

5 « J'aime »

Il faut aller au Bouthan, voir comment fonctionne leur BIB :slight_smile:

Je pense que ce qui doit être horrible, c’est d’aimer les chiffres carrés pour mesurer quelque chose d’aussi subjectif que la satisfaction.

Ca me fait penser à la différence entre l’output et l’outcome.

Mais on peut tourner comme on veut autour du pot.

Soit, on s’arrange pour étudier des éléments très très cartésiens, on se rassure, soit on mesure l’humain et tout le flou qui va avec. Et on ne peut travailler qu’avec l’expression de son ressenti, mais au moins, on mesure l’important.
(Pour autant que l’objectif du produit est bien cette satisfaction)
Si l’objectif du produit, c’est de faire du fric, alors on mesure le compte en banque.
Si l’objectif du produit, c’est de supplanter un autre, alors on mesure le ratio du nombre d’utilisateurs entre les 2 outils.

à relire ta question, je vois que je réponds à côté (mais je ne vais pas supprimer ce que j’ai écrit avant)

Ta question, c’est « pour une équipe » et pas « pour un produit ».

l’utilisateur utilise quoi ? l’équipe ou le produit ?

Pour une équipe je trouve que ce n’est pas un très bon indicateur, parce que :

  • L’équipe n’a que peu d’influence dessus. La satisfaction est relative à l’ensemble de la relation avec l’entreprise, pas juste aux interactions avec le produit. Un mauvais contact avec les sales ou le support client, un problème de facturation, ça affecte la satisfaction ça ne peut pas être imputable à une équipe qui ne traite que l’expérience de recherche par exemple.
  • C’est très lagging, ça met longtemps à évoluer, et ce n’est pas toujours évident de trouver les causes de l’évolution. Parfois elles sont là où on n’imagine pas. Par exemple : la satisfaction peut augmenter parce que les utilisateurs mécontents churnent. Ou alors : on a incentivé les commerciaux sur la satisfaction des clients dont ils ont la charge, donc ils ont commencé à faire des campagnes d’appels pour demander aux gens de répondre au sondage et de mettre 5 étoiles.

Il me semble que ça reste un indicateur intéressant à regarder, et c’est bien que l’équipe en ait conscience pour savoir comment elle peut contribuer à le faire évoluer, mais il ne faut pas donner comme objectif à l’équipe « augmenter la satisfaction » et l’incentiver là-dessus.

Pour moi c’est un objectif qui doit être transverse au niveau de l’entreprise entière. C’est à l’équipe d’identifier comme elle peut y contribuer, et de se fixer des objectifs plus concrets qui l’aident à savoir si elle a eu personnellement un impact. Dans l’idéal, elle devrait même pouvoir partager les résultats de ses apprentissages avec d’autres équipes dans d’autres départements, parce qu’elle n’aura pas toujours la main pour régler les problèmes qu’elle identifie. Et encore plus dans l’idéal, les autres équipes des autres départements font pareil. Mais bon là on commence à rêver un peu :smiley:

2 « J'aime »

Si on se place sur le plan de la « symétrie des attentions » : la qualité de la relation entre une entreprise et ses clients est égale à la qualité de la relation de cette entreprise avec ses propres collaborateurs.
Satisfaction collaborateur = satisfaction des clients,
Et si l’on considère que la transformation digitale a pour but de placer le client au centre des préoccupations de l’entreprise et donc au centre de son SI,
Alors, il apparait logique que la ‹ satisfaction utilisateur › est un bon indicateur.
Maintenant, des utilisateurs « heureux » peuvent se trouver dans leurs « zone de confort » et de ce fait, petit à petit éloigner l’entreprise des besoins du marché, et donc l’envoyer dans le mur.
En conclusion : Sa pertinence devient intéressante si on la rapporte à la transformation en cours et au degré de changement engagé. Enfin, comme tout indicateur, il ne peut être utilisé seul !

2 « J'aime »

Merci pour vos retours ! Je suis assez aligné.

Ma réflexion vient aussi du fait de « comment on mesure cette satisfaction ». Un formulaire leur demandant s’ils sont content n’a aucune valeur je pense. Et donc, comment cherchez-vous (ou chercheriez-vous) des mesure qui permettent d’avoir, par incidence, la satisfaction utilisateur ? Je parle ici des mécaniques ou comportements qui nous font penser que l’utilisateur est content.

Hello Constantin, dans ta question, tu dis : "je vois plein de problèmes…"je serai intéressée de savoir quels sont ces problèmes… ?

Les problèmes que je vois sont dans la façon de recueillir l’info : Si tu demandes aux gens s’ils sont contents de ton produit, ta mesure ne vaut pas grand-chose. Entre les gens qui disent « oui » pour faire plaisir, ceux qui disent « non » parce que là maintenant ils ont eu un problème alors que depuis 5 ans tout va bien, et le biais qui fait que les mécontents sont plus loquace.

Certaines approches demandent si on serait prêt à recommander le produit à quelqu’un : c’est une intention, mais qui ne veut pas dire grand-chose non plus. Si 90% des gens te disent que oui mais que seulement 1% le fait réellement, t’as un problème si tu ne te fis qu’au 90% déclarés.

Donc plutôt que de demander la satisfaction, je pense plutôt au moyen de la connaître.

Une phrase qu’on m’a dit et qui résume bien je trouve : « Il n’y a pas d’amour, il n’y a que des preuves d’amour ».

1 « J'aime »

Comment ‹ objectiver › la réponse des utilisateurs concernant leur satisfaction ?
Quelques éléments rapides de réflexion :

  • En posant plusieurs questions avec des questions contradictoires (comme le font les sondeurs) : c’est un métier :face_with_diagonal_mouth:
  • Pourquoi ne pas se baser sur les besoins d’évolutions : ces derniers expriment une forme d’insatisfaction ? Non ???
  • Envoyer un BA? Là, je prêche pour ma paroisse. Son rôle est de recueillir une information exhaustive, validée, et consensuelle ?
  • Peut-être n’est-ce pas à la MOE de s’en occuper ? C’est au PO de se faire une idée avec la MOA (les utilisateurs) ?
    Ta question est très intéressante et j’avoue que c’est compliqué d’y répondre.
1 « J'aime »

Tu parles de la satisfaction concernant la réactivité et le travail de l’équipe ou des livrables, de la solution ?

"Donc plutôt que de demander la satisfaction, je pense plutôt au moyen de la connaître."
Oui d’accord avec toi.
Je travaille dans une entreprise d’applis mobiles. Nous n’avons ni sm ni ba. Et pour ma part, je n’utilise pas le nps ou nes pour à peu près les mêmes raisons. C’est trop vague. Je ne sais pas trop quoi faire avec.
Par contre, je vérifie régulièrement la satisfaction utilisateurs via les notes et les retours Play Store ou App Store ou autre, (sur les sites des produits par exemple).
ça nous aide avec mon équipe dans la mesure où on peut identifier si la satisfaction concerne le produit dans sa globalité (ras, 5 étoiles, tout fonctionne bien), l’insatisfaction concernant un service (mauvais contact avec le support client par exemple comme le dit Laurent), du coup, nous, l’équipe, on peut faire remonter l’info mais on n’est pas responsable, ou l’insatisfaction par rapport à l’utilisation de l’app, ici c’est notre domaine. Sachant que sur Android, les problématiques ne sont pas les mêmes que sur IOS, les équipes de devs sont challengées. Je collecte toutes ces infos et je les transmets à l’équipe. Ce qui nous oriente vers de la résolution de bugs (trouvés par les utilisateurs et qui causent leur insatisfaction) ou des propositions d’amélioration ou d’évolution (qui faciliteront leur navigation et qui amélioreront leur satisfaction).
Mais oui, tu as raison, il n’y a pas de satisfaction, il n’y a que des preuves de satisfaction. Reste plus qu’à les trouver.

1 « J'aime »

Il me semble que l’état de l’art de la « question magique » c’est maintenant une question du style « comment vous sentiriez-vous si notre produit n’existait plus » avec des réponses possibles comme « je serais très embêté », « ça me gênerait un peu », « ça ne changerait rien à ma vie ».

Cette formulation évite pas mal des biais que tu évoques.

9 « J'aime »

J’aime ma métaphore du voyage.

Ma vision, c’est de partir me reposer en famille, au soleil.
Et dans un premier temps mon objectif, c’est la côte d’azur (même si sur le trajet, je pourrais décider de partir à la montagne parce que la méditerranée est sous les flammes.

Mon compteur kilométrique est un indicateur,… mais il peut augmenter parce que je m’éloigne de mon point de départ sans m’approcher de ma destination. Un indicateur, c’est juste une information.

Le bruit des enfants sur la banquette arrière, c’est aussi un indicateur, ça ne change rien à ma destination, pourtant ça fait partie du voyage, et ça va même influencer ma vision de me reposer :wink:

2 « J'aime »

Supposons que tu trouves un moyen de la connaître, tu en fais quoi ensuite ?

1 « J'aime »

J’aime bien cette idée aussi. Cela ressemble un peu au modèle de Kano. Pour les utilisateurs certaines fonctionnalités sont considérées comme « normales » mais n’apportent pas forcément de satisfaction. Par contre, si elles sont absentes c’est ressenti comme un manque profond.

Maintenant, c’est vrai qu’il n’est pas forcément facile de récupérer ces feedbacks…

1 « J'aime »

Oui je viens de l’implementer

Jvais peut être dire un truc très con mais en adresse produit, on est censé résoudre des problématiques et confirmer des hypothèses. Avec un objectif de sprint qui répond à un besoin et des indicateurs pour s’assurer qu’on va dans le bon sens. Du coup on est censé se poser déjà les bonnes questions / regarder les bons éléments qui sont donc des éléments de satisfaction utilisateur, notamment (du quali donc en plus du quanti).

Jsais pas, quand j’y pense, je n’arrive pas à décoreller cette satisfaction utilisateur du concept même de confirmer des impacts :thinking: ?

Si c’est lié au produit, à la vision stratégique plus globalement, on regarde ces éléments d’un peu plus haut (objectif produit plutôt qu’objectif de sprint par exemple).

Par contre clairement cela na pas l’air simple du tout de manipuler ces données subjectives, ça nécessite de recouper des indicateurs de plusieurs types et sous plusieurs angles, c’est probablement fluctuant et difficile à interpréter, c’est probablement chronophage aussi.

1 « J'aime »

Je plussoie et valide ce questionnement. A part pratiquer l’onanisme, à quoi servirait cette information à l’équipe ?

Ou dit autrement : entre observer sur le terrain et ‹ demander ›, quels avantages, inconvénients et utilité ?

2 « J'aime »

Si vous avez du temps et que vous parlez Shakespearien, tout cet article est éminemment intéressant sur le sujet :

Bonjour à tous.tes,
(Je n’ai sûrement pas votre expérience … mais je me lance )

Si l’équipe est « allergique » aux sondages « à rallonge qui posent plusieurs fois la même question pour croiser les données » (je suis aussi comme ça :wink:
Si vous pensez que la réponse à la « question magique » est trop dépendante du contexte « immédiat » et non d’un point de vue global (je suis en phase aussi),

Est-ce que la mesure de la collaboration (ou de rotation de vos interlocuteurs métier) serait une info pertinente (mais non suffisante !) ?
Personnellement, si je ne suis vraiment pas satisfait d’une prestation, je le dis (en argumentant et en proposant des pistes d’amélioration, bien entendu !) et je n’y retourne plus.
Peut-être qu’il y a des « personnes du métier » (ou des utilisateurs) que vous avez vues 1 ou 2 fois (en review ou en refinement … si vous faites du Scrum), que vous auriez dû revoir mais qui ne reviennent pas car elles sont déçues du ROTI ?

Autre piste (ma préférence) : ne pourrions nous pas, au lieu de mesurer uniquement la satisfaction des utilisateurs, la coupler avec la mesure du taux de réponse à sa problématique ? (comment ? je n’en sais rien, c’est pour alimenter la réflexion).
L’objectif de l’équipe est, certes, de satisfaire les utilisateurs MAIS en répondant à leur(s) problématique(s).
Si nous répondons à 100% à leur problème mais qu’ils ne sont pas satisfaits, cela donne une indication. On peut alors creuser un peu plus (UX, communication, collaboration, organisation …) pour s’améliorer.

D’une façon plus générale, que diriez vous à une équipe qui, au détour d’un questionnaire de satisfaction placé dans le MVP, découvre que son produit ne satisfait pas les usagers ? A-t-elle eu des feedbacks pertinents tout au long de la construction du produit ? S’est-elle adressée au bon « public » pour le feedback ? Était ce un panel trop restreint ? le feedback obtenu vient-il du clients ou des usagers ? … bref, le feedback continu, selon moi, permet de « voir venir le truc » ! (Kokoro)

Et peut-être que la réponse n’est pas aussi binaire que « satisfait ou non » ?
Bonne journée à tous.tes

1 « J'aime »