These Strategie Et Imitation Concurrentielle
THESE
pour l’obtention du titre de docteur en Sciences de Gestion Arrêté du 7 août 2006
Présentée et soutenue publiquement par
PHILIPPE MOURICOU
STRATEGIE ET IMITATION CONCURRENTIELLE : Une étude des pratiques des programmateurs des radios musicales françaises
JURY
Directeur de thèse : Monsieur Bernard de MONTMORILLON Professeur à l’Université Paris-Dauphine
Rapporteurs : Monsieur Pierre-Yves GOMEZ Professeur à l’EM LYON Business School
Monsieur Xavier LECOCQ Professeur à l’IAE de Lille
Suffragants : Monsieur Pierre ROMELAER Professeur à l’Université Paris-Dauphine
Monsieur Valery ZEITOUN Directeur du label AZ, Universal Music France
MERCREDI 9 DECEMBRE 2009
UFR DE SCIENCES DES ORGANISATIONS – ECOLE DOCTORALE DE GESTION - CREPA
L’Université n’entend donner aucune approbation ni improbation aux opinions émises dans les thèses : ces opinions doivent être considérées comme propres à leurs auteurs.
2
Remerciements
’écriture d’une thèse est une tâche trépidante qui n’a rien d’un exercice solitaire. Au Lcours des années passées à réaliser ce travail, j’ai eu l’occasion d’accumuler une longue série de dettes que je serais bien en peine de rembourser. La liste des personnes sans lesquelles je n’aurais pu mener à bien ce projet est sans fin. Ces quelques mots me permettront de les remercier.
Mes premiers remerciements sont adressés au professeur Bernard de Montmorillon, mon directeur de thèse. La patience dont il a fait preuve à mon égard a été infinie et si ses remarques ont parfois été pour moi une source d’insomnies, c’est parce qu’elles ont stimulé et largement enrichi ma réflexion. Ce travail n’aurait pas pu aboutir sans ses encouragements et sans sa bienveillance. Il n’aurait probablement pas été le même si Bernard de Montmorillon n’avait pas partagé avec moi sa passion pour la théorie des conventions et pour les écrits de René Girard. Ces quelques mots sont peu de choses en comparaison du soutien qu’il m’a apporté et du temps qu’il m’a accordé.
Je souhaite également à exprimer, ici, toute ma gratitude envers le professeur Pierre Romelaer qui m’a prodigué de précieux conseils lors de la pré-soutenance de cette thèse. Nos échanges continus au fil de ces années, qu’ils soient formels, à l’occasion des séminaires doctoraux du CREPA, ou informels, au détour d’un couloir ou lors d’une discussion dans la salle des doctorants, ont largement contribué à me transmettre le virus de la recherche. Pierre Romelaer reste pour moi un modèle d’intégrité, d’exigence et de curiosité.
Mes plus sincères remerciements aux professeurs Xavier Lecocq et Pierre-Yves Gomez dont les travaux ont été pour moi une source d’inspiration et qui m’ont fait l’honneur de faire partie de mon jury de thèse en acceptant d’en être les rapporteurs. Je tiens aussi à remercier très sincèrement Valery Zeitoun, directeur du label AZ au sein d’Universal Music France, pour avoir accepté de participer à l’évaluation ce travail.
4 Valery Zeitoun fait partie de ces personnes passionnées par leur métier que j’ai eu l’occasion de rencontrer durant la phase de terrain de ce travail doctoral. Qu’ils officient dans des radios musicales ou dans des maisons de disques, ces professionnels ont su me communiquer leur enthousiasme. Je voudrais ici à saluer tout particulièrement Laurent Bouneau, directeur des programmes de Skyrock, qui a eu la gentillesse de m’ouvrir les portes de l’industrie musicale et Pierre Lebrun, ancien directeur de la programmation musicale de Fun Radio et de RTL2, qui m’a accordé énormément de temps. Je me dois par ailleurs de remercier, Sébastien Lebois, directeur des programmes d’Alouette et Richard Colin (programmateur de la station Voltage au moment de la collecte des données) avec qui j’ai pris énormément de plaisir à échanger bien après nos entrevues. Je n’ai jamais eu la sensation d’aller travailler lorsque j’allais réaliser les entretiens qui ont alimenté le corpus de cette thèse. C’est probablement la raison principale pour laquelle j’ai prolongé la phase de collecte des données plus longtemps que je ne l’aurais fait si je m’en étais tenu aux préconisations des ouvrages de méthodologie sur lesquels je me suis appuyé.
Le travail de terrain nécessite de la rigueur, dans mon cas, il a également été source de plaisir. J’ai d’ailleurs trouvé dans le groupe de travail « Jeunes chercheurs RADIO » plusieurs personnes avec qui partager cette passion pour la radio et qui, comme moi, consacraient leurs travaux académiques à ce secteur. Je rendrai un hommage particulièrement appuyé à Béatrice Donzelle qui, plusieurs années durant, a consacré une réelle énergie à l’animation de ce groupe.
J’ai eu la chance de bénéficier du soutien de plusieurs institutions. L’université Paris- Dauphine et le centre de recherche CREPA m’ont offert un environnement particulièrement épanouissant. Etudiant, j’ai eu la chance d’y rencontrer des enseignants qui m’ont donné le goût de la recherche et dont certains sont aujourd’hui devenus de véritables amis. Allocataire de recherche et moniteur, j’ai pu m’intégrer à une équipe soudée d’enseignants-chercheurs.
Je tiens à saluer Stéphanie Dameron, professeur à l’Université Paris Dauphine, pour la confiance qu’elle m’a témoigné en m’accueillant dans l’équipe pédagogique de l’enseignement de management stratégique ainsi que pour sa gentillesse et ses conseils avisés tant en matière de pédagogie que de recherche.
5
Mes amitiés vont également à Henri Isaac, aujourd’hui directeur de la recherche à l’ESC Rouen. Passionné de musique, de nouvelles technologies et de politique, Henri fait partie de ces empêcheurs de penser en rond qui apportent énormément à tous ceux qu’ils côtoient.
Parmi les personnes que j’ai eu la chance de rencontrer au CREPA, j’adresse ici mes plus profonds remerciements au professeur Jean-François Chanlat, actuel directeur du centre, et au professeur Michel Kalika qui l’a précédé. Tous deux ont toujours porté un regard intéressé à mes travaux et m’ont prodigué de précieuses remarques.
Eric Campoy, Charlotte Fillol, Emmanuel Josserand et Serge Perrot figurent également parmi les membres du laboratoire avec lesquels j’ai eu beaucoup de plaisir à vivre ces années de thèse. Je trouve aussi l’occasion de rendre hommage à Ana Druméa et à Florence Parent qui ont rendu plus agréable encore mon parcours au CREPA.
Le travail doctoral est parfois ponctué de doutes. Je tiens donc à remercier l’ensemble des doctorants – actuels et anciens – de l’Université Paris Dauphine avec qui j’ai eu l’occasion d’avoir des échanges stimulants. Mes amitiés vont notamment à Hanane Beddi, Loréa Hireche, Anouck Adrot, Thibault Bardon, Céline Berard, Marie Bia, Mantiaba Coulibaly, Julien Cusin, Christophe Elie-Dit-Cosaque, Amine Ezzerouali, Lionel Garreau, Antoine Harfouche, Aurélie Leclercq, Benjamin Taupin, Céline Viala, Dimbi Ramonjy et Isabelle Walsh. Je pense aussi à Cécile Belmondo, Frédérique Dejean, Raphael Dornier, Marie Perez, Julie Tixier et Christophe Torset qui m’ont transmis leur expérience et leur amour de la recherche. Un merci tout particulier à celles et à ceux qui m’ont soutenu dans la dernière ligne droite de la rédaction en acceptant de prendre en charge le travail de relecture et de double codage : Anouck Adrot, Hanane Beddi, Céline Berard, Loréa Hireche et Benjamin Taupin. Toutes les erreurs qui se trouvent encore dans le document sont bien évidemment les miennes.
Si ce travail n’aurait pu voir le jour sans le soutien de l’Université Paris Dauphine, je me dois également de mentionner l’Université Paris-Sud et la faculté Jean Monnet où j’ai trouvé un cadre de travail propice à l’enseignement et à la recherche au cours de mes deux années d’ATER. Mes salutations les plus sincères sont adressées aux professeurs Sandra Charreire- Petit et Florence Durieux ainsi qu’à l’ensemble des enseignants-chercheurs et doctorants du PESOR. J’ai pris énormément de plaisir à participer aux séminaires de ce laboratoire qui ont été pour moi des moments vivifiants d’échange et de réflexion.
6 J’ai récemment eu l’honneur d’intégrer l’Institut Supérieur de Gestion (ISG) en qualité de professeur permanent. Je tiens particulièrement à remercier Anne-Marie Rouane (directrice générale), le professeur Gérard Koenig (conseiller scientifique de l’école), Benoit Lorel (directeur académique) et Maral Muratbekova-Touron (directrice du département Systèmes, Décision, Organisation) pour leur confiance.
Ces années de thèse m’ont par ailleurs permis de rencontrer de nombreux chercheurs dans le cadre des séminaires NVivo que j’ai pris plaisir à animer à Dauphine mais aussi à l’Université Saint-Joseph (Beyrouth), à l’ESCEM (Tours-Poitiers) ou encore à HEC Genève. Ces moments ont été l’occasion de discussions passionnantes autour des méthodologies qualitatives et de l’analyse des données. Mes amitiés vont particulièrement à Géraldine de La Rupelle (ESCEM) avec qui j’ai désormais la chance de travailler sur plusieurs projets de recherche.
L’isolement que peut parfois ressentir un chercheur à certaines phases de son travail, si nécessaire à la production scientifique soit-il, peut parfois être éprouvant. Ces moments auraient pu être douloureux si je n’avais pas eu à mes côtés des amis fidèles, patients et enthousiastes. Ces derniers ne réalisent probablement pas à quel point leur présence a été pour moi essentielle. Les quelques mots qui vont suivre me permettront donc de remercier Marc- David Choukroun, Eléonore De La Varde, Clément Lacoin, Erwan Le Gal, Pierre Moure et Fabien Sécherre. Un merci particulier à Erwan et Fabien qui ont accepté de prendre en charge une partie du fastidieux travail de relecture de la thèse. Je tiens par ailleurs à saluer Julien Marthon, aujourd’hui animateur sur la station parisienne Ouï FM, qui n’a probablement pas été étranger au choix du sujet de cette recherche.
Mes proches ont eu à subir mes absences, les semaines sans nouvelles, les vacances studieuses. C’est à ma famille que je consacrerai donc mes derniers mots de remerciements. J’adresse toute ma reconnaissance à mon grand-père qui a souvent redouté que je ne parvienne pas à terminer ce projet, à ma grand-mère, à mon grand-oncle et à ma grand-tante. J’ai également une pensée émue pour mon père, aujourd’hui disparu, et bien sûr, pour ma mère qui, malgré la distance géographique, n’a jamais cessé de m’épauler.
7 Sommaire
Remerciements ...... 4
Introduction générale ...... 12
Première partie : Revue de la littérature
Chapitre 1 : Et pourtant, ils s’imitent ...... 26
1. Quelques éléments de définition ...... 28
2. Une critique théorique ...... 32
3. Des réalités empiriques ...... 41
4. Vers une approche explicative et tournée vers les pratiques ...... 52
Résumé du chapitre 1 ...... 67
Chapitre 2 : Les deux faces de l’imitation ...... 68
1. Les approches instrumentales de l’imitation ...... 69
2. Les approches évaluatives de l’imitation ...... 86
3. Raisons et pratiques d’imitation concurrentielle ...... 121
Résumé du chapitre 2 ...... 122
Chapitre 3 : L’imitation comme produit de l’incertitude ...... 124
1. Un creuset commun ...... 125
2. Une information en cascade ...... 137
3. La théorie des conventions ...... 141
4. Incertitude et pratiques d’imitation concurrentielle ...... 148
Résumé du chapitre 3 ...... 150
Synthèse de la première partie ...... 152
1. Ancrage théorique de la problématique...... 153
2. Présentation du cadre analytique ...... 155
8 Deuxième partie : Méthodologie et résultats
Chapitre 4 : Les programmateurs radio, praticiens de l’imitation concurrentielle ...... 162
1. Le champ d’étude ...... 163
2. Méthodes de recherche ...... 190
Résumé du chapitre 4 ...... 229
Chapitre 5 : Un contexte propice à l’imitation ...... 230
1. Un contexte incertain ...... 237
2. Une imitation encouragée et facilitée ...... 253
3. Contexte et imitation : Une conclusion provisoire ...... 270
Résumé du chapitre 5 ...... 272
Chapitre 6 : Une typologie des pratiques d’imitation concurrentielle ...... 274
1. Les pratiques instrumentales de l’imitation ...... 277
2. Les pratiques évaluatives de l’imitation ...... 298
3. Pratiques d’imitation : Une conclusion provisoire ...... 313
Résumé du chapitre 6 ...... 314
Discussion : De l’imitation à la différenciation ...... 316
1. Discussion des résultats du chapitre 5...... 317
2. Discussion des résultats du chapitre 6...... 319
3. Discussion transversale ...... 324
4. Retour à la littérature ...... 327
Conclusion générale ...... 332
1. Synthèse de la recherche ...... 334
2. Contributions, limites et perspectives ...... 336
9
Références
Bibliographie ...... 348
Liste des synthèses ...... 370
Liste des encadrés ...... 371
Liste des tableaux ...... 372
Liste des schémas ...... 373
Table des matières ...... 374
Glossaire radiophonique...... 384
Annexes
Annexe 1 : Les modèles de rationalité selon Romelaer et Lambert (2001, p.217) ...... 389
Annexe 2 : Les differents formats selon Delaveau ...... 391
Annexe 3 : Composition du panel Yacast en 2006 ...... 400
Annexe 4 : Déroulement des interviews et guide d’entretien ...... 401
Annexe 5 : Grille de codage des « topics » ...... 404
Annexe 6 : Codage de deux entretiens ...... 409
Annexe 7 : Dictionnaire des thèmes (codage analytique) ...... 410
Annexe 8 : Notice utilisée pour le double codage ...... 412
10
Introduction générale
Il est sept heures, nous sommes le jeudi 30 juillet 2009, vous écoutez Alouette. » « Stan et Clarisse, les deux animateurs de la tranche matinale d’Alouette, première radio du Grand-Ouest, lancent le flash d’informations et annoncent les disques qui vont être diffusés. Derrière l’apparente décontraction des deux animateurs, la tension est réelle dans les locaux de la station. Comme tous les ans à la même époque, Sébastien Lebois, le directeur des programmes, fait les cent pas. Alors que sur l’antenne, les chansons se suivent entrecoupées de jingles annonçant « toujours plus de hits », les résultats des sondages Médiamétrie tardent à arriver. Ces sondages, Sébastien les attend, les redoute, les espère depuis plusieurs mois. Des mois passés à travailler à vue, ici, dans ce bureau situé à proximité du centre commercial Hyper U des Herbiers (Vendée). Dans ce bureau, il a écouté les disques envoyés par les labels parisiens, négocié avec les attachés de presse pour faire venir les artistes, ajusté continuellement sa grille des programmes pour tisser un lien de proximité avec les auditeurs, scruté les moindres mouvements de ses concurrents pour élaborer sa playlist. Sébastien est un perfectionniste. L’angoisse devient de plus en plus pesante.
Il repense au chemin parcouru depuis sa prise de fonctions en 2003. A ses débuts comme animateur sur « Radio Alouette » dans les années quatre vingt dix. A la mue entamée par la station qui, d’une mini radio généraliste, est devenue une puissante radio musicale devançant, sur sa zone de diffusion, les plus grands réseaux nationaux. Soudain, le doute. Et si les résultats d’audience étaient en deçà des espérances de Bertrand de Villiers, président et actionnaire majoritaire d’Alouette ?
De ces résultats dépendront la valeur de l’espace publicitaire commercialisé par Alouette, les recettes de la station, ses perspectives de développement. De ces résultats dépendra également l’avenir professionnel de Sébastien. Au même moment, à Lyon, Tourcoing, Orléans, Reims, d’autres directeurs des programmes, directeurs d’antenne, et programmateurs officiant dans d’autres radios indépendantes ressentent les mêmes angoisses.
12 Stratégie et imitation concurrentielle
La situation des grandes radios musicales nationales n’est guère plus confortable. Confrontés à une baisse tendancielle de l’audience, les professionnels du secteur perçoivent les limites du « Top 40 », un modèle inventé aux Etats-Unis qui est fondé sur la répétitivité et dont ils ne sont jamais véritablement parvenus à s’émanciper.
Pour Alouette, cette vague de sondage est celle du succès. Avec plus de 470 000 auditeurs, la radio atteint son record historique et conquiert la place de première radio indépendante de France. Alouette est une des premières radios régionales françaises à frôler le point d’audience national. L’heure n’est pourtant pas à l’autosatisfaction. Il faut déjà penser à la suite, à la grille de rentrée, au renouvellement de la playlist, à l’organisation d’un grand concert gratuit pour les auditeurs de la station. Et toujours cette inquiétude sur l’avenir de la radio musicale.
L’arrivée d’Internet, les nouvelles habitudes d’écoute de la musique en ligne, la concurrence des autres médias ont profondément rebattu les cartes. Plus que jamais, les goûts du public sont mouvants et changeants. L’élaboration du programme musical est un problème insoluble. Dans l’univers de la radio musicale, l’incertitude n’est pas un concept, c’est une expérience de tous les jours. Ces acteurs en ont la certitude, ils vont devoir se réinventer… mais comment ? Faute de pouvoir répondre à cette question, ils s’observent, se talonnent, s’imitent. Jamais les radios n’ont été aussi standardisées, jamais les formats musicaux – en théorie très différents – n’ont été en réalité aussi poreux.
De l’incertitude à l’imitation La situation dans laquelle sont plongés les professionnels de la radio est révélatrice d’un phénomène plus général lié à l’influence de l’incertitude sur les comportements et sur les décisions individuelles. Lorsqu’ils ne peuvent déduire le futur du passé, lorsqu’ils ne disposent pas d’un référentiel suffisamment convaincant, les individus se trouvent incapables de décider de façon isolée (Gomez, 1996, p.78). Pour agir malgré tout , ils devront observer les comportements adoptés dans leur entourage, s’en remettre à autrui. L’imitation procure des repères. Cette idée, centrale dans la description keynésienne du fonctionnement des marchés financiers (Keynes, 1934 [1969], 1937 [2002]), constitue le socle d’une approche, la théorie des conventions (Gomez, 1996 ; Orléan, 2004b), qui a fait de l’imitation l’un de ses principaux centres d’intérêt.
13 Introduction générale
Largement partagée avec les chercheurs appartenant au courant de la sociologie néo- institutionnelle (DiMaggio et Powell, 1983 ; Tolbert et Zucker, 1983), cette idée dissimule cependant une grande variété dans les objets qui peuvent être imités. Comme le souligne Schnaars (1994), l’imitation peut, au-delà des produits, également porter sur des éléments tels que les technologies, les pratiques managériales, les modes d’organisation, les procédures ou encore les stratégies. Cette diversité des objets potentiellement imitables est perceptible dans les développements empiriques qui découlent des théories de la diffusion ou de la littérature néo-institutionnaliste 1.
Le tableau qui suit permet d’illustrer la diversité des objets potentiellement imitables en reprenant quelques exemples de travaux récents consacrés à l’imitation inter- organisationnelle.
Tableau 1 De la diversité des objets imitables
Domaine concerné Objet imité Travaux emblématiques
Développement Rapports environnementaux Pour Aerts, Cormier et Magnan (2006), les durable entreprises allemandes définissent le contenu de leurs rapports environnementaux en imitant des modèles dans leur industrie.
Gouvernance Rémunération des dirigeants Pour Brandes, Hadani et Goranova (2006), les grandes entreprises américaines s’imitent les unes les autres pour définir le niveau des stock-options attribuées aux dirigeants. Cette tendance conduit à une augmentation générale du niveau des stock- options attribuées.
Marketing Lancement de nouveaux Pour Srinivasan, Haunschild et Grewal (2007), les produits lancements de produit des constructeurs de caméscopes aux Etats-Unis entre 1991 et 1999 s’expliquent largement par l’existence de comportements imitatifs.
Ressources Humaines Politique de recrutement des Williamson et Cable (2003) montrent que les dirigeants politiques de recrutement des dirigeants des grandes entreprises américaines sont largement définies par l’imitation de modèles, en particulier lorsqu’il existe des administrateurs communs entre l’organisation modèle et l’organisation imitatrice.
1 Ces deux courants de littératures seront présentés dans la première partie de la thèse (chapitres 1 et 2).
14 Stratégie et imitation concurrentielle
Tableau 1 (suite) De la diversité des objets imitables
Domaine concerné Objet imité Travaux emblématiques
Stratégie Décisions d’alliance Garcia-Pont et Nohria (2002) mettent en avant l’existence d’une imitation entre les constructeurs automobiles. L’imitation serait particulièrement prononcée entre concurrents positionnés sur une même niche du marché.
Fusions Stearns et Allan (1996) expliquent la vague de fusion au sein des entreprises américaines (début des années quatre-vingt) par l’imitation. Le mouvement aurait été initié par des organisations marginales (en termes de statut social) puis se serait institutionnalisé par effet boule de neige.
Positionnement Les radios américaines s’imitent, que ce soit pour concurrentiel adopter un nouveau positionnement concurrentiel (format), ou pour décider d’abandonner l’ancien (Greve, 1995, 1996, 1998).
Programmes de Lorsqu’elle est tardive, l’adoption des programmes Qualité Totale de qualité totale par les hôpitaux américains est, selon Westphal, Gulati & Shortell (1997), largement guidée par des motivations liées à la légitimité.
Stratégie Comme le montrent Henisz et Delios (2001), les d’internationalisation multinationales japonaises ont tendance à imiter les choix les plus fréquemment réalisés (en particulier lorsque les modèles appartiennent au même secteur d'activité). Les organisations les moins expérimentées ont plus souvent recours à l'imitation que les autres.
Stratégies de diversification Les stratégies de diversification des laboratoires pharmaceutiques chinois sont, selon Vermeulen et Wang (2005), largement définies par imitation. Palmer et Barber (2001) reviennent quant à eux sur les stratégies de diversification des entreprises américaines durant les années soixante. Les pionniers sont souvent des entreprises dirigées par des personnes n'appartenant pas au « système ». En matière de diversification, les entreprises imitent des modèles qui appartiennent à leur réseau social.
Systèmes Adoption d’un ERP Selon Pupion et Leroux (2006), l'adoption d'un ERP d’information par les entreprises françaises procède rarement d'un calcul « coût / avantage ». Les attributs perçus de l'ERP et son adoption préalable par d'autres entreprises sont en revanche déterminants.
Usages d’un SIRH L’étude de cas menée par Tixier (2004) fait ressortir qu’au sein d’un même groupe, les usages du Système d’Information RH se diffusent entre les filiales par imitation.
15 Introduction générale
Nous nous focaliserons, dans cette recherche, sur des problématiques stratégiques liées au positionnement des radios musicales françaises (format) et aux décisions de programmation musicale. Nous chercherons ainsi à cerner les raisons qui sous-tendent l’imitation, à comprendre l’influence de l’incertitude et à expliquer de quelle manière l’imitation contribue à la stratégie des radios.
Imitation et stratégie Transposée aux problématiques stratégiques (positionnement, gestion du portefeuille d’activités, structures organisationnelles ou encore modalités de développement), la question de l’imitation est source de controverses. Nombreux sont les auteurs qui ont défendu l’idée que, pour être meilleure que ses concurrents, l’entreprise se devait d’adopter une stratégie originale (Porter, 1996). Selon ces théoriciens, les imitateurs se condamneraient à des performances réduites, s’enfermeraient dans une « malédiction des suiveurs » (Demil et Lecocq, 2006). La mise en parallèle de cette conception et de l’observation des comportements des organisations, fait apparaître un véritable paradoxe que nous prendrons pour point de départ et auquel nous consacrerons le premier chapitre de la thèse. Dans la réalité en effet, les entreprises s’imitent, y compris pour élaborer leur stratégie : « Et pourtant, ils s’imitent » pourrait-on dire à propos des stratèges en paraphrasant Galilée qui, à l’issue du procès au cours duquel il avait été contraint de renier ses convictions scientifiques aurait murmuré « Et pourtant, elle tourne » à propos de la Terre.
Au cours de cette recherche, nous avons cherché à comprendre ce qui pouvait pousser des décideurs, en l’occurrence des programmateurs radio, à reprendre des solutions mises en place par leurs concurrents et à expliquer de quelle manière leurs pratiques d’imitation concurrentielle pouvaient alimenter la stratégie de l’organisation. Pour mener ce projet, nous nous sommes intéressés aux pratiques d’imitation (ce que font les décideurs lorsqu’ils imitent leurs concurrents), aux raisons individuelles qui les sous-tendent (pourquoi les décideurs imitent leurs concurrents) et aux modèles de rationalité (les représentations théoriques de la rationalité humaine dans lesquelles elles s’inscrivent).
Cette démarche s’inscrit dans un courant de recherche émergent, la stratégie en pratiques (« strategy as practice ») et est inspirée de la sociologie compréhensive de Weber (1921 [1995]).
16 Stratégie et imitation concurrentielle
Nous avons ainsi défini la problématique suivante :
En quoi les pratiques d’imitation concurrentielle des programmateurs contribuent elles à la stratégie des radios musicales françaises ?
Cette problématique est déclinée en deux questions de recherche :
En quoi les pratiques d’imitation concurrentielle sont elles le terrain d’expression de différentes raisons individuelles ?
De quelle façon l’incertitude environnante – et plus généralement – le contexte, influent ils sur les raisons qui sous tendent les pratiques d’imitation concurrentielle ?
L’intérêt que nous portons aux pratiques d’imitation concurrentielle et aux raisons dans lesquelles elles trouvent leur origine s’inscrit dans le prolongement de recherches ayant insisté sur le manque de micro fondations des travaux consacrés à l’imitation, et plus généralement, à la conformité inter-organisationnelle. Les travaux existants se sont, en effet, surtout focalisés sur les conséquences des phénomènes d’imitation concurrentielle sur la performance des organisations (imitées ou imitatrices) et sur leurs chances de survie respectives. Ils ont par ailleurs insisté sur le fait que l’imitation pouvait être à l’origine d’un mouvement de diffusion des innovations ou d’homogénéisation des organisations dans une population donnée.
Afin de compléter cette vision, DiMaggio (1995) a, dans un commentaire consacré à la sociologie néo-institutionnelle, appelé de ses vœux l’émergence d’une microsociologie des institutions 2. Cette préoccupation semble partagée par Montmorillon (1999) qui voit dans la théorie mimétique de Girard (1972, 1982) un moyen de comprendre les « rationalités mimétiques » individuelles qui sont à l’œuvre dans la théorie des conventions.
L’orientation microscopique et compréhensive de ce travail marque donc une rupture par rapport aux recherches antérieures. Poser le problème de l’imitation concurrentielle en termes de pratiques, c’est concevoir la stratégie comme le produit d’actions et d’interactions d’individus placés en situation d’incertitude. Poser le problème de l’imitation concurrentielle en termes de pratiques, c’est aussi s’intéresser à la façon dont ces acteurs, au fil de leurs hésitations et de leurs décisions quotidiennes construisent, fabriquent la stratégie de leurs organisations. En mettant entre parenthèses les questions liées aux conséquences de
2 Un plaidoyer qui a été, par la suite, prolongé par un ensemble de travaux consacrés à l’entrepreneur institutionnel où la question de l’imitation, centrale dans les travaux fondateurs de la sociologie néo- institutionnaliste, est progressivement devenue périphérique.
17 Introduction générale l’imitation et à ses objets pour nous focaliser sur la question du comment (traduite ici par l’intérêt que nous portons aux pratiques) et sur la question du pourquoi (qui transparait dans l’intérêt que nous portons aux raisons et aux modèles de rationalité), nous n’entendons pas invalider les travaux antérieurs mais apporter un éclairage complémentaire permettant d’améliorer la compréhension des phénomènes d’imitation concurrentielle. Cette orientation nous permettra de mobiliser des travaux issus de champs de recherche très éloignés les uns des autres mais qui ont tous abordé ces points.
Démarche générale de la thèse Notre démarche peut être qualifiée d’abductive. Par un va-et-vient entre les enseignements tirés des théories existantes et l’observation du terrain, nous chercherons d’une part à mieux comprendre le contexte et les pratiques d’imitation concurrentielle, et d’autre part à éclairer la façon dont elles contribuent à la fabrication de la stratégie dans les organisations. Le schéma qui suit propose un aperçu de l’architecture de la recherche.
Schéma 1 Architecture de la thèse
Introduction générale
Première partie Deuxième partie Revue de la littérature Méthodologie et résultats
Chapitre 1 Chapitre 4 Et pourtant, ils s’imitent Champ étudié et méthodologie
Chapitre 2 Chapitre 3 Chapitre 5 Chapitre 6 Les deux Imitation Un contexte Une typologie approches de et propice à des pratiques Abduction l’imitation incertitude l’imitation d’imitation
Synthèse de la première partie Discussion des résultats
Conclusion générale
18 Stratégie et imitation concurrentielle
Par souci de clarté, nous avons fait le choix de présenter les éléments théoriques issus de la littérature avant la partie empirique de la recherche. Ce choix ne correspond par réellement au processus au cours duquel la recherche a été réalisée. Les deux étapes ont en effet été menées en parallèle du fait de notre démarche abductive.
Première partie de la thèse : Revue de la littérature Le chapitre 1 ouvrira la partie théorique de la thèse et prendra pour point de départ l’opposition qui existe entre la critique théorique dont l’imitation a souvent été l’objet et sa fréquence en management. Il permettra de formuler la problématique générale de la thèse, de définir les principaux concepts sur lesquels nous nous appuierons et de préciser l’ancrage de la recherche dans le courant, plus général, de la stratégie en pratiques (Chanal, 2009 ; Golsorkhi, 2006a ; Jarzabkowski et Spee, 2009 ; Johnson, Melin et Whittington, 2003 ; Johnson, Langley, Melin et Whittington, 2007 ; Whittington, 2002, 2006). Sur la base d’une comparaison des théories consacrées à l’imitation concurrentielle, deux axes d’analyse de la littérature seront distingués. Ils feront l’objet des deux chapitres suivants.
Le chapitre 2 s’intéressera aux raisons qui poussent les décideurs à imiter leurs concurrents. Il aura pour objectif de montrer que les théories existantes se sont focalisées sur des explications partielles de l’imitation et qu’elles sont en réalité complémentaires. La dichotomie entre les raisons « instrumentales » et les raisons « évaluatives » que nous emprunterons à Boudon (2003), sera utilisée comme un fil directeur permettant d’articuler les théories mobilisées. Certaines de ces théories s’appuient sur une conception instrumentale de la rationalité humaine. Les raisons individuelles qu’elles mettent en avant pour expliquer les phénomènes d’imitation concurrentielle peuvent être liées à la volonté des stratèges de profiter de l’expérience d’autrui, de diminuer leurs coûts de recherche et développement ou de se prémunir des conséquences négatives d’une décision malencontreuse. Les autres théories que nous présenterons se fondent, quant à elles, sur une conception évaluative de la rationalité humaine. Elles peuvent, par exemple, faire appel à des explications insistant sur la quête d’identité sociale des décideurs ou à des considérations liées à la légitimité des organisations.
Le chapitre 3 proposera un axe de lecture complémentaire. Il sera consacré à la relation entre la notion d’incertitude et l’imitation. Si cette idée a fréquemment été mise en avant dans la littérature, nous verrons que les théories existantes n’appréhendent pas l’incertitude de la
19 Introduction générale même façon. Au-delà de l’incertitude, c’est la question du rapport des individus au contexte dans lequel ils doivent décider et agir qui sera abordée.
Les éléments théoriques développés dans la première partie de la thèse feront l’objet d’une synthèse qui permettra de formuler un cadre d’analyse et de justifier nos questions de recherche.
Deuxième partie de la thèse : Méthodologie et résultats Le chapitre 4 consistera en une présentation du champ d’étude (les radios musicales françaises et leurs programmateurs) et des méthodes utilisées. Par leurs décisions quotidiennes, les programmateurs façonnent le format musical des stations dans lesquelles ils opèrent et contribuent, par leurs pratiques, à la fabrication du positionnement stratégique de leurs organisations respectives. Nous verrons que ce champ d’étude se pose comme un bon point d’observation pour étudier les pratiques d’imitation concurrentielle. En effet, de nombreuses controverses, liées à un supposé plagiat de la programmation de NRJ par les radios régionales indépendantes, ont animé le secteur depuis 2004. Pour étudier les pratiques d’imitation des programmateurs et la façon dont elles alimentent la stratégie des radios, nous avons choisi de déployer une méthodologie qualitative inspirée de la théorie enracinée (Strauss et Corbin, 2004). Une série d’entretiens semi-directifs (Demers, 2003 ; Romelaer, 2005) a été menée avec les programmateurs des principales radios musicales françaises. Les radios visitées représentent environ 75% de l’audience des radios musicales en France. Ces entretiens ont été complétés par des entretiens de contexte réalisés auprès de dirigeants et d’animateurs de radios, de professionnels de l’industrie musicale (directeurs de label, directeurs de la promotion ou attachés de presse) et par des données secondaires (documents internes, articles de presse, relevés de diffusions en radio, etc.). Les entretiens ont fait l’objet d’une analyse de contenu réalisée à l’aide du logiciel NVivo 8. Le processus d’analyse s’est décomposé en trois phases (Richards, 2005) : codage signalétique, codage descriptif et codage analytique. Ces étapes correspondent à une progression dans la conceptualisation. Un double codage a été pratiqué pour garantir la fiabilité du processus d’analyse. L’analyse a permis de faire émerger deux types de résultats en réponse aux deux grandes questions de recherche formulées à l’issue de la revue de littérature.
La question du lien entre incertitude et imitation sera traitée dans le chapitre 5 . L’étude du contexte dans lequel évoluent les programmateurs permettra de montrer de quelle manière le
20 Stratégie et imitation concurrentielle caractère imprévisible des goûts musicaux du public est générateur de doutes et d’hésitations chez les programmateurs. Pour sortir de ces situations d’indécidabilité, les programmateurs utilisent des outils de recherche musicale et mobilisent un ensemble de normes partagées dans leur environnement professionnel, que nous qualifions « d’orthodoxie du Top 40 ». Ces normes, qui permettent de définir les « ingrédients d’un tube » n’apportent cependant que des réponses partielles aux questions récurrentes des programmateurs. L’imitation d’autrui pourra alors devenir un moyen d’autant plus fréquemment utilisé par les programmateurs pour se forger des certitudes qu’elle sera largement promue par les attachés de presse mandatés par les maisons de disques et rendue plus simple par l’existence d’un outil de suivi des diffusions musicales en radio (Yacast).
Dans ce contexte où l’incertitude trouve son expression dans les doutes et les hésitations des décideurs, on pourra être surpris par la diversité des pratiques d’imitation concurrentielle. Ces pratiques, fondées sur des raisons individuelles bien différentes, seront identifiées et analysées dans le chapitre 6 . La typologie que nous présenterons est articulée autour de la dichotomie « pratiques instrumentales » versus « pratiques évaluatives ». Les neuf pratiques types qui seront présentées ne répondent pas aux mêmes questionnements, ne donnent pas lieu à l’imitation des mêmes modèles et ne mobilisent pas les mêmes « raisons ». Les explications présentées comme mutuellement exclusives par la littérature sont donc complémentaires : elles trouvent leur expression dans des pratiques concomitantes.
Ces résultats permettront d’amorcer une discussion générale consacrée à la contribution des pratiques d’imitation concurrentielle à la fabrication de la stratégie. Les pratiques d’imitation concurrentielles identifiées dans la typologie permettent, chacune à sa manière, de lever des doutes et des hésitations chez les programmateurs. Ces derniers semblent alors plus enclins à se singulariser en diffusant des disques inconnus du public. Les résultats de notre étude consacrée aux radios musicales et à leurs programmes suggèrent que l’imitation peut constituer un préalable à la différenciation en rassurant les décideurs. Précisons ici que le terme différenciation n’est pas à entendre dans son acception portérienne mais comme une démarche visant à se singulariser de ses concurrents. La complémentarité de l’imitation et de la différenciation a déjà été soulignée par Deephouse (1999) qui, au travers du concept d’équilibre stratégique ( « strategic balance »), défendait l’idée que la clé du succès résiderait dans une position intermédiaire consistant à être partiellement identique et différent. Notre analyse est quelque peu différente. De par son ancrage dans le courant de la stratégie en
21 Introduction générale pratiques et sa posture compréhensive, elle insiste davantage sur les raisons individuelles et la contribution des pratiques d’imitation à l’élaboration de la stratégie que sur leur influence en matière de performance.
Cette démarche a un intérêt théorique : elle permet, par l’intégration d’explications théoriques parcellaires et leur mise en rapport avec le réel, de mieux comprendre les phénomènes d’imitation concurrentielle en management. Les praticiens pourront trouver, dans nos résultats, une occasion de prendre du recul tant sur leurs propres pratiques que sur la façon dont elles contribuent à la stratégie de leur organisation et la façonnent.
En conclusion , les apports et les limites de la recherche seront mis en évidence. Ils permettront d’esquisser des perspectives qui pourront orienter des travaux futurs.
22
Première partie Revue de la littérature
Chapitre 1 : Et pourtant, ils s’imitent p.26 Chapitre 2 : Les deux faces de l’imitation p.68 Chapitre 3 : L’imitation comme produit de l’incertitude p.124 Synthèse de la première partie p.152
24
Chapitre 1 Et pourtant, ils s’imitent
« C’est un bétail servile et sot à mon avis que les imitateurs ; on dirait des brebis qui n’osent avancer qu’en suivant la première et qui iraient sur ses pas jeter dans la rivière. »
Jean de La Fontaine, Clymène, 1671.
ette réplique d’Apollon dans Clymène, l’unique comédie écrite par Jean de La Fontaine, Cpourrait presque figurer parmi les préceptes d’un manuel de management stratégique. Perçue comme un non-sens stratégique, l’imitation se trouve, en effet, souvent exclue du champ de la stratégie.
A l’instar de Michael Porter qui dans un article séminal intitulé « What is Strategy ? » assimilait les tendances mimétiques des dirigeants à un recul de la réflexion stratégique au profit de considérations bassement opérationnelles (Porter, 1996, p.11), une importante littérature considère que dans une perspective de constitution d’avantage compétitif, le propre de la stratégie d’une organisation doit être de différer de celle menée par les concurrents. Il s’agira alors de répondre aux contraintes de l’environnement par l’adoption d’un positionnement concurrentiel original (Ansoff, 1987 ; Porter, 1982 [2004]), d’activer des ressources uniques auxquelles les concurrents n’auront pas accès (Barney, 1991), d’innover… en un mot, d’être différent. L’imitation, qui consiste à reproduire ou à chercher à reproduire une apparence, un acte, un geste d’autrui, à refaire ce que quelqu’un d’autre a déjà fait avant soi, ne présenterait donc qu’un faible intérêt.
Dans un environnement devenu changeant et hostile (D'Aveni, 1995), elle représenterait, plus que jamais, une stratégie vouée à l’échec (Bourgeois et Eisenhardt, 1988). Les entreprises qui, telles des démons de Gerasa, s’engouffreraient dans l’impasse stratégique du mimétisme seraient d’ailleurs frappées d’une « malédiction des suiveurs » (Demil et Lecocq, 2006) et
26 Première partie : Revue de la littérature condamnées à des performances médiocres (Barreto et Baden-Fuller, 2006 ; Westphal et al. , 1997).
Malgré l’existence de contre-exemples, montrant par exemple une relation positive entre le conformisme des entreprises du secteur informatique américain et leurs performances financières et commerciales (Geletkanycz et Hambrick, 1997) et la fréquence de pratiques de gestion, telles le « benchmarking » ou la veille concurrentielle, qui dissimulent souvent des comportements imitatifs, le discours dominant s’est institutionnalisé. Comme le résument les auteurs de ce manuel de référence en management stratégique : « une entreprise [qui] a la même stratégie que ses concurrents n’a pas de stratégie » (Johnson, Scholes, Whittington et Fréry, 2005, p.7).
Ce chapitre permettra de positionner la recherche dans le champ du management stratégique. Il aura également pour objectif de préciser les notions clés que nous utiliserons et d’apporter une justification théorique à notre sujet de recherche et à notre problématique.
Les notions d’imitation et de mimétisme ont jusqu’ici été utilisées de façon indifférenciée. Ces deux notions sont cependant distinctes et nécessitent que nous entreprenions un effort de définition. La section 1 nous amènera à préciser l’objet de la recherche : nous traiterons ici d’imitation et nous intéressons aux raisons qui poussent des décideurs à s’imiter les uns les autres.
La section 2 nous permettra de nous effacer derrière les critiques les plus souvent formulées à l’égard de l’imitation. Stratégie de seconde zone pour certains théoriciens du leadership et pour les défenseurs de l’avantage du premier entrant ( « first mover advantage »), l’imitation est décrite comme extrêmement dangereuse par Michael Porter, les partisans de l’approche par les ressources et certains théoriciens de la croissance endogène.
Ces critiques pourraient laisser à penser que l’imitation est un phénomène marginal dans le monde des affaires. Il n’en est rien. La section 3 nous donnera donc l’occasion de dresser un panorama des travaux qui tendent à souligner son omniprésence parmi les organisations. En dépit de son désintérêt stratégique et de sa dangerosité supposée, l’imitation se pose en effet comme un comportement récurrent.
27 Chapitre 1 : Et pourtant, ils s’imitent
C’est à partir de ce paradoxe que sera présentée, en section 4, la démarche de cette recherche. Malgré les critiques théoriques, les stratèges s’inspirent des solutions mises en œuvre par leurs concurrents, notamment pour élaborer leur stratégie. Quelles sont leurs intentions ? Quelles sont leurs pratiques de l’imitation ? Comment ces pratiques contribuent-elles à la stratégie de l’organisation ? Voilà posées quelques-unes des questions qui seront abordées dans la thèse.
1. QUELQUES ELEMENTS DE DEFINITION
En envisageant que les décisions réalisées dans certaines organisations puissent avoir une influence sur d’autres organisations, les recherches consacrées à l’imitation ou au mimétisme inter-organisationnel s’inscrivent, par construction, dans une critique du postulat d’autonomie des agents économiques. Elles se placent ainsi dans la filiation naturelle de la sociologie économique de Mark Granovetter (1985) ou des approches conventionnalistes (Orléan, 2001) qui prennent, chacune à leur manière, le soin d’encastrer les agents économiques dans un système de relations.
A l’instar de DiMaggio et Powell (1983) qui décrivent, sans s’enliser dans une définition fastidieuse, l’impact que peuvent avoir les phénomènes mimétiques sur l’homogénéisation des pratiques, des structures et des stratégies dans un champ organisationnel donné, rares sont néanmoins les recherches qui définissent clairement les concepts de mimétisme et d’imitation inter-organisationnels (Baize 1996) 3.
Cet effort est d’autant plus nécessaire que, transposés au domaine du management stratégique, les termes utilisés renvoient à des postulats différents sur l’organisation. Leur utilisation est donc susceptible d’orienter le chercheur dans des voies qui influenceront sa façon d’appréhender les phénomènes qu’il étudie. Cette partie sera donc l’occasion, non seulement de clarifier les termes utilisés, mais aussi, à la manière du voyageur qui, avant d’entreprendre son périple déclarerait le contenu de ses bagages en passant à la douane, de soumettre à l’appréciation du lecteur les présupposés qui imprègneront ce travail.
3 Cette auteure insiste, par ailleurs sur les différences entre les notions d’imitation et celles de copie/contrefaçon qui concerne davantage les produits que ses orientations stratégiques. Voir notamment Baize (1999).
28 Première partie : Revue de la littérature
1.1. LE MIMETISME ET LA MEMETIQUE
A l’origine cantonné au monde animal, le mimétisme recouvre « un ensemble de situations où il existe une ressemblance entre une chose et un animal, ou entre deux animaux, soit d’une même espèce, soit de deux espèces différentes » (Baudonnière, 1997, p.7). Le poisson clown et son anémone, le caméléon prenant la couleur de son environnement immédiat, la seiche se confondant avec le sable sont trois exemples de mimétisme animal.
Par extension, le terme est largement utilisé pour caractériser des situations de ressemblance faisant intervenir des organisations ou des êtres humains et impliquant des phénomènes de contagion. Pour expliquer ces phénomènes, les auteurs utilisant le concept de mimétisme proposent souvent des explications dénuées de rationalité (au sens ou elles ne postulent pas que les individus qui s’imitent aient des raisons particulières de le faire). On retrouve par exemple cette idée chez Tarde (1890 [2001], 1893 [1999]) qui explique les phénomènes de contagion par l’existence de lois auxquelles obéiraient des individus placés, bien malgré eux, dans un état proche du somnambulisme. Une idée proche est développée par Le Bon (1895 [2003]) dans sa Psychologie des Foules qui désigne une tendance naturelle des êtres humains à s’imiter les uns les autres caractérisée par une « âme de la foule ». Comme nous pouvons le voir, ces explications ont pour point commun de faire appel à de mystérieuses forces psychologiques ou culturelles (Hedström, 1998).
a) La mémétique (théorie des mèmes) On pourra trouver, dans la mémétique (ou théorie des mèmes), la version la plus aboutie de cette vision du monde. Ce n’est pas à partir de travaux en sciences sociales que s’est développée cette théorie mais à partir de l’intuition d’un homme, le biologiste Robert Dawkins (1978), concluant son ouvrage Le gène égoïste par une extension de la théorie de l’évolution de Darwin.
Postulant l’existence d’entités, les mèmes, se répendant par imitation, Dawkins décrit un mécanisme de diffusion de cerveau à cerveau, semblable au processus de diffusion des gènes pour les êtres vivants. Cette perspective permettrait d’étudier l’évolution culturelle et sociale de l’être humain. Les quatre premières notes de la Cinquième Symphonie de Beethoven, le concept de « produit star » de la matrice BCG, le « Business Process Reingenering » : autant d’éléments ayant fait leur apparition dans la sphère sociale, managériale ou culturelle et pouvant être désignés par le concept de mème.
29 Chapitre 1 : Et pourtant, ils s’imitent
b) Les limites de la mémétique : du mimétisme à l’imitation Comme le souligne Erner (2008), la mémétique appréhende la question de l’homogénéité et des ressemblances au niveau de l’espèce humaine. Les individus possèderaient un ensemble de mèmes (un mèmotype), équivalent socioculturel du patrimoine génétique, sur lequel ils n’auraient pas de prise. Cette orientation est clairement revendiquée par Susan Blackmore, grande admiratrice de Dawkins : il existerait des raisons mémétiques qui permettraient d’expliquer l’évolution humaine (Dawkins et Blackmore, 2006). Comme le montre l’étude de O’Mahoney (2008), unes des rares à transposer la mémétique dans l’univers du management, il s’agit de comprendre comment sont transposés les mèmes ou encore d’étudier leur modification progressive au fil des copies.
Lorsqu’elle est mobilisée en Sciences de Gestion, cette perspective revient à affirmer, avec les théoriciens de l’écologie des populations (Hannan et Freeman, 1977), et dans une moindre mesure avec les tenants de l’approche par le contrôle externe (Pfeffer et Salancik, 1978), que l’organisation n’a finalement que peu de prise sur son devenir, que celui-ci résulte davantage des évolutions aléatoires de l’environnement, des pressions externes auxquelles elle doit faire face, ou de processus de sélection lui échappant.
1.2. L’ IMITATION , UNE INTENTIONNALITE
Poser le problème des ressemblances inter-organisationnelles en termes d’imitation revient à l’opposé, à réintroduire une part de construction dans la destinée de l’organisation. Dans son sens le plus commun, l’imitation consiste en l’action de reproduire ou de chercher à reproduire (une apparence, un acte, un geste d’autrui). Imiter, c’est refaire ce que quelqu’un d’autre a déjà fait avant soi. Comme l’explique le psychologue Pierre-Marie Baudonnière, « l’imitation suppose que le comportement modèle soit décodé et interprété de façon suffisamment correcte pour que production et reproduction soient perçues comme semblables » (Baudonnière, 1997, p.43).
A la différence du mimétisme, elle procède donc d’une intentionnalité et obéit à une « sélectivité des comportements (on n’imite pas n’importe qui, n’importe quoi, n’importe quand) » (Baudonnière, 1997, p.7). Parler d’imitation, c’est admettre l’idée que les imitateurs puissent avoir quelques raisons de dupliquer les comportements, les attitudes ou encore les décisions de leurs modèles.
30 Première partie : Revue de la littérature
a) L’imitation inter-organisationnelle L’imitation inter-organisationnelle pourra alors se définir par la séquence suivante (Haunschild, 1993) : (1) une première organisation adopte une pratique donnée à la date t ; (2) une seconde organisation est exposée à ce modèle et (3) adopte la pratique en t + x (x désignant un laps de temps positif). La présence de similitudes entre plusieurs organisations n’est pas suffisante pour conclure à l’existence de comportements imitatifs chez les organisations. Comme le soulignent Thompson (1967), Haunschild (1993), Padioleau (2002) ou encore Webb et Pettigrew (1999), ces dernières peuvent être exposées aux mêmes problèmes et aux mêmes conditions environnementales. Il semble donc nécessaire d’ajouter à la définition de Haunschild (1993) une condition : l’existence d’un lien de causalité entre l’adoption de la pratique par la première organisation et son adoption par la seconde.
b) L’imitation concurrentielle Ancrée dans le champ de la stratégie, cette recherche s’intéressera à une forme particulière d’imitation inter-organisationnelle : l’imitation entre organisations concurrentes (désormais qualifiée « d’imitation concurrentielle »). Au plan théorique, cette question a fait l’objet de nombreux développements. La section qui suit est consacrée aux écoles les plus critiques vis- à-vis de l’imitation concurrentielle. Le contraste saisissant entre les critiques académiques qui vont être exposées, et les travaux empiriques mettant en exergue la fréquence des comportements imitatifs dans la vie des organisations, en général, et dans leur stratégie, en particulier, permettra d’amorcer notre réflexion.
Au cours de ce travail, nous chercherons à cerner les raisons qui peuvent pousser les stratèges à imiter leurs concurrents, à mieux connaître leurs pratiques d’imitation concurrentielle, à comprendre de quelle manière elles contribuent à la stratégie des organisations.
c) L’imitation réflective et la contrefaçon : deux concepts voisins Notre définition de l’imitation fait intervenir le concept d’intentionnalité. Cette approche, qui se justifie par l’intérêt que nous porterons aux raisons individuelles qui sous-tendent l’imitation, n’est pas la seule possible. Des concepts voisins, qui sortent du champ d’analyse de la recherche, vont maintenant être présentés afin de lever toute source éventuelle d’ambiguïté.
31 Chapitre 1 : Et pourtant, ils s’imitent
Une autre perspective, différente de celle que nous adoptons, pourrait consister à s’intéresser au degré de similitude entre un modèle et un original. Consacrant ses travaux à l’imitation de produits, Baize (1999, p.78) définit l’imitation comme une stratégie de l’entreprise consistant « à emprunter à un produit original certaines de ses caractéristiques » tout conférant à son offre « des caractères qui lui sont spécifiques parmi lesquels, notamment, la marque propre à l’entreprise imitatrice. » Le concept d’imitation « réflective » de Baize implique alors une part d’apprentissage et une volonté de l’imitateur de faire en sorte « que son produit soit considéré comme étant au moins un équivalent de l’original, c'est à dire comme un concurrent direct et durable. » A l’opposé, la contrefaçon serait destinée à leurrer le consommateur et consisterait en « la reproduction à l’identique d’un produit original ou, plus précisément, de ses signes distinctifs » (Baize, 1999, p.76).
2. UNE CRITIQUE THEORIQUE
L’analyse des approches les plus critiques à l’égard de l’imitation inter-organisationnelle permet de faire émerger trois grands types de critiques.
Un premier argument replace l’imitateur dans un rôle de stratège de seconde catégorie et décrit, à l’opposé, le leader comme être innovant, créatif, visionnaire, susceptible de résister au piège de l’imitation. Un effort de déconstruction nous amènera à souligner la filiation entre cette approche et des travaux plus anciens consacrés à la psychologie des foules.
Un second argument insiste sur le caractère contre-productif des stratégies d’imitation pour l’organisation qui imite ses concurrents. Il émane de recherches ancrées dans le champ de la stratégie. Dans les travaux consacrés à l’avantage du premier entrant, comme dans certaines analyses de Michael Porter, émerge en effet l’idée que les entreprises auraient intérêt à se différencier, à innover, à pratiquer l’anti-conformisme. Afin de ne pas sombrer dans la caricature, nous verrons que le caractère normatif de ces analyses est largement amendé dans certains de leurs développements.
Un troisième argument insiste sur les retombées négatives et collectives des stratégies d’imitation. L’imitation serait en effet susceptible de plonger des industries toute entières dans un cercle vicieux qui se traduirait par une baisse des profits pour l’ensemble des concurrents. En supprimant les incitations à innover, elle nuirait plus globalement à l’intérêt de la société dans son ensemble.
32 Première partie : Revue de la littérature
2.1. UNE ATTITUDE DE SECONDE ZONE POUR LES STRATEGES
S’éloignant du présupposé « rationaliste » qui imprégnait les premiers travaux sur le dirigeant d’entreprise (Fayol, 1916 ; Taylor, 1911), de nombreux auteurs ont consacré leurs recherches à la thématique du leadership.
Si le manager est parfois défini comme « ayant la responsabilité d’une organisation », comme « investi d’une autorité formelle dont découle un statut qui conduit à différentes formes d’interrelations et d’accès à l’information » (Mintzberg, 1989) 4, le leader demeure quant à lui souvent insaisissable. Cette difficulté de définition tient à l’ambiguïté d’un concept (Pfeffer, 1977) qui renvoie à la fois à des traits de personnalité, à des processus de groupe, à une position sociale, à une relation de pouvoir, etc. (Bass et Stogdill, 1990). Comme le résume Bennis (1991, p.11), en considérant le leadership comme une caractéristique personnelle, « le leadership c’est comme la beauté : difficile à définir mais reconnaissable quand on la voit ». Parallèlement à des travaux qui, dans un effort de rigueur scientifique ont différencié plusieurs types de leadership et cherché à étudier leurs effets, certains auteurs ont tenté de capter l’essence du leadership sur la base de comparaisons entre le leader et l’administrateur.
La question « les administrateurs et les leaders sont-ils différents ? », posée par Abraham Zaleznik (1977) tient alors plus de la figure rhétorique que d’une véritable interrogation : la réponse est bien évidemment positive. A en croire ce professeur à la Harvard Business School, le monde des affaires serait peuplé de deux sortes d’individus qui divergeraient dans leurs motivations, leur parcours personnel, leur façon de voir le monde et leur psychologie 5. Alors que l’administrateur a tendance à se concevoir comme le « conservateur et le régulateur d’un ordre existant »6 (Zaleznik, 1977, p.74), le leader demeure un être à part, plus proche de l’artiste. Cette opinion est partagée par Warren Bennis (1991, p.15) pour qui les « leaders ne sont pas du tout des êtres ordinaires. Ils défrichent les terres vierges, là ou demain commence à prendre forme. » Alors que l’administrateur copie, le leader est un original. Alors que l’administrateur gère les affaires courantes, le leader développe des
4 Cité par (Calvo-Ryba, 2004, p.2) 5 “The truth of the matter, as I see it, however, is that just as managerial culture is different from entrepreneurial culture that develops when leaders appear in organization, manager and leaders are very different kinds of people. They differ in motivation, personal history, and in how they think and act.” (Zaleznik, 1977, p.70) 6 “Managers see themselves as conservators and regulators of an existing order of affaires with which they personally identify and from which they gain rewards”
33 Chapitre 1 : Et pourtant, ils s’imitent nouveautés. Alors que l’administrateur accepte le statu quo , le leader le défie. Alors que l’administrateur imite, le leader crée (Bennis, 1991, p.51).
Patricia Pitcher (1996), sur la base de trois idéaux-types, file, quant à elle, la métaphore de l’artiste, de l’artisan et du technocrate. Visionnaire, créatif et imaginatif, le dirigeant « artiste » est aidé dans la mise en œuvre de sa stratégie par des « artisans ». A la figure du leader « artiste » s’oppose celle d’un « technocrate » méthodique, fastidieux, psychorigide, incapable de tracer sa propre voie, reproduisant des solutions éculées.
En faisant du leader un être ayant la caractéristique de tracer sa propre voie, indépendamment des choix réalisés par autrui, ces théoriciens du leadership rejoignent « l’image familière d’un individu isolé […] qui est contenue dans notre représentation de la horde originelle » (Freud, 1921 [2006], p.212). Largement développée par Freud, cette conception appréhende le chef comme un « opérateur de totalisation du collectif » (Dupuy, 2003, p.58), comme une « résurrection » du père de la horde primitive : « Même à l’état isolé, ses actes intellectuels étaient forts et indépendants, sa volonté n’avait pas besoin d’être renforcée par celle des autres […]. A l’aube de l’histoire humaine, il représentait ce surhomme dont ietzsche n’attendait la venue que dans un avenir éloigné. […] Le chef est doué d’une nature de maître, son narcissisme est absolu, mais il est plein d’assurance et indépendant. » (Freud, 1921 [2006], pp.213-214). Dans la plus pure tradition nietzschéenne, le chef se doit d’être libre. Libre parce qu’indépendant. Indépendant parce qu’asocial. Envisager qu’un leader puisse avoir recours à l’imitation reviendrait à atteindre à son indépendance, à s’éloigner de la représentation familière du chef de horde telle qu’explicitée par Freud. La stratégie, la création et l’innovation demeurent donc le pré carré des leaders, le suivisme, le conformisme, l’imitation étant réservés à la horde primitive des managers.
2.2. UNE STRATEGIE ININTERESSANTE POUR LES ORGANISATIONS IMITATRICES
S’éloignant de la vision, pour le moins normative, défendue par les travaux qui viennent d’être cités, les recherches consacrées au « first mover advantage », qu’elles s’inscrivent dans le champ de la stratégie et du marketing, étudient les retombées positives ou négatives associées au statut d’innovateur, à la position de pionnier. (Kerin, Varadarajan et Paterson, 1992 ; Lieberman et Montgomery, 1988, 1998 ; Szymanski, Troy et Bharadwaj, 1995).
34 Première partie : Revue de la littérature
Cet avantage pourra notamment se traduire par une part de marché supérieure à celle détenue par les suiveurs (Kalyanaram, Robinson et Urban, 1995 ; Kerin et al. , 1992) à laquelle seront souvent corrélés les bons résultats financiers de l’entreprise (Mueller, 1986, 1997). Il sera d’autant plus fort que la demande sera incertaine et la technologie changeante (Zhou, 2006). Les imitateurs qui entreront plus tardivement sur le marché devront supporter des coûts plus importants pour conquérir une position concurrentielle viable (Bowman et Gatignon, 1996). L’encadré 1 présente une synthèse des mécanismes permettant d’expliquer pourquoi les pionniers peuvent espérer jouir d’un avantage concurrentiel.
Encadré 1 Mécanismes explicatifs de l'avantage des premiers entrants
1) Permettant à l’entreprise pionnière de bénéficier d’un avantage de coût, les mécanismes économiques peuvent trouver leur source dans des économies d’échelle, un effet d’expérience (Robinson et Fornell, 1985) ou dans le coût marginal croissant des investissements publicitaires (qui augmente le coût relatif supporté par les suiveurs). 2) Les mécanismes de préemption (« preemption mecanisms ») renvoient à un accès privilégié aux ressources stratégiques. De par sa position de pionnier, l’entreprise pourra accéder aux meilleurs emplacements (Lieberman et Montgomery, 1988) et en faire l’acquisition à un coût souvent inférieur à celui que supporteront ses concurrents. Ces mécanismes peuvent être à l’origine, soit d’un avantage de coût, soit d’un avantage de différenciation. 3) Les mécanismes technologiques peuvent désigner des innovations dans les produits ou les procédés de fabrication autant que des innovations dans l’organisation. Ils peuvent, là encore, être au cœur d’un avantage de coût ou de différenciation. 4) Source de différenciation, les mécanismes comportementaux renvoient aux coûts de transfert supportés par les consommateurs en cas de changement de fournisseur, au statut de « standard du marché » (Carpenter et Nakamoto, 1989) obtenu par le premier entrant, ainsi qu’aux effets de réseau et de réputation.
D’après Kerin et al. (1992)
Une entreprise pionnière ayant rencontré le succès a néanmoins de fortes chances d’être imitée. Soulignant le rôle moteur de l’innovation dans le développement économique, l’économiste Joseph Schumpeter avait déjà observé ce phénomène qui s’insérait, selon lui, dans un processus de destruction créatrice : dans chaque industrie, l’innovation et l’imitation constituent les deux moteurs de la concurrence à laquelle se livrent les entreprises.
Parce qu’il aura appris à fabriquer des produits d’une qualité supérieure, le pionnier pourra espérer évincer ses concurrents et jouir d’une rente de monopole. Cette rente demeurera cependant temporaire. Le pionner sera bientôt imité par des entreprises qui apprendront à
35 Chapitre 1 : Et pourtant, ils s’imitent fabriquer des versions alternatives de son innovation. Le pionnier « a en quelques sortes vaincu, ouvert un chemin pour d’autres aussi ; il a créé un projet que ces derniers peuvent copier. Ils peuvent le suivre, ils le suivront, d’abord à quelques uns, puis par masses entières » (Schumpeter, 1935 [1999], p.199). C’est par cette mécanique que les anciens produits sont remplacés par les nouveaux, et que les avancées technologiques se diffusent au sein de l’économie.
Sans remettre en question les avantages associés à la position de « first mover », plusieurs auteurs estiment que des entrants tardifs peuvent parfois obtenir des performances (en termes de part de marché et de profitabilité) supérieures à celles obtenues par les pionniers (Hoppe, 2000 ; Lieberman et Montgomery, 1988, 1998 ; Tellis et Golder, 1996). Ces travaux seront détaillés un peu plus loin dans la revue de littérature. La situation est ainsi résumée par Porter dans L’avantage concurrentiel (Porter, 1986 [2003], p.134) : « Il est fréquent que le précurseur s’empare d’un avantage durable par les coûts en se réservant les meilleurs emplacements, en embauchant avant les autres le meilleur personnel, en obtenant un accès aux fournisseurs les plus recherchés ou en prenant des brevets. De fait, dans certains secteurs, seul le premier à bouger peut acquérir un avantage substantiel par les coûts. Dans d’autres secteurs, les firmes qui attendent peuvent obtenir certains avantages dans le domaine des coûts, parce que la technologie change rapidement ou parce qu’elles peuvent étudier et imiter à bon compte les actions entreprises par le précurseur. »
Les dirigeants seraient donc bien mal avisés de se couper, a priori , de l’expérience de leurs concurrents. Porter soutient ainsi que « l’orgueil ne devrait pas empêcher d’exploiter l’apprentissage des concurrents. […] Il existe un grand nombre de moyens de s’approprier l’apprentissage des concurrents : rétro ingénierie des produits, étude de documents publiés tels que les fichiers des brevets et les articles de journaux, entretien de relations avec leurs fournisseurs pour accéder au savoir faire et connaître leurs derniers moyens de production achetés » (Porter, 1986 [2003], p.131).
Doit-on voir dans ces propos une réhabilitation de l’imitation en matière de stratégie ? Ne nous y trompons pas : si les auteurs orthodoxes soulignent parfois certains de ses bienfaits potentiels, ils s’accordent à cantonner l’imitation dans un rôle accessoire. Derrière cet apparent paradoxe, nous retrouvons la dichotomie « stratégie » versus « efficacité opérationnelle » reprise par Porter (1996) : L’imitation pourra permettre à l’entreprise de
36 Première partie : Revue de la littérature conduire ses activités de façon plus efficace que ses rivaux (efficacité opérationnelle) mais ne devra pas occulter l’essentiel de la stratégie, choisir un positionnement clair et différent de celui adopté par les concurrents.
2.3. UNE STRATEGIE DANGEREUSE POUR LA COLLECTIVITE
En dépit de son absence d’intérêt stratégique, l’imitation conserve un potentiel de nuisance bien réel : « une imitation ‘facile’ entraîne une rapide disparition des rentes »7 (Teece, Pisano et Shuen, 1997, p.526). Si certains auteurs viennent apporter quelques nuances 8, cette conception demeure la plus largement répandue dans la littérature stratégique. Les effets négatifs de l’imitation ne se limitent cependant pas à l’entreprise pionnière (niveau micro- économique), ils remettent également en cause la dynamique de l’industrie (niveau méso- économique), éloignent la collectivité d’une solution optimale et compromettent la croissance économique (niveau macro-économique).
a) Une menace pour l’avantage concurrentiel La nocivité de l’imitation pour le pionnier, déjà soulignée par Schumpeter (1935 [1999]), a notamment été observée par Armour et Teece (1978) qui, dans un article devenu célèbre, ont montré que les avantages retirés par l’utilisation de la structure multi-divisionnelle s’amenuisaient à mesure que celle-ci était communément adoptée. Le monde des affaires regorge d’innovateurs déchus, de pionniers rattrapés et dépassés par leurs concurrents : Intel dans le domaine de la production de barrettes de mémoire pour PC (imité par des concurrents japonais), Macintosh pour les OS à interface graphique (imité par Microsoft et son célèbre Windows) sont deux exemples d’entreprises ayant dû faire face aux effets dévastateurs de l’imitation (Ma et Karri, 2005, p.71).
En réduisant la capacité des innovateurs à soutenir un avantage concurrentiel, l’imitation constituerait une menace pour leur performance (Hitt, Ireland et Hoskisson, 2007 ; Sirmon, Arregle, Hitt et Webb, 2008). Et Koenig (1999, p.221) d’estimer, à la suite de Rumelt (1984), que « la capacité d’une entreprise à soutenir un avantage concurrentiel dépend de la facilité avec laquelle elle peut être imitée par d’autres. »
7 "Easy imitation implies the rapid dissipation of rents.” 8 Sur la base de la théorie des jeux, Conner (1995) démontre que des externalités de réseau peuvent amener un innovateur à encourager des imitateurs pour imposer un standard technique, lancer une mode, etc. Le risque est néanmoins d’enfermer l’industrie toute entière dans un standard alors qu’une meilleure alternative serait disponible (Farrell et Saloner, 1985).
37 Chapitre 1 : Et pourtant, ils s’imitent
Plusieurs auteurs ont alors tenté d’élaborer des réponses possibles parmi lesquelles la mise en place de manœuvres visant à rendre l’imitation faiblement payante afin de « défendre sa position contre des imitateurs ou des nouveaux venus » (Porter, 1982 [2004], p.188) telles que le positionnement dans un groupe stratégique protégé par des fortes barrières à la mobilité (Porter, 1979), la mise en place de protections légales tels que les brevets (Coyne, 1986), l’adoption de stratégies complexes en termes de nombre de décisions et d’interactions entre ces décisions (Rivkin, 2000) ou de stratégies de ruptures difficilement réplicables (Dumoulin et Simon, 2005). De leur côté, d’autres contributeurs semblent privilégier des stratégies d’évitement en préconisant aux entreprises victimes d’imitation de trouver d’autres sources d’avantage concurrentiel ou de s’internationaliser (Hitt, Tihanyi, Miller et Connelly, 2006 ; Morrow, Sirmon, Hitt et Holcomb, 2007).
Les développements les plus poussés sont néanmoins à inscrire au crédit des tenants des approches par les ressources et par les compétences (Barney, 1991 ; Dierickx et Cool, 1989 ; Peteraf, 1993 ; Rumelt, 1984 ; Teece et al. , 1997 ; Wernerfelt, 1984). S’éloignant du postulat d’homogénéité et de mobilité des ressources (voir notamment Koenig, 1999 ; Priem et Butler, 2001), ces auteurs se sont souvent attachés à mettre en lumière les conditions sous lesquelles les ressources d’une entreprises peuvent constituer une source d’avantage concurrentiel. Selon Barney (1991) la rareté, la valeur (la capacité d’une ressource à permettre l’exploitation d’une opportunité ou la neutralisation d’une menace), la non-substituabilité et le caractère difficilement imitable d’une ressource sont de nature à permettre la constitution d’un avantage concurrentiel 9.
Comme l’explique Barney, plusieurs éléments peuvent être de nature à gêner et à rendre coûteuse l’imitation d’une ressource par des concurrents (Barney, 1991, 2001). C’est par exemple le cas de conditions historiques particulières qui ne se répéteront pas, d’une imbrication dans des mécanismes sociaux et organisationnels complexes, mais surtout d’une ambiguïté causale (Lippman et Rumelt, 1982 ; Reed et DeFillippi, 1990) empêchant les concurrents « d’identifier avec certitude les causes de l’efficience du leader » et de mettre en
9 Notons ici que, dans la conception proposée par Barney, l’avantage concurrentiel ne saurait être durable en ce qu’il pourrait être remis en cause par une évolution majeure de l’environnement (une révolution technologique par exemple). La Resource-based « view » privilégie donc la notion d’avantage soutenable (capable de résister aux tentatives d’imitation des concurrents).
38 Première partie : Revue de la littérature lumière les « moteurs de son avantage concurrentiel » (Forgues et Lootvoet, 2006, p.199) 10 . Dès lors, constituer un avantage concurrentiel sur la base de routines (Nelson et Winter, 1982), de compétences largement tacites (Teece et al. , 1997), de ressources et de compétences fortement ancrées dans les processus de l’entreprise et étroitement liées à ses autres ressources (Dierickx et Cool, 1989 ; Teece et al. , 1997) constituent des moyens de se prémunir de la menace incarnée par des imitateurs potentiels.
Cette volonté de maintenir un certain degré d’ambiguïté causale pour gêner les imitateurs potentiels est susceptible de placer l’organisation en situation de « double bind ». La codification du savoir (conversion du savoir tacite en savoir explicite) a souvent été décrite comme un préalable indispensable au transfert de connaissances et à l’apprentissage organisationnel (Bierly et Chakrabarti, 1996 ; Nonaka et Takeuchi, 1995 ; Szulanski, 1996). En rendant explicite le savoir tacite, l’organisation facilite néanmoins l’imitation et fragilise son avantage concurrentiel (Schulz et Jobe, 2001 ; Zander et Kogut, 1995). La codification du savoir doit donc s’accompagner, pour la firme innovatrice, d’un effort de protection légale de ses innovations (García-Muiña, Pelechano-Barahona et Navas-López, 2008).
Remettant en question le nécessaire effort de protection vis-à-vis des imitateurs, McEvily et ses collègues (2000) avancent l’idée que plus un concurrent aura du mal à imiter une ressource, plus il aura tendance à essayer de trouver une ressource de substitution qui pourra constituer une menace plus sérieuse pour l’avantage concurrentiel. L’imitation pourrait donc, selon ces auteurs, constituer un « moindre mal » compte tenu des retombées négatives liées au développement, par des concurrents, d’une ressource de substitution.
10 Dans toute la littérature consacrée aux barrières à l’imitation, l’ambiguïté causale est probablement le concept ayant fait l’objet du plus grand nombre de travaux empiriques. Pour autant, comme le notent Powell, Lovallo et Caringal (2003) à la suite de King et Zeithaml (2001, 2003), les résultats tendant à prouver une corrélation positive entre ambiguïté causale et performance de l’entreprise demeurent, en l’état actuel, très peu convaincants. Au-delà des défis méthodologiques suscités par la mesure de l’ambiguïté causale, une question théorique majeure demeure non résolue : l’ambiguïté causale peut certes réduire l’imitabilité d’une ressource ou d’une compétence, mais elle peut également rendre plus difficile l’exploitation (en interne) de la dite ressource ou compétence (King et Zeithaml, 2001, 2003 ; Powell et al. , 2003). Dès lors, l’influence de cette variable sur la performance de l’entreprise apparaît complexe.
39 Chapitre 1 : Et pourtant, ils s’imitent
b) Un jeu auquel tout le monde perd Au-delà de l’entreprise imitée, ce sont les profits de l’industrie toute entière qui peuvent être affectés par l’imitation (Nelson et Winter, 1982 ; Porter, 1982 [2004]). Dans l’esprit de la tragédie des communaux 11 l’imitation, lorsqu’elle se généralise, est considérée comme le pillage d’une ressource (d’une innovation) partagée : les imitateurs perdraient de vue l’intérêt commun en négligeant les retombées négatives de leurs décisions sur les autres. L’imitation généralisée aurait ainsi contribué à plonger le secteur cimentier français dans une crise de surcapacité (Dumez et Jeunemaitre, 1995, 1996).
Dans l’industrie, l’imitation est par ailleurs susceptible d’enclencher un cercle vicieux, « une concurrence à somme nulle, des prix fixes où orientés à la baisse, une pression sur les coûts de nature à compromettre la capacité des entreprises à réaliser des investissements à long terme » (Porter, 1996, p.64). En s’imitant les unes les autres, les entreprises chasseraient sur les mêmes terres stratégiques, entreraient en compétition pour conquérir les mêmes clients et s’adresser aux mêmes marchés. Cette augmentation de l’intensité concurrentielle aurait, bien sûr, pour conséquence de minorer la capacité des firmes à générer des profits (Cool, Roller et Leleux, 1999 ; Whalen, 1992).
Les entreprises auraient donc renoncé à la stratégie, victimes de l’angoisse que ressentent leurs managers à l’idée de faire des choix clairs. Focalisés sur leurs tableaux de bords, obsédés par un climat (réel ou fantasmé) d’hyper-compétition, enfermés dans leur quête d’efficacité opérationnelle et inondés d’informations relatives aux décisions prises par leurs concurrents, ces derniers auraient succombé au piège des « best practices » et de l’imitation renonçant, du même coup, à l’essence de la stratégie. Ils se seraient engagés dans une concurrence fondée sur la seule efficacité opérationnelle aux résultats dramatiques. Pour sortir de ce cercle vicieux, Koenig (1999, p.218) préconise de privilégier des stratégies de distinction qui mettent « en présence des firmes dont les systèmes de ressources sont profondément différents et qui sont capables d’offrir des produits aux caractéristiques fonctionnelles […] contrastées » à des stratégies de différenciation ne visant qu’à
11 Phénomène bien connu des économistes, la « tragédie des communaux » renvoie à l’idée que « lorsqu’il existe une ressource commune, que tout le monde peut utiliser gratuitement et librement, aucun usager ne pense aux possibles effets négatifs de ses actes sur les autres » (Stiglitz, 2006, p.228). Popularisée par Garrett Hardin (1968), l’expression renvoie explicitement aux « communaux », terrains sur lesquels les paysans anglais faisaient paître leurs moutons au moyen-âge : focalisé sur son propre intérêt, chaque paysan y envoyait de plus en plus de moutons. Les moutons étant de plus en plus nombreux, l’herbe disparaissait, créant un résultat sous-optimal pour l’ensemble de la collectivité.
40 Première partie : Revue de la littérature
« poursuivre la concurrence sur d’autres variables que le prix. » Les secondes d’instaurer un simple partage du marché (jeu à somme nulle) là où les premières sont susceptibles de développer la demande (jeu à somme positive).
c) La croissance économique compromise Opposant innovation à imitation, de nombreux économistes ont tenté – dans le prolongement des travaux de Schumpeter – de mettre en exergue les effets négatifs d’une politique économique encourageant l’imitation sur la croissance économique. Des modèles de croissance endogène, étudiant les effets de l’innovation et de l’imitation sur l’économie, ont ainsi été proposés. Là encore l’imitation est souvent décrite comme une voie à ne pas suivre. En diminuant le retour des investissements en recherche & développement réalisés par les innovateurs, elle rendrait l’innovation moins attractive et viendrait compromettre la croissance économique 12 . Selon Davidson et Segerstrom (1998), qui sont sur ce point rejoints par Zeng (2001) un gouvernement qui déciderait d’encourager l’imitation par une politique de subventions, augmenterait certes le bien-être des consommateurs (qui pourraient ainsi bénéficier d’une offre plus large à des prix plus bas) mais conduirait à ralentir la croissance en décourageant les innovateurs.
3. DES REALITES EMPIRIQUES
Nous allons maintenant voir qu’en dépit de son caractère anti-stratégique supposé, l’imitation est très courante en management. Les comportements imitatifs sont susceptibles de concerner des pans très divers de la vie des organisations tels que le choix du lieu d’implantation (Baum, Li et Usher, 2000), les décisions d’implanter un progiciel intégré de gestion (Pupion et Leroux, 2006), le choix d’un banquier d’affaire pour chapeauter une acquisition (Haunschild et Miner, 1997), l’adoption de tel ou tel régime fiscal (Pupion et Montant, 2004), la fixation du niveau de stock-options attribués aux dirigeants (Brandes et al. , 2006) ou encore la décision d’entrer dans un consortium (Bolton, 1993).
12 Un argument fréquemment attribué à Arrow (1962) permet d’apporter quelques nuances. En diminuant les rentes associées l’innovation, l’imitation aurait certes un impact négatif sur les profits des entreprises pionnières mais elle les inciterait également à continuer à innover pour conserver leur avance. Dans une économie placée en situation d’équilibre, l’imitation pourrait donc avoir un effet bénéfique (Aghion, Harris et Vickers, 1997 ; Aghion, Harris, Howitt et Vickers, 2001 ; Aghion, Bloom, Blundell, Griffith et Howitt, 2005 ; Zhou, 2009).
41 Chapitre 1 : Et pourtant, ils s’imitent
Les décisions stratégiques ne font pas figure d’exception : les radios américaines s’imitent pour déterminer leur positionnement stratégique (Greve, 1996, 1998), les firmes américaines s’imitent pour décider de leur structure organisationnelle (Fligstein, 1985 ; Palmer, Jennings et Zhou, 1993), les multinationales asiatiques s’inspirent de l’expérience de leurs compétiteurs pour établir leurs stratégies d’internationalisation (Guillén, 2002, 2003 ; Henisz et Delios, 2001).
Selon les industries étudiées, les comportements imitatifs peuvent être plus ou moins courants, et plus ou moins tolérés. Dans une étude consacrée à l’industrie hôtelière, Baum et Ingram (1998) citent ainsi un article tiré de la presse professionnelle aux allures de « pousse au crime ».
« Un professionnel qui ne visite pas et n’inspecte pas au moins dix hôtels par an est un fainéant. Quand je parle d’inspection des hôtels, je veux dire qu’il faut que vous commenciez par le toit et que vous descendiez jusqu’aux fondations et que vous identifiez tous les bons points de l’offre proposée par le manager de l’hôtel. » 13
Hotel Monthly, Octobre 1939, cité par Baum et Ingram (1998, p.1000)
Au-delà de cet exemple anecdotique, les théories de la diffusion (section 3.1) et les travaux consacrés aux modes managériales (section 3.2) rendent compte, non seulement de l’importance du phénomène imitatif en Sciences de Gestion, mais aussi de sa diversité. Les théories de la diffusion et des modes managériales sont deux ensembles conceptuels qui ont été façonnés par l’agrégation de très nombreux travaux empiriques consacrés à des secteurs d’activités divers et s’intéressant à des situations où l’imitation est susceptible de porter sur des objets très différents.
Ni les théories de la diffusion, ni les travaux consacrés aux modes managériales ne constitueront le socle conceptuel de la thèse. Leur présentation aura ici pour objectif de souligner la régularité des phénomènes d’imitation en Sciences de Gestion. Au risque de nous éloigner du fil directeur de ce chapitre, nous avons fait le choix de présenter de façon approfondie ces courants afin de ne pas les caricaturer. Les deux courants de recherche seront synthétisées à la fin des sections 3.1 et 3.2 par le biais d’encadrés de synthèse.
13 “Any hotel man who does not visit and inspect at least ten hotels a year is slipping. When I say inspect the hotels, I mean that you must start at the roof and go to the basement and listen to the good points the manager has to offer.”
42 Première partie : Revue de la littérature
3.1. L’ APPORT DES THEORIES DE LA DIFFUSION
Les théories de la diffusion peuvent constituer une porte d’entrée dans l’étude des phénomènes d’imitation. Le concept de diffusion a, en effet, souvent été mobilisé, en sciences sociales, pour expliquer l’homogénéité (Strang et Meyer, 1993). Depuis les travaux fondateurs de Ryan et Gross (1943) consacrés au phénomène de diffusion du maïs hybride, des chercheurs, officiant dans des disciplines variées, se sont ainsi intéressés à la façon dont se diffusent des innovations, telles que le téléphone, les tests de dépistage de la tuberculose, les croyances religieuses, les kidnappings, l’organisation multi-divisionnelle, la stratégie de diversification, etc.
Ce domaine de recherche, hétéroclite dans ses objets et dans ses champs disciplinaires de rattachement a largement été façonné par Rogers qui, par les éditions successives de son ouvrage Diffusion of innovation s (Rogers, 1962, 1983, 1995, 2005 ; Rogers et Shoemaker, 1971) a contribué à la visibilité, à l’agrégation de travaux disparates et à la construction de la plateforme conceptuelle que nous désignons aujourd’hui par le label « théorie de la diffusion » en proposant un modèle universel de diffusion des innovations.
Le terme innovation est utilisé pour désigner ce qui se diffuse. Dans le domaine des Sciences de Gestion, il pourra s’agir d’une nouvelle pratique (comme l’attribution de stock-options aux dirigeants ou la mise en place de cercles de qualité), d’une nouvelle technologie, d’une nouvelle structure organisationnelle ou d’une nouvelle stratégie (Strang et Soule, 1998). A la suite de Westphal et ses collègues (1997), il convient de préciser que les modalités d’adoption de ces innovations peuvent différer d’une organisation à une autre : les entreprises peuvent, par exemple, adapter des pratiques de qualité totale en fonction de leurs propres spécificités.
a) Principe général La diffusion est définie comme un « processus par lequel une innovation se communique au travers de certains canaux au fil du temps parmi les membres d’un système social » (Rogers, 2003) 14 . Parmi les différents facteurs susceptibles d’influer sur le processus de diffusion, l’imitation joue un rôle essentiel.
14 “We defined diffusion as the process by which an innovation is communicated through certain channels over time among the members of a social system.”.
43 Chapitre 1 : Et pourtant, ils s’imitent
Comme le souligne Granovetter (1978, 2000b) dans un de ses premiers travaux, la propension à l’imitation est différente selon les individus ou selon les organisations : certains acteurs seraient plus moutonniers que les autres. Prenant l’exemple d’une émeute, le père de la sociologie économique explique, par exemple, que chaque participant potentiel a besoin d’attendre qu’un certain nombre d’individus s’y soient engagés préalablement avant de s’y engager à son tour.
Ce seuil, à partir duquel l’individu décide d’adopter une innovation est défini comme la proportion d’individus, dans son groupe de référence, ayant fait ce choix avant qu’il ne le fasse à son tour. Pour les premiers adoptants, ce seuil est proche de 0% : ils adoptent l’innovation même si personne ne les a précédé. Pour les adoptants tardifs en revanche, ce seuil est proche de 90% : ils ont besoin que la plupart des individus qui composent leur environnement social aient adopté l’innovation avant de l’adopter à leur tour. Dans la réalité cependant, peu d’individus se montrent aussi radicaux ou aussi conservateurs : les individus ont des seuils moyens, et différents les uns des autres. Nous avons tous un seuil à partir duquel nous pouvons décider de quitter une réunion publique ennuyeuse (alors que la politesse ou la timidité nous inciteraient à y rester), de voter pour un candidat à une élection (non seulement en raison d’une pression sociale mais aussi pour ne pas gaspiller notre vote), de contribuer à la propagation d’une rumeur, etc. C’est la distribution de ces seuils qui conditionne la façon dont chaque innovation se diffuse.
b) Du déclenchement du processus de diffusion Les changements de l’environnement constituent souvent un facteur déclencheur du processus de diffusion. Selon Fligstein (1990), la politique « antitrust » du gouvernement fédéral américain aurait ainsi initié la diffusion des stratégie de diversification, les firmes américaines voyant leurs possibilités d’intégration verticale réduites. Ces stratégies auraient préalablement été adoptées par des « innovateurs déviants » avant de se diffuser plus largement, par contagion. Dans la définition des phénomènes de contagion qu’il propose, Burt (1987) fait entrer en jeu deux individus (ou deux organisations) respectivement désignés par les termes ego et alter . L’ ego , qui n’a pas encore adopté l’innovation entre en contact avec l’ alter , l’ayant déjà adoptée, et l’adopte à son tour. Cette définition est très proche de celle proposée par Haunschild (1993) pour caractériser l’imitation.
44 Première partie : Revue de la littérature
Ne connaissant pas avec précision les coûts et les bénéfices associés à l’adoption d’une innovation (Burt, 1987), les membres d’une organisation sont supposés imiter ce qui est fait dans d’autres organisations ou ce qui apparaît comme tel, au travers par exemple des discours des dirigeants (Westney, 1987).
c) De l’observabilité : avantages perçus et transposabilité L’observabilité d’une pratique est une condition à son imitation (Haunschild, 1993). En exposant certaines innovations organisationnelles, les grands médias et la presse managériale peuvent, de la même façon qu’ils contribuent à la dissémination des modes vestimentaires (Warnier et Lecocq, 2007), contribuer à la diffusion d’innovations managériales, notamment en relayant les expériences réussies par certaines entreprises pionnières. Les médias jouent alors un rôle de régulateurs institutionnels de l’innovation (Hirsh, 1972).
Selon Burns et Wholey (1993), la diffusion de la structure matricielle parmi les hôpitaux américains aurait ainsi largement été influencée par la presse écrite. En « donnant à voir » certaines pratiques, les cabinets de conseil et les formations en management peuvent également contribuer à la diffusion d’innovations managériales (Strang et Soule, 1998). Dans le même ordre d’idée, les prestataires informatiques et les fabricants de matériel auraient, selon Dos Santos et Peffers (1998), impulsé le processus de diffusion des premières plateformes de e-commerce aux Etats-Unis. L’observabilité peut également être plus immédiate. Une entreprise a ainsi plus de facilité à répliquer une décision prise par des entreprises opérant sur la même zone géographique (Burns et Wholey, 1993 ; Davis et Greve, 1997 ; Greve, 1995, 1998 ; Gygax et Griffiths, 2007). Ce facteur est néanmoins supposé jouer un rôle moins important avec l’essor d’Internet et des technologies de l’information et de la communication (Rogers, 2003).
Il serait réducteur d’assimiler les organisations à des moutons de Panurge répliquant mécaniquement les décisions prises par autrui. Ces dernières adoptent en effet les innovations en fonction des avantages qu’elles leur associent, de leur pertinence de leur compatibilité avec des valeurs, des normes, des besoins, ou des expériences passées. Comme le remarquent Strang et Soule (1998), la perception des avantages associés à une innovation est souvent liée aux caractéristiques de l’organisation adoptante : les dirigeants d’une grande organisation adopteront probablement plus rapidement une innovation leur permettant de mieux gérer les flux d’information qu’une nouvelle pratique sociale telle que les « beer bash Fridays ».
45 Chapitre 1 : Et pourtant, ils s’imitent
Même si elles ne mettent pas forcément en œuvre, a priori , des dispositifs formalisés d’évaluation des innovations qu’elles adoptent, les organisations peuvent asseoir leurs décisions sur l’observation de leurs concurrents. Cette observation figure parmi les résultats proposés par Pupion et Leroux (2006), qui s’intéressent aux phénomènes de diffusion des ERP parmi les PME françaises. Même si la plupart des entreprises interrogées par les deux auteurs expliquent n’avoir pas formellement évalué les coûts et les bénéfices de l’innovation avant son adoption, les attributs perçus de l'ERP et son adoption préalable par d'autres entreprises (en particulier lorsqu’elle a été couronnée de succès) semblent, en revanche, jouer un rôle déterminant. L’imitation de modèles ayant réussi est alors susceptible d’être à l’origine d’un effet boule de neige (Strang et Macy, 2001). La question de la transposabilité des pratiques imitées a souvent été décrite comme étant centrale dans les processus de décision, en particulier lorsque ce sont des décisions stratégiques qui sont en jeu. Ces dernières doivent, en effet, être pertinentes au regard des forces et des faiblesses de l’entreprise et des menaces et opportunités de l’environnement… ce qui limite leur transposabilité. Les organisations peuvent alors se fonder sur l’existence de caractéristiques organisationnelles communes, telles que la taille (Fligstein, 1991 ; Haunschild et Beckman, 1998 ; Kraatz, 1995, 1998 ; Lant et Baum, 1995), ou l’exposition à des conditions environnementales comparables (Greve, 1998) pour sélectionner les innovations à adopter. Comme nous le verrons dans le chapitre 2, l’imitation de modèles sélectionnés en fonction de leurs similitudes peut également trouver une explication dans des théories issues de la psychologie sociale.
d) La diffusion et les réseaux sociaux Les interactions sociales ont souvent été décrites comme un élément renforçant l’homogénéité au sein d’un système social (Coleman, Katz et Menzel, 1966). Véritables canaux de communication interpersonnels, les réseaux sociaux faciliteraient la diffusion en favorisant l’imitation (Granovetter, 2000a ; Rogers, 2003).
Comme le précise Huault (2004b, p.49), en suivant Laumann, Galskeiwicz et Marsden (1978), le réseau social est appréhendé comme « un ensemble d’instances, de nodes (telles que des personnes, des organisations, des groupes sociaux, etc.), liées par des relations sociales formelles ou informelles, fondées sur l’amitié, le transfert de ressources ou d’autres axes de solidarité. »
46 Première partie : Revue de la littérature
Les liens sociaux des dirigeants des entreprises ont ainsi fait l’objet de plusieurs travaux empiriques consacrés aux processus de diffusion. Prolongeant l’étude qualitative de Useem (1979, 1984) qui mettait en exergue les pratiques d’observation et de réplication des dirigeants, Galaskiewicz et Wasserman (1989) soulignent, par exemple le rôle des réseaux sociaux dans la politique de dons à des organismes à but non lucratif des entreprises de la région de Minneapolis. Les deux chercheurs parviennent à établir que les dons versés par une entreprise à un organisme sont plus importants lorsque l'organisme a déjà reçu des dons émanant d'entreprises dans lesquels les managers ou les dirigeants ont des contacts. Ces contacts peuvent être noués avec des entreprises du même secteur d’activité ou d’autres industries (Geletkanycz et Hambrick, 1997), par exemple dans le cadre de clubs privés (Palmer et Barber, 2001 ; Stearns et Allan, 1996), d’associations professionnelles (Geletkanycz et Hambrick, 1997), ou de participations à des conseils d’administration (Davis, 1991 ; Guillén, 2002 ; Haunschild et Beckman, 1998 ; Henisz et Delios, 2001 ; Palmer et Barber, 2001 ; Palmer et al. , 1993).
Cette dernière idée est confirmée par Haunschild et ses collègues (Haunschild, 1993 ; Haunschild et Beckman, 1998) qui parviennent à établir que les entreprises imitent des modèles avec lesquels elles ont des administrateurs en commun pour fixer leur politique d’acquisition. Des résultats comparables ont été obtenus par des chercheurs s’intéressant aux « poison pills »15 (Davis, 1991 ; Davis et Greve, 1997), aux contributions versées dans le cadre de campagnes électorales (Mizruchi, 1992), à l’adoption de la forme multi-divisionnelle (Palmer et al. , 1993), à la mise en place d’une stratégie de diversification (Palmer et Barber, 2001), aux processus décisionnels (Westphal, Seidel et Stewart, 2001), à la taille du portefeuille d’actifs des fonds américains de capital risque (Gygax et Griffiths, 2007), au montant des primes d’acquisition (Haunschild, 1994) ou encore aux pratiques de recrutement des dirigeants (Williamson et Cable, 2003).
De la même façon que les virus se diffusent plus rapidement dans des milieux urbains très peuplés que dans des milieux ruraux, la densité du réseau social se présente comme un facteur accélérant la diffusion des innovations (Davis et Greve, 1997). Une innovation aura, par ailleurs, plus de chances de se diffuser lorsqu’elle aura été adoptée préalablement par une
15 Dispositions juridiques permettant de protéger les actifs stratégiques de l’entreprise en cas de prise de contrôle non désirée.
47 Chapitre 1 : Et pourtant, ils s’imitent organisation fortement encastrée (Davis, 1991), c'est-à-dire ayant de nombreux liens avec l’extérieur.
Au-delà des liens sociaux, les liens financiers (appartenance à un même groupe ou à un même groupement d’intérêt économique, participations croisées) contribuent eux-aussi à la dynamique de diffusion (Bourgeois, 2007 ; Westphal et Zajac, 1997). Dans sa célèbre étude des « poison pills », Davis (1991) montre ainsi que les entreprises ont tendance à imiter des modèles avec lesquels elles ont des participations croisées. Dans le cas des entreprises asiatiques, l’appartenance à un même « keiretsu » ou à un même « chaebol »16 (Guillén, 2003) facilite l’imitation et permet d’expliquer les processus de diffusion. Les stations de radio américaines imitent les stations détenues par le même groupe ou des concurrents de ces dernières (Greve, 1995, 1996, 1998). Dans le même esprit, Bourgeois (2007), au travers d’une étude de cas consacrée à l’entreprise La Redoute, montre comment la maison mère PPR encourage sa filiale à mettre en place, par mimétisme des outils « à la mode » telles que l’évaluation 360°.
Comme le notent Haunschild et Beckman (1998), les différents facteurs contribuant à la diffusion peuvent se substituer ou se renforcer les uns les autres. L’influence des liens sociaux constitués par les administrateurs est ainsi moins importante chez les entreprises de grande taille (qui sont supposées avoir accès à d’autres sources d’information). Elle se renforce, en revanche, lorsque l’entreprise modèle a fait l’objet d’une couverture médiatique importante. Les modalités de diffusion sont donc susceptibles de varier en fonction de l’environnement, des caractéristiques des organisations adoptantes ou de l’innovation considérée.
16 Equivalents coréens des keiretsus japonais, ensemble d'entreprises, opérant dans différents secteurs d’activité qui entretiennent entre elles des participations croisées.
48 Première partie : Revue de la littérature
Synthèse 1 Points essentiels des théories de la diffusion en Sciences de Gestion
Auteurs clés : Rogers ; Davis ; Haunschild / Champs disciplinaires : Variés / Niveaux d’analyse : Divers
Les théories de la diffusion s’intéressent aux modalités et aux processus de diffusion des innovations au sein de population d’organisations. Une perturbation de l’environnement est souvent à l’origine de l’apparition de nouvelles pratiques, structures ou stratégies désignées par le terme « innovations ». L’adoption d’une innovation est génératrice d’ incertitude pour les organisations car elles ne connaissent pas avec précision les coûts et les bénéfices associés. Les organisations adoptent les innovations en fonction des coûts et des bénéfices qu’elles perçoivent mais aussi par imitation , on parle alors de contagion. Des facteurs tels que la proximité géographique , l’ exposition médiatique , les liens sociaux constitués par les dirigeants et les administrateurs ( interlock ties ) viennent alors jouer un rôle déterminant dans la diffusion des innovations.
3.2. L’ IMITATION ET LES MODES MANAGERIALES
Les Sciences de Gestion constituent une discipline qui se consacre, souvent de façon exclusive, à la construction d’outils et à la formulation de prescriptions censées permettre l’amélioration de la performance. Comme le regrette Isaac, la question de la provenance des concepts et des méthodes de gestion a souvent été périphérique (Isaac, 2000). Tel est pourtant l’objet des travaux consacrés aux modes managériales qui, et c’est leur originalité par rapport aux travaux consacrés à la diffusion des innovations, appréhendent, de façon complémentaire des facteurs économiques (recherche de performance) et des facteurs institutionnels, liés par exemple à la recherche de légitimité (Bardon, 2007). Ils permettent donc de dépasser le biais rationaliste « pro-innovation » qui caractérisait les travaux issus des théories de la diffusion.
a) Les phases génériques des modes managériales « Management par projet », « qualité totale », « reeingenering », « benchmarking », « knowledge management » sont quelques exemples d’instruments de gestion soumis au phénomènes de modes (Bourgeois, 2006) dont l’efficacité a souvent été mise en doute (Abrahamson, 1996 ; Midler, 1986 ; Staw et Epstein, 2000).
49 Chapitre 1 : Et pourtant, ils s’imitent
Si elles diffèrent dans leur « cycle de vie » (Abrahamson et Fairchild, 1999) ces modes résultent d’un accord tacite ou formel entre producteurs et consommateurs de savoir managérial (Huczynski, 1993). Elles obéissent aux phases standard que sont la création, la sélection, la légitimation, et la dissémination (Abrahamson, 1996). Ces phases donnent lieu à, et sont le produit des, interactions entre plusieurs « communautés » telles que les médias, les consultants, les gourous du management, la communauté académique (Bardon, 2007 ; Suddaby et Greenwood, 2001).
Les nouveaux instruments trouvent souvent leur origine dans des facteurs sociaux, économiques, politiques ou technologiques (Abrahamson, 1996 ; Thévenet, 1985). A l’origine de leur création on peut trouver des managers souhaitant répondre à des besoins spécifiques ou des « offreurs de savoir » qui peuvent les développer sur la base de connaissances plus anciennes. Ces instruments sont ensuite sélectionnés et portés à la connaissance de tous, notamment par les médias (tels que la presse professionnelle et managériale) qui créeront des discours visant à légitimer la nouvelle technique. La volonté de se forger des certitudes sur la base d’une pensée déjà formulée (Bourgeois, 2006 ; Midler, Moire et Sardas, 1984), la recherche de nouveauté par de managers frustrés et s’ennuyant au travail (Abrahamson, 1996 ; Midler, 1986) mais aussi la foi dans les bienfaits des instruments nouvellement crées (Bourgeois, 2006, 2007) constituent, par la suite, de puissants leviers de dissémination des modes managériales qui peuvent, d’ailleurs, se transformer en concepts « fourre-tout » et regrouper des pratiques très différentes (Giroux, 2006).
b) Une dissémination des modes managériales En suivant Bourgeois (2007), on est cependant frappé par le rôle de l’imitation dans la diffusion des modes managériales. A l’image de Toyota, dont les pratiques de qualité totale sont souvent imitées 17 , certaines entreprises jouent ainsi le rôle de « fashion setters » et contribuent au renforcement des modes managériales (Abrahamson, 1996). C’est en particulier le cas des grandes entreprises (Midler, 1986) qui viennent apporter une certaine caution aux instruments de gestion qu’elles adoptent.
c) Des facteurs économiques et socio-psychologiques Il serait réducteur de présenter les managers adoptant des nouveaux instruments de gestion comme de simples « victimes de la mode ». Comme le remarque Abrahamson (1996), des
17 Cas Valeo, Ascometal Sollac et Rexam dans la thèse de Christophe Bourgeois (2007)
50 Première partie : Revue de la littérature motifs rationnels (liés à des facteurs économiques ou technologiques et allant dans le sens d’une recherche de performance pour l’organisation) existent, en particulier dans le cas d’une adoption précoce.
Pour autant, ces motifs ne recouvrent qu’une part infime des raisons pour lesquelles des managers peuvent décider de succomber aux instruments à la mode et doivent être complétés par des facteurs d’ordre psychosociologiques, « liés aux décideurs en tant qu’individus » (Bardon, 2007, p.9). Ces facteurs permettent d’expliquer pourquoi des innovations, dont les retombées positives sont loin d’être avérées, peuvent se disséminer (Abrahamson et Rosenkopf, 1993).
Les managers peuvent ainsi voir en l’adoption de techniques à la mode un moyen d’accélérer leur carrière en se présentant comme étant à la pointe de ce qui se fait de mieux ou comme soucieux de l’intérêt des actionnaires (Huczynski, 1993). Ce type d’attitude peut ainsi se traduire par des augmentations de salaire (Staw et Epstein, 2000). Les nouvelles pratiques peuvent, par ailleurs, être perçues comme des remèdes miracles (Gill et Whittle, 1992), ou s’inscrire dans un besoin de différenciation et de conformité (Bardon, 2007).
Synthèse 2 Points essentiels des travaux consacrés aux modes managériales
Auteur clé : Abrahamson / Champ disciplinaire : Sciences de Gestion Niveaux d’analyse : Champ organisationnel du savoir managérial Les modes managériales véhiculent des pratiques de gestion dont l’efficacité a souvent été mise en doute. Leur cycle de vie obéit à quatre grandes phases génériques (création, sélection, légitimation, dissémination) qui font intervenir plusieurs communautés . L’imitation joue un rôle central dans la phase de dissémination. Des facteurs technico-économiques coexistent alors avec des facteurs institutionnels liés à la notion de légitimité. A la recherche de performance qui est celle de l’organisation viennent également se greffer des facteurs socio psychologiques liés aux motivations individuelles des managers.
51 Chapitre 1 : Et pourtant, ils s’imitent
4. VERS UNE APPROCHE EXPLICATIVE ET TOURNEE VERS LES PRATIQUES
Malgré certaines préconisations théoriques qui poussent les entreprises à adopter une stratégie différente de celle de leurs concurrents, les sections qui précèdent montrent que les comportements imitatifs font partie intégrante de la prise de décision stratégique. Comment s’en étonner ? L’imitation a été mise en évidence dans de nombreux domaines de la vie des organisations. La stratégie ne fait pas figure d’exception.
De façon provocante, la question qui attirera notre attention pourra se formuler de façon suivante : Pourquoi des stratèges, exposés aux principes orthodoxes de la stratégie au cours de leurs études ou de leurs lectures (le discours dominant qui valorise l’innovation et stigmatise l’imitation est largement diffusé par la presse managériale) se risquent-ils à imiter leurs concurrents ? Quelles sont les raisons qui poussent ces praticiens à faire de l’imitation un pan essentiel de leur stratégie ?
4.1. UN APERÇU DE LA RECHERCHE
De par leur enracinement dans le champ des Sciences Sociales, les Sciences de Gestion ont vocation à expliquer les actions individuelles, les comportements collectifs et organisationnels auxquels elles sont confrontées. Cet objectif est particulièrement fort lorsque les comportements analysés semblent, à première vue, contre-intuitifs ou irrationnels. C’est précisément la situation à laquelle nous sommes confrontés lorsqu’il est question d’imitation concurrentielle. Notre recherche cherchera donc à répondre à une question souvent posée (Haunschild, 1993 ; Lieberman et Asaba, 2006) : « pourquoi observe-t-on des comportements imitatifs chez les organisations ? »
a) Démarche générale La réponse que nous proposerons prolongera une conception défendue par Miner et Raghavan (1999). Ces deux auteurs conçoivent, en effet, l’imitation inter-organisationnelle comme le produit de décisions d’individus plutôt que comme le fruit de processus échappant à leur contrôle. Nous appréhenderons donc l’imitation concurrentielle au travers des décisions individuelles. Comme nous allons le voir, la littérature consacrée à ce sujet est abondante. Elle devient pléthorique si, comme nous allons chercher à le faire, on y intègre des travaux s’éloignant du champ des Sciences de Gestion.
52 Première partie : Revue de la littérature
Pour faciliter cet exercice, les travaux théoriques existants seront regroupés en fonction des modèles de rationalité qu’ils mobilisent. La revue de littérature permettra de formuler nos questions de recherche et de guider la présentation des résultats.
Dans la partie empirique de cette recherche, nous nous intéresserons à un champ d’étude très concerné par les questions liées à l’imitation concurrentielle : les radios musicales françaises. Une attention particulière sera portée aux programmateurs qui ont la charge de décider des disques qui sont diffusés par la radio musicale dans laquelle ils officient.
Parfois accusées d’avoir renoncé à la découverte de nouveaux talents (Blachas, 2004 ; Sok, 2007), les radios musicales françaises sont depuis 2004 placées au cœur d’une controverse opposant NRJ aux radios indépendantes. En effet, le leader du secteur accuse régulièrement les radios indépendantes de plagier sa programmation musicale.
La problématique de notre recherche pourra donc se formuler de la façon suivante :
En quoi les pratiques d’imitation concurrentielle des programmateurs contribuent elles à la stratégie des radios musicales françaises ?
b) Une démarche ancrée dans le courant de la stratégie en pratiques Par leurs décisions de programmation, les programmateurs contribuent largement au positionnement concurrentiel des radios pour lesquelles ils travaillent. En effet, en décidant des disques qui seront diffusés, les programmateurs rendront le programme plus ou moins attractif vis-à-vis de certaines cibles démographiques. C’est cette audience qui sera ensuite commercialisée aux annonceurs.
Notre intérêt pour des décisions quotidiennes d’individus qui, bien que n’ayant pas la fonction de directeurs généraux, contribuent à la formulation de la stratégie rejoint les préoccupations de la vaste communauté des chercheurs qui s’inscrivent dans le courant de la stratégie en pratiques ( « strategy as practice »). Ce courant de recherche a, depuis plusieurs années, pris le parti le parti « d’humaniser » la recherche en stratégie (Jarzabkowski, Balogun et Seidl, 2007). Comme le remarque Langley dans un entretien publié par la Revue Française de Gestion (Rouleau, Allard-Poesi et Warnier, 2007a, p.194), ce n’est pas forcément au niveau de la direction générale que « la véritable stratégie se fait ou que se trouvent les ingrédients du succès d’une stratégie réussie. La stratégie se fait elle vraiment dans les réunions de la
53 Chapitre 1 : Et pourtant, ils s’imitent haute direction ? Elle se fait peut être autant, sinon davantage, dans les activités de tous les jours, dans les opérations de base de l’entreprise. »
Il s’agira alors de privilégier des niveaux d’analyse microscopiques (individus, décisions individuelles) par opposition aux niveaux d’analyse plus agrégés adoptés dans des recherches centrées sur des organisations, des processus 18 ou des populations d’organisations 19 (Golsorkhi, 2006b ; Jarzabkowski et al. , 2007 ; Whittington, 2006). L’émergence de ce courant de recherche prolonge le « practice turn », un mouvement entamé dès les années soixante-dix en Sociologie et en Anthropologie qui voit la société plus comme le résultat des interactions sociales quotidiennes des individus que comme le produit de structure sociales (Chanal, 2009 ; Rouleau, Allard-Poesi et Warnier, 2007b).
Dès lors, la stratégie ne sera plus appréhendée comme quelque chose que « les organisations ont » mais comme quelque chose que « les gens font » (Johnson et al. , 2003). Une idée formalisée Jarzabkowski, Balogun et Seidl (2007) au travers de la notion de praxis , « des flux d’activités qui se déroulent dans un contexte donné, qui sont socialement construits et qui ont des répercussions stratégiques sur l’avenir et la survie d’une organisation, d’un groupe d’organisations ou d’une industrie »20 .
Avec la stratégie en pratiques, c’est le quotidien qui devient stratégique. La notion de pratiques pourra, par exemple, renvoyer les outils et les artefacts utilisés par les individus dans leur travail de fabrication de la stratégie (Jarzabkowski, 2005). Nous appréhenderons ici cette notion dans un sens un peu plus large puisque nous étudierons à la fois ce que les programmateurs font lorsqu’ils imitent leurs concurrents, mais aussi les raisons qui les poussent à le faire. Notre étude des pratiques d’imitation concurrentielle s’appuiera donc, non seulement sur une compréhension des comportements imitatifs mais aussi sur leur explication en fonction des raisons qui les sous-tendent.
18 Niveau micro-économique. 19 Niveau méso-économique. 20 “Situated, socially accomplished flows of activity that strategically are consequential for the direction and survival of the group, organization or industry” (Jarzabkowski et al. , 2007, p.11)
54 Première partie : Revue de la littérature
c) Une démarche abductive Si l’orientation consistant à mobiliser l’approche par le courant de la stratégie en pratiques pour étudier les phénomènes d’imitation concurrentielle est originale, elle rejoint un certain nombre de préoccupations déjà exprimées dans des travaux antérieurs. Ces travaux, même s’ils adoptent des niveaux d’analyse plus agrégés, ne peuvent être écartés car ils partent souvent de raisons individuelles pour expliquer les phénomènes qu’ils décrivent.
Pour réaliser cette recherche, nous avons donc fait le choix d’adopter une « stratégie hybride » de production de la connaissance (Weingart, 1997) qui consiste en un va-et-vient permanent entre littérature et données. La conceptualisation qui guidera la présentation des chapitres théoriques est donc le résultat de cette démarche que nous qualifions, à la suite de Koenig (1993), de Blaikie (2007) ou encore de Charreire et Durieux (2003), d’abductive.
Comme le remarque Fillol (2007, p.2), une telle démarche permet « d’éviter une distorsion trop grande entre les construits théoriques et la réalité observée. En effet, l’étude empirique présente presque toujours des spécificités ou des phénomènes non planifiés ex ante, qui viennent troubler la démarche initialement prévue. La démarche abductive permet, dans une certaine mesure, d’intégrer ces phénomènes non identifiés et d’assurer plus avant la cohérence entre la conceptualisation et le terrain. »
4.2. AU DELA DES FORMES D ’IMITATION
Les travaux consacrés à l’imitation concurrentielle qui adoptent des perspectives intégratives ont souvent, pour articuler les théories qu’ils mobilisent, tenté de mettre en lumière plusieurs formes d’imitation. Si cette orientation ne sera pas celle de notre recherche (nous nous intéresserons davantage aux modèles de rationalités à l’œuvre) elle constitue néanmoins un point d’entrée incontournable à toute étude traitant des phénomènes d’imitation concurrentielle.
A ce titre, le travail de Haunschild et Miner (1997) a considérablement fait progresser la connaissance en distinguant plusieurs comportements imitatifs chez les organisations. Ce travail pionnier, qui consiste en une analyse quantitative des décisions d’acquisition de firmes américaines, fait aujourd’hui figure de référence dans la littérature consacrée à l’imitation en stratégie.
55 Chapitre 1 : Et pourtant, ils s’imitent
La typologie proposée par les auteurs souffre cependant d’un certain nombre de limites qui tiennent d’une part à son incomplétude et d’autre part à l’absence de caractère mutuellement exclusif des idéaux-types qu’elle propose.
a) La typologie de Haunschild et Miner et ses développements A l’issue d’un important travail de synthèse de la littérature existante, les deux chercheuses parviennent à identifier trois formes d’imitation.
La première forme d’imitation est qualifiée d’imitation fondée sur la fréquence ( « frequency based imitation »). L’organisation imitatrice réplique ici une pratique, une structure ou une décision largement répandue. On pourra trouver un exemple d’imitation fondée sur la fréquence dans une étude réalisée par Burns et Wholey (1993) où l’adoption préalable de la structure matricielle par une large proportion d’organisations du secteur conditionne son adoption par les hôpitaux américains. D’autres recherches empiriques soulignant l’existence de ce type de comportement ont été réalisées, notamment par Henisz et Delios (2001) s’agissant des stratégies d’internationalisation des firmes multinationales japonaises. Selon Miner et Raghavan (1999), cette forme d’imitation, lorsqu’elle se généralise, peut constituer une puissante source d’homogénéisation au sein d’une population d’organisations.
On parle d’imitation fondée sur les caractéristiques du modèle ( « trait based imitation ») lorsque l’organisation imitatrice réplique une pratique, une structure ou une décision préalablement adoptée par des organisations ayant certaines caractéristiques (Haunschild et Miner, 1997). Les modèles peuvent ainsi être sélectionnés en fonction de leur prestige, de leur taille importante (Baum et al. , 2000), de leur proximité géographique (Davis et Greve, 1997 ; Gygax et Griffiths, 2007), de leur positionnement stratégique (Fiegenbaum et Thomas, 1995 ; Rhee, Kim et Han, 2006) ou encore, des caractéristiques qu’ils partagent avec l’organisation imitatrice. Ces similitudes peuvent, par exemple, être liées à la taille des organisations (Baum et al. , 2000 ; Lant et Baum, 1995), à leur structure capitalistique (Greve, 1996), au type de marché sur lequel elles sont implantées (Greve, 1998) ou à l’existence d’administrateurs communs (Haunschild, 1993).
L’imitation fondée sur les résultats ( « outcomes based imitation ») est identifiée lorsque l’organisation imitatrice réplique une pratique, une structure ou une décision s’étant distinguée par ses bienfaits pour les organisations qui l’ont préalablement adoptée. Ce
56 Première partie : Revue de la littérature phénomène est notamment mis en évidence par Haveman (1993) dans une étude consacrée aux stratégies de diversification des banques américaines ou par Lu (2002) dans une recherche traitant des stratégies d’internationalisation des multinationales japonaises. L’évaluation des résultats attendus pouvant différer d’une organisation à une autre (notamment en raison d’une difficulté d’accès aux information ou de différences dans l’interprétation des signaux), cette forme d’imitation ne génère pas forcément d’homogénéité au sein d’une population d’organisations (Miner et Raghavan, 1999).
Dans leur recherche consacrée aux comportements imitatifs dans l’industrie automobile britannique, Rhee, Kim et Han (2006) suivent la voie tracée par Miner et Anderson (1999) qui invitaient les chercheurs à compléter la typologie initiale et à découvrir de nouvelles formes d’imitation. Rhee et ses collègues identifient ainsi une nouvelle forme d’imitation qu’ils qualifient d’imitation fondée sur la confiance ( « confidence based imitation »). Les organisations imiteraient ainsi les pratiques, les structures et les décisions en fonction de la confiance qu’elles leur attribueraient, cette dernière étant inversement proportionnelle aux variations observées dans le groupe d’organisations prises pour modèle.
b) Les limites de la typologie Les nombreux travaux empiriques mobilisant la typologie de Haunschild et Miner (1997) soulignent sa pertinence dans l’identification des comportements imitatifs. Les résultats variés auxquels parviennent ces recherches empiriques montrent, par ailleurs, qu’un travail complémentaire est nécessaire pour mieux comprendre le contexte dans lequel se déroule l’imitation.
Dans un article relatif aux stratégies d’alliance des constructeurs automobiles, Garcia-Pont et Nohria (2002) mobilisent ainsi des éléments propres au secteur étudié afin d’expliquer pourquoi les organisations pratiquent une imitation fondée sur les caractéristiques (similitudes dans le positionnement) plutôt qu’une imitation fondée sur la fréquence.
En dépit de son succès cette typologie souffre néanmoins d’une limite d’ordre théorique liée au fait que les idéaux-types proposés par les auteurs ne sont pas mutuellement exclusifs 21 .
21 Rappelons, ici, qu’en suivant les préconisations émises par Weber (1921), des idéaux-types devraient permettre de rassembler l’ensemble des caractéristiques les plus distinctives caractérisant l’objet étudié.
57 Chapitre 1 : Et pourtant, ils s’imitent
Par exemple, on voit mal ce qui pourrait empêcher une organisation de reprendre la pratique la plus répandue autour d’elle ( « frequency based imitation ») au motif qu’elle aurait préalablement démontré ses bienfaits ( « outcomes based imitation »).
Ce problème tient, à notre sens, au caractère équivoque de la notion de « forme d’imitation » utilisée par les auteurs. Il n’est en effet pas précisé si la notion est censée renvoyer à des comportements imitatifs observés chez des organisations ou aux raisons individuelles qui leur sont sous-jacentes. Cette confusion a une conséquence dommageable : la typologie sert davantage à décrire les comportements imitatifs qu’à les expliquer. Comme le notent Lieberman et Asaba (2006), à la suite de Haunschild (1993) : les raisons qui pourraient expliquer la tendance des organisations à s’imiter les unes les autres demeurent assez obscures.
Afin de lever cette difficulté, nous nous proposons ici de distinguer les deux volets. Par l’appellation comportements imitatifs , nous désignerons désormais les variations qui peuvent exister dans la façon qu’ont les organisations de reprendre des pratiques, des structures ou des stratégies préalablement mises en place par d’autres organisations. Ce premier volet doit être dissocié de l’étude des raisons qui poussent les stratèges à imiter leurs concurrents. Dans notre recherche, les raisons individuelles que nous étudierons donneront lieu à différentes pratiques d’imitation concurrentielle .
Si elle est cohérente avec le niveau d’analyse microscopique qui est celui du courant de la stratégie en pratiques, cette orientation n’est pas sans conséquences sur la présente recherche. Elle obéit, en effet, à un fondement ontologique amenant à considérer que seuls les individus humains peuvent être à l’origine d’intentions, de décisions, ou de croyances et revient, dans le cas présent, à appréhender les comportements imitatifs comme étant le produit exclusif des raisons individuelles. Dès lors, l’influence des phénomènes écologiques (où l’organisation est contrainte par son environnement), mais aussi celle des phénomènes collectifs intra- organisationnels auront tendance à sortir de notre champ d’analyse.
Aussi réductrice soit-elle, cette hypothèse nous semble acceptable dans le cas d’une étude consacrée aux programmateurs radio qui – le plus souvent – décident seuls des disques diffusés sur leurs antennes. Nous allons maintenant voir que les raisons individuelles qui
58 Première partie : Revue de la littérature poussent les décideurs à imiter leurs concurrents peuvent renvoyer à des conceptions plus générales de la rationalité humaine (les modèles de rationalité).
4.3. DES RATIONALITES MULTIPLES
Aborder la question des raisons qui poussent des acteurs stratégiques à répliquer des stratégies, des structures ou des pratiques préalablement adoptées par leurs concurrents conduit à poser la question des rationalités qui sous-tendent l’action humaine. Un exercice indispensable mais périlleux tant cette notion demeure insaisissable.
Nous allons tout d’abord tenter de faire le point sur la façon dont les chercheurs travaillant sur le sujet et ayant essayé d’articuler plusieurs cadres théoriques ont pu traiter ce problème. Nous nous appuierons, par la suite, sur les travaux de Boudon pour arrêter notre grille de lecture de la littérature.
a) A la recherche des raisons de l’imitation Comme nous l’avons vu en présentant les travaux relatifs aux modes managériales et aux théories de la diffusion, les travaux consacrés à l’imitation concurrentielle ont souvent cherché à apporter des éléments permettant d’expliquer les phénomènes qu’ils décrivent. Ces explications peuvent cependant se fonder des conceptions de la rationalité très différentes : les « facteurs d’ordre psychologique » sur lesquels insistent les théoriciens des modes managériales n’ont en effet rien de commun avec la volonté de bénéficier de retombées positives qui animent les imitateurs dans les théories de la diffusion.
A l’instar de Bernard de Montmorillon (1999) qui, dans un article consacré à la théorie des conventions, met en avant l’existence d’une « rationalité mimétique » en s’appuyant les travaux de René Girard, les recherches existantes sont souvent relativement restrictives : Elles ne mobilisent qu’un seul type d’explication pour étudier les comportements imitatifs. La difficulté à capter les raisons de l’imitation ne résulte pas d’un déficit de concepts et de travaux sur le sujet, mais de la coexistence de nombreuses explications présentées comme mutuellement exclusives car ancrées dans des modèle de rationalité différents.
Les démarches intégratives de Lieberman et Asaba (2006), d’une part, et de Paauwe et Boselie (2005), d’autre part, ont l’immense mérite de tenter d’articuler les travaux existants en faisant ressortir les postulats – trop souvent implicites – sur lesquels ils reposent. Ces
59 Chapitre 1 : Et pourtant, ils s’imitent auteurs reconnaissent, en effet, l’existence de différentes formes de rationalité guidant les comportements imitatifs. Ils mettent en parallèle des modèles de rationalité ancrés dans une tradition économique et orientés vers la quête de performance et des approches ancrées dans la sociologie néo institutionnelle (DiMaggio et Powell, 1983 ; Scott, 1995 ; Tolbert et Zucker, 1983) mobilisant les notions de normes et de légitimité. Si cette approche a le mérite de la simplicité, plusieurs raisons peuvent amener à penser qu’elle n’est pas entièrement satisfaisante.
Les principales limites dans cette opposition tiennent au fait qu’elle tend, d’une part, à encourager l’idée que les motivations guidées par la légitimité seraient forcément « irrationnelles » au sens où elles iraient à l’encontre de la performance de l’organisation 22 et, d’autre part, qu’elle revient à considérer que la recherche de performance exclurait toute autre considération chez les décideurs. La réalité est bien plus subtile et l’opposition de l’économique et du social nous semble d’autant plus réductrice (et dangereuse) que l’on pourra trouver dans les travaux relatifs à la construction sociale des marchés (Callon, 1998 ; Garcia-Parpet, 1986 ; Granovetter, 2000c) ou, dans un registre opposé, dans les recherches consacrées à l’analyse économique des comportements sociaux (e.g. Becker, 1996) des ponts entre les deux domaines.
b) Vers un prolongement et un élargissement Pour dépasser cette limite, c’est la notion même de rationalité qu’il convient d’interroger en prenant pour point de départ la définition très large de ce concept retenue par la sociologie classique (Weber, 1921 [1995]) : les individus ont « des raisons » d’agir, étudier la rationalité revient à rechercher ces raisons. Comme nous le voyons, cette approche déborde largement de l’acception néo-classique dans laquelle des comportements sont décrits comme rationnels dès lors qu’ils sont guidés par un principe de maximisation.
L’idée qui est reprise ici ne consiste pas à affirmer que les individus ne sont jamais guidés par des principes de maximisation ou d’optimisation (de leur utilité personnelle ou de la performance de l’organisation par exemple), mais qu’ils peuvent parfois être guidés par
22 Une lecture fréquente, en dépit des clarifications apportées par DiMaggio (1995).
60 Première partie : Revue de la littérature d’autres raisons. C’est précisément cette conception qui est défendue par Boudon dans sa critique de la théorie du choix rationnel (Boudon, 1979 [2001], 1999, 2003) 23 . Dans un ouvrage récent, il met en évidence six postulats constituant l’axiomatique (trop restrictive selon lui) de cette conception de la rationalité (notés P1 à P6 dans le schéma qui va suivre). Ces postulats ont pu, par la suite, être complétés ou amendés pour servir de base à d’autres écoles de pensée (toutes ne seront pas présentées ici).
Parmi les conceptions proposant des versions modifiées de la Théorie du Choix Rationnel, on retrouve la théorie de la rationalité limitée (March et Simon, 1958 ; Simon, 1982) qui substitue au postulat de maximisation (noté P6) un postulat de satisfaction (noté P6’). Cette conception part de l’idée suivante : plutôt que de chercher la meilleure solution possible, les individus essaient de trouver une solution suffisamment satisfaisante à la suite de quoi ils arrêtent d’explorer de nouvelles alternatives.
Le schéma 2 propose une représentation schématique fondée sur le recensement réalisé par Boudon.
23 Nous désignons par théorie du choix rationnel l’école de pensée qui, à la suite de Bentham (1801) notamment, tend à considérer que les actions, les décisions et les comportements des individus sont essentiellement guidés par leur volonté de maximiser leur intérêt personnel (utilité). On pense évidemment à l’économie néo-classique et aux théories micro-économiques s’appuyant sur la notion d’ homo oeconomicus mais aussi aux prolongements qu’elles ont pu trouver, au travers de l’hypothèse d’opportunisme dans la théorie des coûts de transaction (Williamson, 1994) ou du modèle REMM utilisé par la théorie positive de l’agence (Jensen et Meckling, 1994, 1998). Comme nous l’avons précisé plus tôt, les sciences économiques ne constituent cependant pas le champ d’application exclusif de la théorie du choix rationnel. On trouvera ainsi dans les travaux de Becker qui propose des explications microéconomiques des comportements humains, un exemple d’application de la théorie du choix rationnel dans le champ de la Sociologie.
61 Chapitre 1 : Et pourtant, ils s’imitent
Schéma 2 Principaux postulats relatifs à la rationalité identifiés par Boudon
P1 : Individualisme Tout phénomène social est le produit d’actions, de décisions et de comportements… individuels. Permet de poser mais n’oblige pas à poser Implique P2 : Compréhension Ces actions, ces décisions et ces comportements peuvent être compris (s’il prend soin de s’informer suffisamment) d’un observateur extérieur. C’est cette compréhension permettra d’expliquer phénomène étudié
Permet de poser mais n’oblige pas à poser Implique P3 : Rationalité Les actions, les décisions et les comportements des individus sont le produit de raisons qui peuvent être plus ou moins clairement perçues par l’individu. Permet de poser mais n’oblige pas à poser Implique P4 : Conséquentialisme (ou instrumentalisme) Les raisons qui guident actions, les décisions et les comportements des individus sont orientés par les conséquences qu’ils envisagent (mais ils peuvent se tromper). Permet de poser mais n’oblige pas à poser Implique P5 : Egoïsme Les individus s’intéressent en priorité aux conséquences de leurs actions, décisions et comportements qui les concernent personnellement. Permet de poser mais Permet de poser mais n’oblige pas à poser n’oblige pas à poser Implique Implique P6 : Maximisation P6’ : Satisfaction L’individu connaît et compare les Faute de connaître et de pouvoir comparer avantages et les inconvénients de chaque les avantages et les inconvénients de action, décision ou comportement possible. chaque action, décision ou comportement Il choisit l’alternative la plus avantageuse. possible. L’individu choisit la première alternative qu’il juge suffisamment satisfaisante (Simon, 1982).
Représentation établie à partir de Boudon (2003, pp.19 28)
62 Première partie : Revue de la littérature
Sur la base de ce travail de mise en lumière des principaux postulats utilisés pour concevoir la rationalité humaine, Boudon propose une typologie des grandes écoles de la sociologie. Une version partielle de cette présentation sera reprise dans le tableau qui va suivre.
Avant de poursuivre, notons néanmoins que dans l’esprit de Boudon, chaque postulat implique ceux qui le précèdent. Le postulat de maximisation (P6) n’a par exemple de sens que si l’on accepte l’idée d’une conduite égoïste des individus (P5) 24 qui n’a elle-même de sens que si l’on accepte l’idée d’une rationalité instrumentale (P4). Les postulats sont liés par des « relations d’implication ascendante ». La réciproque n’est pas vraie. En effet, on peut tout à fait accepter l’idée d’une rationalité instrumentale (P4) et rejeter le postulat (P5). P4 permet de poser P5 mais n’oblige pas à le faire. En conséquence, les écoles de pensée allant le plus loin dans l’acceptation des postulats identifiés par Boudon seront aussi les plus restrictives.
Tableau 2 Postulats sous-jacents à quelques grandes écoles de pensée
Postulats Ecole de pensée
Aucun Holisme
P1 Individualisme méthodologique
P1 + P2 Sociologie compréhensive (au sens de Weber)
P1 + P2 + P3 Modèle rationnel général
P1 + P2 + P3 + P4 Fonctionnalisme (forme principale)
P1 + P2 + P3 + P4 + P5 Utilitarisme diffus
P1 + P2 + P3 + P4 + P5 + P6 Théorie du choix rationnel
P1 + P2 + P3 + P4 + P5 + P6’ Théorie de la rationalité limitée Repris de Boudon (2003, p.27)
c) Une dichotomie : approches instrumentales et approches évaluatives Pour construire notre grille de lecture, nous avons souhaité prolonger et élargir la distinction opérée par Paauwe et Boselie (2005) entre une imitation « compétitive » (supposée être guidée par des motivations « rationnelles » au sens de la théorie du choix rationnel) et une imitation « non-compétitive » (guidée par d’autres formes de rationalité).
24 Cette idée pourrait être remise en cause, notamment à la lecture de Romelaer et Lambert (2001) qui considèrent que dans le cadre d’une décision d’investissement, la rationalité substantive peut certes se traduire par la volonté d’un décideur de maximiser son utilisé espérée mais aussi par celle de trouver le meilleur investissement au regard d’un objectif préexistant (le dit objectif n’étant pas forcément un objectif « égoïste »).
63 Chapitre 1 : Et pourtant, ils s’imitent
Cette démarche a nécessité que nous interrogions la notion de rationalité. Sur la base de la catégorisation de Boudon (2003), nous distinguerons deux grandes approches dans les recherches ayant cherché à expliquer les comportements imitatifs.
Nous regrouperons sous l’appellation « approches instrumentales » les explications qui partent du postulat que les comportements imitatifs ont une finalité déterminée par les conséquences attendues par les acteurs stratégiques. Nous retrouvons une acception de la rationalité très proche de celle posée par Max Weber (1921 [1995], p.55) au travers de la notion de rationalité en finalité ( « zweckrationalität ») qui appréhende l’action sociale comme le produit « des expectations du comportement des objets du monde extérieur ou de celui d’autres hommes ». En suivant Boudon (2003), cette définition – correspondant aux approches fondées, ad minima sur les postulats P1 + P2 + P3 + P4 – permet certes d’inclure les conceptions dérivées de l’utilitarisme (choix rationnel et rationalité limitée) mais ne se limite pas à ce dernier.
Comme l’indique Weber (1921 [1995]) dans la typologie qui ouvre Economie et Société , il existe des formes de rationalité qui ne sont pas instrumentales. Les sujets peuvent ainsi croire en des valeurs, choisir de s’y conformer ou être influencés par des règles. Les approches de l’imitation concurrentielle renvoyant à des explications des comportements imitatifs qui, tout en s’inscrivant dans le modèle de rationalité générale, ne sont pas fondées sur le postulat de conséquentialisme (P4) seront ici qualifiées « d’ approches évaluatives ». On retrouve la notion weberienne de « wertrationalität » ou encore celle « d’ appropriateness » présente chez March et Olsen (1989) puis chez March et Simon (1993). En reprenant la grille de Boudon, les approches évaluatives de l’imitation concurrentielle sont situées dans l’espace [(P1 + P2 + P3) – (P1 + P2 + P3 + P4)].
D’autres découpages auraient pu être envisagés. Dans un article consacré aux rationalités guidant les décisions d’investissement, Romelaer et Lambert (2001) se proposent ainsi de dissocier les rationalités optimisatrices des rationalités exploratrices. Alors que les premières supposent l’existence de raisons définies a priori chez les décideurs, les seconde se forment une fois la décision prise (en faisant intervenir d’autres individus ou en fonction des conséquences observées de la décision). A l’intérieur de ces grandes catégories, ils recensent plusieurs modèles utilisés dans les théories existantes. L’annexe 1 présente une synthèse de
64 Première partie : Revue de la littérature cette recherche et établit une comparaison entre les grandes catégories utilisées par ces deux auteurs et celles qui sont utilisées ici.
4.4. ARTICULATION DE LA REVUE DE LA LITTERATURE
Aux critiques adressées aux imitateurs par les théoriciens du management stratégique, nous avons opposé l’omniprésence des comportements imitatifs : pour lever ce paradoxe, certains auteurs ont distingué les motifs rationnels guidant la différenciation à une imitation supposée s’inscrire dans une forme d’irrationalité chez les stratèges. Une interrogation demeure : les stratèges sont-ils à suffisamment irrationnels pour ignorer délibérément les prescriptions de la pensée dominante ? Compte tenu de la fréquence des stratégies d’imitation et de la diversité des formes d’imitation, répondre par la positive serait à notre sens hasardeux.
Pour sortir de théories normatives aux fondements empiriques parfois contestables, il importe de mieux comprendre le phénomène d’imitation en stratégie, de cerner les raisons des imitateurs, d’adopter une démarche à vocation compréhensive. Tel sera l’objet de cette recherche qui, au travers d’une étude qualitative consacrée aux programmateurs des radios musicales françaises, articulera différentes conceptions de l’imitation en identifiant différentes pratiques d’imitation concurrentielle et en analysant de quelle façon elles contribuent à la stratégie des organisations.
En préalable à ce volet empirique, nous mobiliserons différents courants théoriques issus des Sciences de Gestion, de l’Economie mais aussi de la Sociologie et de la Psychologie sociale. Cette orientation, résolument multi-paradigmatique, revient à affirmer, avec Desreumaux (2004, p.30), que la stratégie « est une discipline largement emprunteuse ». Plus généralement, il nous semble que la diversité des théories mobilisées constitue la condition sine qua non à une compréhension globale des phénomènes imitatifs en management stratégique.
Si plusieurs conceptions existent, dans la littérature, quant aux modes de rationalité à l’œuvre en matière d’imitation concurrentielle, il convient de préciser que ces explications sont considérées comme mutuellement exclusives par des théories à vocation plus générale. Afin de décloisonner ces travaux, nous chercherons à les articuler au sein un cadre d’analyse intégrateur.
65 Chapitre 1 : Et pourtant, ils s’imitent
Le chapitre 2 sera organisé autour de la dialectique « approches instrumentales » versus « approches évaluatives » de l’imitation. Ce fil directeur sera prolongé et complété dans le chapitre 3 qui s’intéressera à la notion d’incertitude. En effet, l’incertitude est souvent considérée comme le principal facteur permettant d’expliquer l’existence de comportements imitatifs au sein de population d’individus ou d’organisations. En conclusion de la première partie de la thèse, le cadre d’analyse sera présenté. Il permettra de préciser et de justifier nos questions de recherche.
66 Première partie : Revue de la littérature
RESUME DU CHAPITRE 1
Notre recherche prend pour point de départ l’opposition entre les prescriptions émanant de la littérature dominante en stratégie et les conclusions de travaux empiriques soulignant l’omniprésence des comportements imitatifs. Après avoir distingué les termes imitation et mimétisme, les approches les plus critiques vis-à-vis de l’imitation sont synthétisées. Stratégie de seconde zone dans certains travaux consacrés à la thématique du leadership, stratégie moins payante que l’innovation pour les tenants du « first mover advantage » , stratégie dangereuse dans la théorie des ressources et dans certains travaux consacrés à la croissance endogène, l’imitation demeure pourtant très fréquente. Les comportements imitatifs concernent des domaines très divers de la vie des organisations dont certains ont une dimension stratégique indéniable (positionnement, diversification, internationalisation). L’imitation est par ailleurs au cœur des phénomènes de dissémination des modes managériales et, plus généralement, de diffusion des innovations. Des facteurs tels que la proximité géographique, l’observabilité, les liens sociaux, viennent alors accélérer les processus de diffusion. Si la vision des théoriciens de la diffusion est très clairement ancrée dans un paradigme rationaliste, celle des théoriciens des modes managériales est plus nuancée en ce qu’elle fait intervenir des facteurs liés, par exemple, à la notion de légitimité. Le contraste entre la littérature stratégique dominante et la fréquence de l’imitation concurrentielle nous amène à nous approprier une question souvent traitée dans la littérature : « pourquoi observe-t-on des comportements imitatifs chez les organisations ? » L’approche adoptée dans cette recherche consiste à s’intéresser aux pratiques d’imitation concurrentielle et aux raisons qui poussent les stratèges à privilégier une orientation – l’imitation concurrentielle – souvent décriée. Dans la partie empirique de ce travail, une attention particulière sera portée à un champ organisationnel très concerné par les phénomènes d’imitation : les radios musicales françaises. Nous étudierons plus précisément la sélection des disques diffusés effectuée par les programmateurs. La programmation musicale a, en effet, été au centre de plusieurs controverses relatives au plagiat dont NRJ, première radio musicale de France, serait la victime. Notre problématique peut dès lors être formulée comme suit : « En quoi les pratiques d’imitation concurrentielle des programmateurs contribuent-elles à la stratégie des radios musicales françaises ? » L’abondance de la littérature consacrée à l’imitation concurrentielle permet la construction d’un cadre d’analyse intégrateur. Centré sur de la notion de rationalité, celui-ci sera articulé autour de la dialectique « approche instrumentales » versus « approches évaluatives » de l’imitation concurrentielle. Précisons que cette grille de lecture a été élaborée à l’issue d’un processus de va-et-vient entre la théorie et les données collectées dans le cadre de la recherche. Présenté en conclusion de la première partie, ce cadre d’analyse permettra de synthétiser la littérature consacrée à l’imitation et de préciser les questions de recherche de notre travail.
67
Chapitre 2 Les deux faces de l’imitation
« Si j'avais du talent on m'imiterait. Si l'on m'imitait, je deviendrais à la mode. Si je devenais à la mode, je passerais bientôt de mode. Donc il vaut mieux que je n'aie pas de talent. »
Jules Renard
’intérêt porté par le monde académique aux phénomènes d’imitation n’est pas nouveau. LDès la fin du 19 ème siècle, Gabriel Tarde plaçait l’imitation au cœur des relations sociales et décrivait des Lois de l’imitation (Tarde, 1890 [2001]). Comme l’explique Dupuy (2003), une tradition française bien établie tend ainsi à considérer que l’imitation obéit à sa propre logique ; logique qui permettrait d’expliquer les phénomènes de foule (Crocq, Doutheau et Sailhan, 1987 ; Le Bon, 1895 [2003]).
Cette tradition a cependant fait l’objet de plusieurs critiques. Selon Dupuy (2003), elle propose un « lecture holographique [qui] suggère mais n’explique rien ». Pour Hedström (1998) elle se limite à des explications pseudo-scientifiques qui ne parviennent à produire que des labels (mimétisme, esprit de la foule, etc.) peinant à cacher notre ignorance. Pour ces deux auteurs, ce sont le manque de micro fondations de la tradition française autant que sa tendance à adopter une lecture purement irrationnelle de l’imitation qui sont en cause.
Les travaux qui vont être présentés dans ce chapitre ont pour point commun de concevoir l’imitation comme un comportement découlant de raisons individuelles. Les concepts qu’ils proposent permettent d’expliquer pourquoi les décideurs imitent leurs concurrents en mettant en évidence des raisons individuelles. Ce chapitre a pour objectif de présenter et de comparer ces raisons et de les replacer dans les modèles de la rationalité humaine plus généraux dans lesquels elles s’inscrivent. En l’absence de théorie susceptible de faire l’unanimité au sein de
68 Première partie : Revue de la littérature la communauté scientifique, nous prendrons le parti de l’éclectisme et chercherons à articuler ces raisons les unes par rapport aux autres. Ce travail de comparaison, d’articulation et d’intégration est rendu nécessaire par le fait que les développements théoriques que nous allons analyser s’inscrivent dans des courants de recherche relativement cloisonnés. Il constitue, selon nous, un préalable indispensable à une étude des pratiques d’imitation concurrentielle. Comme nous allons le voir, les raisons individuelles mises en avant par les théories consacrées à l’imitation ont souvent été considérées comme mutuellement exclusives. Nous défendons l’idée qu’elles sont en réalité complémentaires.
Dans cette littérature abondante, qui pourrait rapidement se transformer en labyrinthe conceptuel, la question de la rationalité constituera notre fil d’Ariane. En prolongement de la dichotomie entre rationalité instrumentale et rationalité évaluative présentée dans le chapitre 1, nous mettrons en perspective les approches instrumentales (section 1) et les approches évaluatives de l’imitation (section 2).
A l’issue de chaque section, un tableau de synthèse sera proposé. Il récapitulera les principaux enseignements des théories mobilisées en mettant en évidence les raisons individuelles qu’elles placent à l’origine des phénomènes d’imitation. Ce chapitre s’achèvera sur une synthèse générale consacrée aux raisons des décideurs qui imitent leurs concurrents et aux prolongements qui seront donnés à cette synthèse de la littérature dans la partie empirique de la thèse (section 3).
1. LES APPROCHES INSTRUMENTALES DE L’IMITATION
Défenseurs d’une conception utilitariste de l’imitation concurrentielle, de nombreux chercheurs ont insisté sur les retombées positives de l’imitation concurrentielle pour l’organisation imitatrice. Nous retrouvons ici la notion « d’imitation rationnelle » développée par Hedström (1998, p.307) : « en imaginant que les autres acteurs agissent de façon rationnelle et évitent les alternatives qui ont échoué, le décideur peut prendre de meilleures décisions […] en imitant le comportement d’autrui »25 .
25 “Rational imitation hence refers to a situation where an actor acts rationally on the basis of beliefs that have been influenced by observing the past choices of others. To the extent that other actors act reasonably and avoid alternatives that have proven to be inferior, the actor can arrive at better decisions than he or she would make otherwise, by imitating the behaviour of others.”
69 Chapitre 2 : Les deux faces de l’imitation
Cette définition soulève, selon nous, plus de questions qu’elle n’en résout. Le libellé « imitation rationnelle » utilisé par Hedström, tend tout d’abord à réduire la notion de rationalité à une conception fortement teintée d’utilitarisme. Dans le chapitre précédent, nous avons cherché à défendre – en nous appuyant sur les travaux de Boudon (2003) – l’idée que les décideurs, même lorsqu’ils ne sont pas guidés par une volonté d’atteindre le meilleur résultat possible, peuvent néanmoins avoir de « bonnes raisons » d’imiter leurs concurrents. Nous avons ainsi considéré que la recherche de retombées positives n’était qu’une explication possible à intégrer dans une série d’approches plus larges – qualifiées d’approches instrumentales – qui lient l’imitation aux conséquences attendues par les acteurs (que celles-ci leur soient bénéfiques ou non, que ces derniers soient clairvoyants ou bien qu’ils se trompent).
La seconde question soulevée par la définition de Hedström renvoie à un problème bien connu dans le champ des Sciences de Gestion. Réduire la question des retombées positives de l’imitation à la performance de l’organisation apparaît, en effet, très réducteur : les décideurs ne sont pas forcément des agents altruistes exclusivement guidés par la recherche de performance organisationnelle. Ces derniers pourront instrumentaliser l’imitation de leurs concurrents à leur propre profit en vue de protéger leur carrière ou encore d’asseoir leur réputation. La dichotomie entre intérêt de l’organisation et intérêt des managers, abondamment explorée par la théorie positive de l’agence, constituera le fil directeur de cette première section consacrée aux approches instrumentales de l’imitation. Dans un premier temps (1.1), nous relierons l’imitation aux conséquences attendues par les décideurs pour leur organisation. Dans un second temps (1.2), l’imitation sera reliée aux conséquences attendues par les décideurs pour eux-mêmes.
A l’issue de cette section consacrée aux approches instrumentales de l’imitation, nous nous intéresserons aux approches évaluatives.
1.1. L’ IMITATION ET SES CONSEQUENCES POUR L ’ORGANISATION
Afin de comprendre pourquoi les organisations s’imitent, on pourra partir des conséquences négatives de l’imitation sur l’avantage des concurrents. En imitant ses rivaux, la firme peut chercher à les neutraliser (Porter, 1982 [2004]) ou vouloir se prémunir de sanctions émanant des parties prenantes (Meyer et Rowan, 1977 ; Zucker, 1987) 26 . Cette explication ne remet
26 La littérature néo-institutionnelle, qui fait largement intervenir l’idée d’une quête de légitimité des organisations à la source des stratégies d’imitation, sera traitée plus largement dans le chapitre 4.
70 Première partie : Revue de la littérature pas en cause le paradigme dominant : elle se contente de décrire l’imitation comme une stratégie purement défensive. Malgré ses inconvénients supposés, l’imitation serait un moyen de se protéger d’évènements pouvant remettre en cause la survie de l’organisation (point a). Les travaux consacrés à l’avantage des entrants tardifs, à l’apprentissage vicariant ainsi que certaines explications fondées sur la notion de légitimité marquent une rupture profonde en ce sens qu’ils ne décrivent plus l’imitation comme une stratégie potentiellement inefficace et adoptée « malgré tout », mais comme une stratégie gagnante pour l’organisation (points b et suivants).
a) Des actions et des réactions Partant du concept de destruction créatrice introduit pas Schumpeter (1935 [1999]), nombreux sont les auteurs qui ont décrit l’imitation comme un moyen utilisé par les organisations pour détrôner le leader d’un secteur d’activité (Hun, Smith, Grimm et Schomburg, 2000). En imitant rapidement les décisions fructueuses de leurs rivaux, les stratèges peuvent ainsi espérer réduire la durée de l’avantage concurrentiels de ces derniers (D'Aveni, 1995 ; Hun et al. , 2000 ; Porter, 1982 [2004], 1986 [2003]).
Des travaux empiriques consacrés aux stratégies d’internationalisation d’entreprises canadiennes et européennes s’implantant aux Etats-Unis (Flowers, 1976), d’entreprises américaines du secteur du textile (Yu et Ito, 1988) et d’agences de publicité américaines (Terpstra et Yu, 1988) viennent accréditer cette idée. Ces résultats sont synthétisés par Delios, Gaur et Makino (2008, p.177) : « Les entreprises qui imitent leurs concurrents cherchent à minimiser la menace qu’elles perçoivent vis à vis de leur position […]. Si une entreprise ne suit pas les stratégies d’expansion de ses concurrents, elle court le risque de perdre du terrain tandis que son concurrent accumulera de nouvelles capacités, des informations, de l’expérience et pourra conquérir de nouveaux marchés »27 . L’imitation peut alors constituer un moyen de maintenir un certain degré de parité concurrentielle (Garcia-Pont et Nohria, 2002).
27 “Firms engage in such imitative actions to minimize the perceived threat to their competitive position in domestic and international markets. If a firm does not follow the expansion moves of its competitors, it risks losing competitive ground as the competitor may accumulate new capabilities, information, experience and markets”
71 Chapitre 2 : Les deux faces de l’imitation
L’utilisation de ce type de stratégie déborde largement la sphère du management. Cette démarche est, par exemple, très fréquente en politique. Largement utilisée par Bill Clinton durant sa campagne présidentielle de 1994, la triangulation « consiste à “coller” aux positions du camp opposé lorsqu’elles sont jugées majoritaires dans l’opinion, afin d’en neutraliser l’impact électoral négatif » (Montebourg et Ferrand, 2009, p.4). Pour Bill Clinton et son conseiller Dick Morris, il s’agissait alors de neutraliser le camp républicain sur les questions sociétales pour faire des questions économiques (terrain sur lequel les démocrates avaient une avance) le thème principal de la campagne.
b) Le calcul des imitateurs Pour le courant théorique du « late mover advantage », l’imitation n’est plus qu’une stratégie défensive. Ces recherches ont insisté sur les avantages dont peuvent espérer bénéficier les organisations qui arrivent tardivement sur un marché. En dehors du cas particulier des industries à effets de réseau qui rendent profitable à tous l’imitation (Dutton et Freedman, 1985 ; Katz et Shapiro, 1985), plusieurs motivations rationnelles peuvent en effet pousser une organisation à imiter ses concurrents (Cho, Kim et Rhee, 1998 ; Golder et Tellis, 1993 ; Lieberman et Montgomery, 1988). Les recherches de Golder et Tellis (1993) et de Lilien et Yoon (1990) parviennent ainsi à démontrer empiriquement l’existence d’avantages pour les entrants tardifs. La stratégie d’entrée tardive a, par exemple, fréquemment été adoptée avec succès par Microsoft (Schnaars, 1994 ; Zhang et Markman, 1998). Précisons néanmoins que l’existence de facteurs contribuant à la réussite des suiveurs, ne confère pas au « late mover advantage » un caractère automatique et immuable. De ces travaux, souvent issus du champ du Marketing, nous verrons que nous pourrons tirer des conclusions largement transposables à la thématique de la présente recherche.
Une diminution des dépenses de recherche et développement Si l’innovation présente un coût, matérialisé notamment par des dépenses en recherche et développement (R&D), il est généralement admis que ces dépenses se justifient par les bénéfices associés au statut d’innovateur. Ce présupposé est partiellement amendé par Mansfield et ses collègues (Mansfield, 1985 ; Mansfield, Schwartz et Wagner, 1981).
Les imitateurs parviendraient ainsi à réduire de 30% le temps consacré au développement du même produit par les innovateurs et de 35% leurs coûts de R&D (Mansfield et al. , 1981). Force est de constater que les occasions de s’inspirer des avancées technologiques des concurrents ne manquent pas : publication des brevets, articles et colloques de recherche,
72 Première partie : Revue de la littérature presse professionnelle, débauchage de personnel. Ce mécanisme permettra également à l’imitateur de bénéficier d’un « round d’observation » qui lui évitera de supporter des dépenses relatives à la mise au point de produits n’ayant pas de potentiel (Schnaars, 1986, 1994). Comme le remarque Schnaars, l’évaluation du potentiel d’un produit est, en effet, un exercice difficile a priori .
A ces éléments liés à l’innovation viennent s’ajouter des facteurs technologiques : les suiveurs peuvent bénéficier de technologies plus perfectionnées que les pionniers et, de ce fait, les enfermer dans des standards voués à l’obsolescence (Schnaars, 1994).
Des consommateurs à la mémoire courte Les éléments qui précèdent incitent l’entrant tardif à se concentrer sur des dépenses promotionnelles lui permettant d’acquérir une meilleure notoriété que le pionnier (Cooper, 1982) et ce d’autant plus facilement que les consommateurs ont souvent la mémoire courte. Zhang et Markman (1998) soulignent ainsi l’existence d’un « effet poisson rouge »28 . Au travers d’expériences réalisées en laboratoire, ils parviennent à la conclusion que les attributs des produits commercialisés par les entrants tardifs sont mieux mémorisés que ceux des premiers entrants. Shankar, Carpenter et Krishnamurthi (1998) ajoutent un élément d’importance : le suiveur n’aura pas, à la différence du pionnier, à éduquer le consommateur afin de créer de nouvelles habitudes. Il pourra donc intégralement s’attacher à proposer une offre répondant mieux aux attentes des clients que celles des concurrents.
Des succès inégaux En suivant les conclusions proposées par Shamsie, Phelps et Kuperman (2004), l’entrée tardive ne serait cependant pas une voie à conseiller dans tous les cas de figure. Dans un article intitulé « mieux vaut tard que jamais », ces trois chercheurs s’intéressent en effet aux facteurs permettant d’expliquer les différences de performances au sein d’une population d’entrants tardifs.
Ces performances disparates peuvent, selon eux, s’expliquer par trois types d’éléments. Les opportunités restant à conquérir sur le marché constituent le premier type d’explication invoqué par ces chercheurs. La performance d’un entrant tardif dépend de facteurs externes. On retrouve ici « la métaphore de la pomme juteuse » introduite par Theodore Levitt (1966) :
28 La mémoire d’un poisson rouge ne serait que de trois secondes environ.
73 Chapitre 2 : Les deux faces de l’imitation si la pomme est assez juteuse, il n’est pas forcément nécessaire d’être le premier à croquer dedans. Tout le problème est de savoir si, dans le futur, les opportunités disponibles seront suffisamment nombreuses et intéressantes pour justifier une entrée tardive. Selon qu’ils entrent sur le marché juste après le pionnier ou en queue de peloton, tous les concurrents ne seront pas dans des situations aussi favorables. Forts de cette observation, Shankar et ses collègues (1999) préconisent alors aux suiveurs de privilégier une entrée en phase de croissance du cycle de vie. D’autres explications renvoient, quant à elles à la dimension interne. Le succès d’un entrant tardif dépendra des ressources à sa disposition. Plus une organisation sera capable de déployer rapidement un stock important de ressources sur un marché, plus elle pourra bénéficier des retombées positives associées à une entrée tardive. Ces ressources auront, par exemple, pu être acquises lors d’expériences passées dans des secteurs d’activité présentant certaines similitudes avec celui dans lequel l’organisation essaiera de pénétrer. L’adoption d’un positionnement marqué fait, par ailleurs, partie des recommandations adressées par Porter pour éviter l’enlisement dans la voie moyenne. Cette prescription serait particulièrement importante pour les entrants tardifs qui devront être clairement différenciés (Shamsie et al. , 2004 ; Urban, Carter, Gaskin et Mucha, 1986 ; Zhang et Markman, 1998), ou pour l’introduction d’innovations (Shankar et al. , 1998) en vue de bénéficier d’un avantage.
Synthèse 3 Points essentiels des travaux consacrés au « late-mover advantage »
Auteurs clés : Schnaars, Golder et Tellis, Lieberman et Montgomery Champs disciplinaires : Economie Industrielle ; Marketing Niveaux d’analyse : Firmes, secteurs Plusieurs travaux viennent remettre en cause l’universalité du « first mover advantage » en soulignant que les entrants tardifs peuvent eux aussi espérer bénéficier de retombées positives. De ce fait, de nombreuses entreprises ont surpassé les pionniers dans leurs secteurs respectifs. Au-delà des économies en R&D , les entrants tardifs peuvent profiter du travail d’éducation des consommateurs réalisé par les pionniers, développer une offre correspondant davantage à leurs besoins pour atteindre un niveau de notoriété plus important que ceux qui les ont précédé. D’un point de vue technologique, ils peuvent profiter de technologies plus avancées et enfermer les pionniers dans des standards dépassés . Néanmoins, l’avantage des entrants tardifs ne revêt aucun caractère automatique : il dépend des opportunités restant à conquérir sur son marché (problématique de l’ordre d’entrée sur un marché), des ressources de la firme, et de la clarté de son positionnement.
74 Première partie : Revue de la littérature
c) Un apprentissage par procuration (apprentissage vicariant) Les premiers travaux décrivant les organisations comme des systèmes capables d’adaptation, et donc d’apprentissage (Cyert et March, 1963 ; March et Simon, 1958), ont profondément contribué à la structuration du champ des Sciences de Gestion. Qu’ils conçoivent l’apprentissage comme un phénomène holiste ou comme une dynamique collective résultant d’une interaction entre apprentissage individuel et apprentissage organisationnel (Fillol, 2006), qu’ils le décrivent comme un processus intentionnel ou comme un processus non intentionnel (Huber, 1991), les travaux existants ont souvent insisté sur le rôle joué par les expériences passées (Cyert et March, 1963) et par les routines (Levinthal et March, 1993 ; Levitt et March, 1988 ; Nelson et Winter, 1982) dans ce processus souvent incrémental. Au sein de l’organisation, l’apprentissage donne lieu à une tension entre l’exploitation de routines existantes et l’exploration, plus risquée, de routines nouvelles (March, 1991). Cette tension sera d’autant plus forte que les gains retirés, à court terme, par une organisation ayant choisi d’allouer ses ressources au perfectionnement de ses « anciennes » routines pourront aller de pair avec une diminution de ses chances de survie, à plus long terme (March, 1991).
Des expériences empruntées L’imitation vient, dans une certaine mesure, apaiser cette tension. Identifié par les psychologues au niveau individuel (Bandura, 1977 ; Bandura, 1986), l’apprentissage vicariant permet à l’organisation d’acquérir une « expérience de seconde main » (Huber, 1991 ; Huff, 1982) en profitant du travail d’exploration réalisé par autrui (Levinthal et March, 1993). L’organisation entrera ainsi en contact avec une myriade de stratégies et de pratiques qui lui étaient jusqu’alors inconnues, et pourra copier celles qui auront rencontré le succès. Au-delà des pratiques imitées, l’observation d’autrui pourra également permettre à l’organisation de construire un savoir plus abstrait (Miner et Mezias, 1996).
Le concept d’apprentissage vicariant demeure néanmoins difficile à définir. A l’instar de Srinivasan, Haunschild et Grewal (2007, p.18), de nombreux auteurs qualifient d’apprentissage vicariant tout comportement conduisant « la firme à modifier son comportement en réponse au comportement d’autres firmes ». Une définition vague qui empêche de distinguer clairement imitation, diffusion, mimétisme et apprentissage vicariant mais qui établit un compromis dans une communauté ayant longtemps débattu du caractère
75 Chapitre 2 : Les deux faces de l’imitation intentionnel et instrumental de l’apprentissage 29 . Dans cette recherche, on parlera d’apprentissage vicariant (ou d’apprentissage par procuration) lorsqu’un acteur stratégique trouvera, dans l’imitation, un moyen d’apprendre de ses concurrents en vue d’améliorer les performances de son organisation.
Cette définition nous amène à souligner une deuxième difficulté, renvoyant cette fois ci à ses conséquences sur la performance des organisations apprenant par procuration. Ce problème est notamment soulevé par Denrell (2003) qui apporte de nombreuses nuances aux conclusions portées par les travaux antérieurs vantant les bienfaits de l’apprentissage vicariant 30 . Pour ce chercheur, l’échantillon pris comme référence par les organisations imitatrices revêt souvent un caractère biaisé. La population des organisations faisant office de modèles résulte, en effet, d’un processus de sélection complexe ayant conduit à éliminer les organisations les moins performantes : dans l’échantillon retenu par les imitateurs, il ne reste que des entreprises ayant survécu.
Ce biais d’échantillonnage, combiné à la tendance naturelle de la presse managériale et des enseignants en Gestion à se focaliser sur les entreprises ayant réussi, peut conduire les organisations imitatrices à reprendre, sur la base de cas atypiques, des pratiques risquées ayant contribué au déclin de nombreuses autres organisations. De façon plus prosaïque, les organisations peuvent également se tromper en copiant des pratiques et des routines qu’elles croient bénéfiques mais dont les effets sur leurs propres performances seront en réalité négatifs (Levitt et March, 1988 ; Miner et Haunschild, 1995). S’il y a bien une forme de calcul de la part des imitateurs, il n’est pas évident que ces derniers soient systématiquement en mesure de tirer profit de l’expérience de leurs concurrents. Il s’agira alors de mettre en évidence les conditions sous lesquelles l’apprentissage par procuration pourra être bénéfique à l’organisation.
29 On renverra le lecteur à la contribution de Huber (1991) pour une synthèse de ces échanges. 30 Voir notamment Argote et al. (1990) et Darr et al. (1995) sur la relation entre apprentissage vicariant et productivité, Beckman et Haunschild (2002) sur la capacité des entreprises imitatrices à diminuer le coût de leurs acquisitions, Haunschild et Sullivan (2002) sur les effets de l’apprentissage vicariant sur la diminution du nombre d’accidents par certaines compagnies aériennes, Baum et ses collègues sur la relation entre apprentissage vicariant et survie des organisations (Baum et Ingram, 1998 ; Baum et al. , 2000 ; Ingram et Baum, 1997).
76 Première partie : Revue de la littérature
Les clés d’un apprentissage par procuration réussi Pour un observateur extérieur, la mesure de la performance d’une organisation n’est pas chose facile (Denrell, 2003) : au problème d’accès à l’information, lié notamment aux asymétries d’informations bien connues des théoriciens de l’agence (Demsetz, 1973), vient s’ajouter l’interprétation parfois difficile des observations. Il importe donc de sélectionner les modèles les plus pertinents par rapport à une problématique donnée. Par exemple, les réseaux de garde d’enfants au Canada ont tendance à aligner leurs décisions d’implantation sur celles réalisées par de grandes entreprises en croissance (Baum et al. , 2000).
La sélection sera d’autant plus efficace que l’organisation apprenante aura été exposée à des expériences diverses et variées. De par leur fonction de transmission d’information, les liens sociaux ( « network ties », section 3.1 du chapitre précédent) pourront permettre à l’organisation non seulement de prendre connaissance des différentes stratégies alternatives possibles dans un contexte donné mais également d’observer les résultats de ces stratégies dans plusieurs contextes (Westphal et al. , 2001). Les sièges dans des conseils d’administration feraient, comme le montrent les entretiens réalisés par Beckman et Haunschild (2002), figure de poste d’observation privilégié pour des dirigeants cherchant à explorer des voies nouvelles. Les résultats du volet quantitatif de cette recherche corroborent, par ailleurs, l’idée selon laquelle ces comportements contribuent au succès de l’entreprise imitatrice 31 . Dès lors, la possibilité pour une organisation d’apprendre par procuration dépend largement de sa position sociale (Cohen et Levinthal, 1990 ; Levitt et March, 1988).
A la problématique de la diversité des expériences sur lesquelles s’appuie l’apprentissage s’ajoute celle de leur pertinence. Une attention particulière sera alors portée aux manœuvres stratégiques des concurrents directs (Abrahamson et Rosenkopf, 1993 ; Miner et Haunschild, 1995). Ces derniers sont en effet souvent dotés de ressources comparables à celles détenues par l’organisation et doivent faire face aux mêmes contraintes environnementales (Peteraf et Shanley, 1997). En guise de synthèse, Guillén (2003), dans une recherche empirique consacrée à des entreprises coréennes, insiste ainsi sur la capacité des organisations à apprendre de leurs expériences passées, des expériences des autres entreprises de leur chaebol (avec lesquelles elles entretiennent des liens sociaux) et, dans une moindre mesure, des expériences des concurrents officiant dans leur secteur d’activité.
31 Les décisions étudiées ont trait au montant payé pour réaliser une acquisition.
77 Chapitre 2 : Les deux faces de l’imitation
Quels effets au niveau des populations d’organisations ? Au-delà de l’organisation imitatrice, l’apprentissage par procuration pourra également avoir des conséquences sur des populations d’organisations. On parlera alors de « population level learning » pour désigner « un changement systématique dans la nature et dans la combinaison des routines au sein d’une population donnée d’organisations » (Miner et Haunschild, 1995, p.118) 32 . Au sein d’une population donnée, les organisations apprendraient en s’imitant les unes les autres, ce qui permettrait à de nouvelles routines de s’imposer. Les effets combinés de l’imitation et d’un processus de sélection tendant à faire disparaître les organisations ne s’adaptant pas (on retrouve l’influence du courant de l’écologie des populations) contribueraient à l’homogénéisation de la population (McKendrick, 2001 ; Miner et Haunschild, 1995).
Synthèse 4 Points essentiels des travaux consacrés à l’apprentissage vicariant
Auteurs clés : Levitt et March, Haunschild, Baum, Ingram / Champs disciplinaires : Stratégie, Organisation Niveaux d’analyse : organisations & populations d’organisations
Prolongeant des travaux de psychologues tentant à prouver l’existence d’une forme d’apprentissage par l’imitation chez les individus, un important champ de recherche a relié apprentissage organisationnel et imitation au travers du concept d’apprentissage vicariant (ou apprentissage par procuration). Les organisations pourraient, par imitation, bénéficier des expériences d’autrui . L’imitation contribuerait ainsi à l’ exploration de nouvelles routines . Si plusieurs auteurs insistent sur les avantages associés à ce type d’apprentissage (augmentation des chances de survie, gain en productivité et en qualité, etc.) il convient de préciser que les organisations imitatrices peuvent aussi subir un certain nombre de retombées négatives liées au caractère biaisé de l’échantillon qu’elles prennent pour référence. Ce dernier ne comprend, en effet, que des organisations ayant « survécu ». Une attention particulière sera alors portée à l’hétérogénéité des expériences empruntées par l’organisation imitatrice et à leur transposabilité . Les liens sociaux de l’organisation pourront ainsi lui permettre d’accéder à une myriade d’expériences qui seront d’autant plus facilement transposables qu’elles auront été réalisées dans des entreprises opérant dans des contextes comparables (des concurrents par exemple). L’apprentissage vicariant est également susceptible de modifier la physionomie du secteur d’activité dans son ensemble en contribuant à l’homogénéisation des pratiques. On parle alors de « population-level learning ». Si ses processus sont bien connus, ses effets, sur la profitabilité des firmes du secteur, demeurent encore méconnus.
32 “A systematic change in the nature and mix of organizational action routines in a population of organizations”
78 Première partie : Revue de la littérature
d) De la légitimité Un troisième argument peut être avancé pour témoigner des retombées potentiellement positives de l’imitation pour l’organisation. En imitant des modèles légitimes et largement acceptés, les organisations pourraient maintenir et accroitre leur légitimité. Si elle s’inscrit dans le prolongement des théories néo-institutionnelles (DiMaggio et Powell, 1983 ; Meyer et Rowan, 1977) et de l’écologie des organisations (Hannan et Caroll, 1992), cette idée en est une présentation instrumentale et rationaliste. Comme nous le verrons dans la section que nous consacrerons aux théories néo-institutionnelles, la notion de légitimité est principalement utilisée par des auteurs adoptant une approche évaluative de l’imitation concurrentielle.
Certains pourront considérer que les travaux qui décrivent l’imitation comme un moyen de se légitimer en vue d’acquérir certaines ressources procèdent à un détournement des thèses néo- institutionnelles ou écologiques. Force est de constater qu’il existe une ambiguïté sur les types de rationalités à l’œuvre dans les travaux fondateurs de ces courants. S’ils opposent les motivations économiques aux motivations institutionnelles d’adoption d’une structure organisationnelle, Meyer et Rowan (1977) semblent néanmoins mobiliser des modèles de rationalités ancrés dans une conception instrumentale.
« Les organisations qui, dans leur structure, mettent en place des éléments qui sont socialement légitimés et rationnalisés maximisent leur propre légitimité et améliorent leurs ressources mais aussi leurs chances de survie. »33
Meyer et Rowan (1977)
e) Vers un compromis ? S’opposant aux auteurs qui mettaient en avant les retombées négatives de l’imitation pour l’organisation (chapitre 1), les travaux qui viennent d’être présentés insistent, en prenant le soin de formuler certaines nuances, sur les conséquences positives que peut avoir cette stratégie sur la performance de l’entreprise. A la question « Faut-il imiter ses concurrents ? », les uns, les plus nombreux il est vrai, répondent par la négative, les autres par la positive. Ces positions tranchées n’éclairent que faiblement les praticiens (Durand et Calori, 2006) : Qui doit-on croire ? Faut-il imiter ou se différencier ?
33 “Organizations that incorporate societally legitimated rationalized elements in their formal structures maximize their legitimacy and increase their resources and survival capabilities.”
79 Chapitre 2 : Les deux faces de l’imitation
La théorie de l’équilibre stratégique : une tentative avortée A défaut de réponse définitive, le travail de David Deephouse (1999) pourra faire office de jugement de Salomon : l’efficacité maximale résiderait en l’adoption d’un positionnement de compromis, à mi chemin entre imitation et différenciation. Dans leur activité quotidienne, les stratèges seraient donc placés dans une tension entre conformisme et différenciation, le « competitive cusp » (Porac, Thomas et Baden-Fuller, 1989). Un point partout, la balle au centre ? Pas vraiment.
Malgré le caractère consensuel de sa réponse Deephouse ne semble pas être parvenu à remporter l’adhésion des partisans du « conform or perform ». A l’exception notable de Eapen et Krishnan (2009) qui montrent que l’imitation peut avoir des effets différenciés sur la performance des entreprises (les petites entreprises semblent ici mieux profiter de l’imitation que les grandes), ces derniers ont en effet continué à alimenter la communauté scientifique en résultats tendant à prouver l’inefficacité de l’imitation en stratégie (Barreto et Baden-Fuller, 2006 ; Demil et Lecocq, 2006). Si les travaux les plus récents témoignent d’une meilleure connaissance de l’imitation concurrentielle, le message principal reste conforme aux prescriptions initiales.
Changer de perspective La démarche de Deephouse, qui consistait à attaquer les approches orthodoxes de l’imitation sur la relation entre imitation et performance organisationnelle, se solde donc par un demi échec. Le chercheur parvient, certes, à apporter quelques nuances dans un débat où les positions étaient jusqu’alors extrêmement tranchées mais peine à faire évoluer la pensée stratégique normative dominante. Cette impasse justifie, à notre sens, l’adoption d’une démarche plus compréhensive. La question ne sera pas ici de savoir si l’imitation est profitable, ou non, à l’organisation, mais d’améliorer notre connaissance des pratiques d’imitation concurrentielle et des rationalités sous-jacentes. Sans exclure la quête de performance organisationnelle, il importe de cerner d’autres motivations possibles.
Telle sera la caractéristique commune des théories qui vont maintenant être analysées. La section 1.2 conserve une conception instrumentale de la rationalité mais insiste sur les raisons personnelles qui peuvent pousser le décideur à imiter ses concurrents. Les approches traitées en section 2 adoptent une autre perspective en insistant sur des raisons ancrées dans des conceptions évaluatives de la rationalité humaine pour expliquer les phénomènes d’imitation.
80 Première partie : Revue de la littérature
1.2. L’ IMITATION ET SES CONSEQUENCES POUR LE DECIDEUR
L’imitation peut être instrumentalisée par les stratèges à des fins personnelles. Comme dans la théorie normative de l’agence (Jensen et Meckling, 1994), l’intérêt des individus peut parfois prendre le pas sur l’intérêt de l’organisation. Selon Brandenburger et Polak, (1996) maximiser l’utilité d’autrui et maximiser sa propre utilité ne conduisent ni aux mêmes décisions, ni aux mêmes comportements.
a) Un moyen de maintenir sa propre réputation Le glissement d’une imitation rationnelle, fondée sur la recherche de profit ou d’avantage concurrentiel de la firme, vers une imitation, toujours aussi rationnelle mais cette fois ci guidée par les calculs individuels des décideurs est, pour la première fois opéré par Akerlof (1980) et Jones (1984) qui, chacun à sa manière, cherchent à intégrer la dimension réputationnelle dans le calcul des individus. Plusieurs années plus tard, le travail de David S. Scharfstein et Jeremy C. Stein propose, au travers d’une tentative de modélisation des décisions d’investissement de gestionnaires de fonds (Scharfstein et Stein, 1990), le point de départ d’une nouvelle génération de modèles inspirés de la théorie de l’agence et insistant sur une forme de conformisme, très intéressée, chez les intervenants financiers.
Un domaine a priori très éloigné de la stratégie d’entreprise, qui ouvre cependant la voie à de nombreux développements permettant d’alimenter une réflexion, plus générale, sur les motifs de la prise de décision individuelle. Scharfstein et Stein imaginent un monde dans lequel les gestionnaires de fonds seraient inégalement doués : certains seraient mieux à même que d’autres de détecter les signaux leur permettant d’anticiper l’évolution future des marchés financiers. Aux « smart managers », bien informés, s’opposent les « dumb managers » dont les « tuyaux » sont plus que douteux (Scharfstein et Stein, 1990, p.466).
Les bonnes informations ont la particularité d’être liées à la réalité du marché et d’être concordantes : elles sont auto corrélées. Afin de passer pour des « smart managers », les gestionnaires ont intérêt à imiter les décisions prises par autrui. Cette attitude leur permettra de maintenir leur réputation sur le marché du travail ce qui aura, pour eux, une conséquence sonnante et trébuchante : l’idée que se font des observateurs extérieurs des qualités de chacun fixe en effet le montant des rémunérations individuelles. Elle impacte également la capacité à trouver un emploi dans le futur.
81 Chapitre 2 : Les deux faces de l’imitation
Les gestionnaires de portefeuille ont donc à cœur de maintenir leur réputation, en imitant leurs homologues afin de minimiser les conséquences que pourrait avoir une décision malencontreuse et isolée sur leur propre avenir professionnel. Pour reprendre la célèbre maxime de Keynes, « mieux vaut avoir tort avec la foule que raison contre elle ». Une idée simple et percutante, qui s’est rapidement répandue au sein de la communauté des chercheurs s’intéressant au monde de la finance et de la banque. Dans une recherche empirique quasi prémonitoire, Rajan (1994) a par exemple soutenu l’idée que c’est ce type d’attitude qui a conduit, au début des années quatre vingt dix, les banques de Nouvelle Angleterre à accorder trop facilement des crédits à des ménages qui se sont, par la suite, révélés incapables de faire face à leurs échéances. Le phénomène est également décrit par Trueman (1994) qui dénonce la propension des analystes de marchés à proposer des prévisions qu’ils savent biaisées afin de ne pas s’éloigner de l’avis de leurs confrères et ainsi, maintenir leur propre réputation. Dans un effort de conceptualisation, Douglas Bernheim (1994), propose de généraliser ces résultats. Le problème se poserait à tous les individus devant se soumettre à une évaluation de leurs compétences ou de leurs prédispositions personnelles. Ces éléments sont difficilement observables. L’évaluation intègre une large part de subjectivité ce qui cause une distorsion dans le comportement des individus évalués.
Devant rendre des comptes à des rédacteurs en chef qui ne sont pas au contact direct de l’évènement, les journalistes cherchent, par exemple, à coller au consensus lorsqu’ils rendent compte d’une information. Comme l’explique Timothy Cook (2005, p.78) dans un ouvrage consacrée à la construction de l’information, « La compétition journalistique n’incite pas les reporters à dénicher des « scoop » exclusifs mais à développer une aversion au risque fondée sur la présomption que la gloire qu’ils pourraient tirer d’une exclusivité serait beaucoup moins grande que les ennuis qu’ils devraient subir si jamais leur scoop était remis en question ou s’ils devaient passer à côté de la grosse information couverte par tout le monde. »
Dans le même ordre d’idée, les managers intermédiaires étudiés par Prendergast (1993) ont tendance à faire des recommandations ne remettant pas en question les croyances de leurs supérieurs hiérarchiques afin de ne pas entraver leur progression dans l’entreprise. L’attitude de ces « yes men » remet pourtant en cause l’exactitude de l’information des dirigeants et nuit à la bonne marche de l’entreprise.
82 Première partie : Revue de la littérature
Dans la plus pure tradition des modèles d’agence, il importe alors de définir le contrat et la structure de rémunération les plus à même d’inciter les agents à privilégier l’intérêt de la firme à leur ambition personnelle (Khanna, 1997 ; Khanna et Slezak, 2000).
b) Quelques précisions relatives à la théorie de l’agence Les modèles qui viennent d’être présentés revendiquent une filiation avec la théorie de l’agence. Le sharing the blame effect serait une manifestation particulière d’un problème plus général, le problème d’agence, résultant d’une divergence entre l’intérêt d’un mandant (le principal) et de son mandataire (l’agent). Comme le précise Charreaux (1999), à la suite de plusieurs auteurs (Eisenhardt, 1989 ; Jensen, 1983 ; Jensen et Smith, 1985) la théorie de l’agence a donné naissance à deux traditions de recherches bien différentes.
La théorie positive de l’agence s’intéresse, historiquement, à la relation entre propriétaires et dirigeants pour analyser le fonctionnement de l’entreprise. La firme est alors décrite comme un ensemble de relations d’agences. Il s’agit de mettre en évidence, parfois de façon empirique, les arrangements et les mécanismes institutionnels permettant de réduire les conflits d’intérêt : c’est bel et bien le problème de l’efficience qui est posé.
Dans la théorie normative de l’agence, la question de l’organisation est souvent secondaire. Il s’agit d’abord d’étudier de façon formalisée des contrats d’agence susceptibles de réduire le risque d’aléa moral. Les problématiques débordent fréquemment de la thématique du conflit d’intérêt entre actionnaires et dirigeants.
Si ces deux courants divergent dans leurs disciplines de rattachement, dans leurs objets, dans leur conception de la nature humaine (rationalité substantive pour la tradition normative, rationalité limité et créativité des acteurs pour la tradition positive), ou encore dans leur conception de l’incertitude, c’est probablement dans leur forme que le contraste est le plus saisissant. Le degré de formalisation et d’abstraction des travaux issus de la tradition normative tranche radicalement avec le caractère très littéraire des analyses proposées par la tradition positive. Les travaux présentés dans cette section pourront donc faire office de « bizarrerie ». Ils partagent certes avec le courant normatif une conception substantive de la rationalité, une démarche analytique fondée sur l’abstraction et la formalisation, mais ils viennent alimenter une réflexion plus compréhensive liée au comportement des individus dans l’organisation.
83 Chapitre 2 : Les deux faces de l’imitation
Synthèse 5 Points essentiels des modèles d’agence de l’imitation
Auteurs clés : Scharfstein et Stein / Champ disciplinaire : Economie Niveau d’analyse : Individus
Lorsqu’ils sont soumis à une évaluation subjective , les individus ont tendance à s’imiter les uns les autres en vue de maximiser leur réputation personnelle . Ce phénomène est particulièrement courant chez les intervenants financiers qui, lorsqu’ils imitent les décisions de leurs pairs, peuvent passer pour des individus bien informés. Il est également observé chez les journalistes , qui couvrent souvent une information de la même façon que leurs collègues, ou chez les managers intermédiaires qui émettent des préconisations correspondant aux attentes de leurs supérieurs hiérarchiques. Dans tous ces cas, le maintien de réputation permet aux individus de bénéficier de perspectives de carrière favorables. Ces initiatives individuelles allant à l’encontre de l’intérêt de l’organisation, il est nécessaire de mettre en place des contrats et des incitations permettant d’ aligner les intérêts .
La section qui s’achève est consacrée à des courants théoriques qui appréhendent l’imitation comme le fait d’individus capables de tenir compte des conséquences de leurs actions et de leurs décisions. Ces théories ont été regroupées en trois grandes approches qui ont fait l’objet d’encadrés de synthèse : (1) « late mover advantage », (2) apprentissage par procuration, (3) modèles d’agence de l’imitation.
Les deux premières approches insistent sur les retombées positives de l’imitation pour l’organisation imitatrice. Les modèles d’agence de l’imitation, au travers du concept de « sharing the blame effect », soulignent quant à elles le fait que les décideurs peuvent se montrer égoïstes et s’intéresser davantage aux effets de l’imitation sur leur propre situation personnelle que sur la bonne marche de leur organisation.
Les raisons individuelles qui sont mises en avant par des théories serviront de base à notre étude des pratiques d’imitation concurrentielle des programmateurs des radios musicales françaises. De ces théories, nous ne conserverons donc que leur dimension individuelle. Le tableau qui suit dresse une vue d’ensemble de ces courants en reprenant leurs enseignements tant au niveau individuel qu’aux niveaux organisationnel et populationnel.
84
Tableau 3 Approches instrumentales de l’imitation : une synthèse
« First mover advantage » Apprentissage vicariant Modèles d’agence de l’imitation
Les décideurs voient dans l’imitation un moyen de Les décideurs voient dans l’imitation un moyen de bénéficier Les décideurs voient dans l’imitation un moyen de « se Principaux minimiser la menace qui émane de leurs concurrents de l’expérience de leurs modèles. couvrir ». En cas d’échec, leur responsabilité individuelle enseignements au niveau mais aussi d’améliorer la situation de leur sera diluée dans une responsabilité collective (concept de individuel (raisons) organisation. L’imitation permettrait en quelques sortes d’externaliser le « sharing the blame effect »). travail d’exploration de nouvelles routines (dialectique Cette dernière peut par exemple bénéficier d’une exploration versus exploitation). L’imitation permet alors de limiter les conséquences diminution des coûts de recherche et négatives que pourraient avoir une décision développement, tirer profit de technologies plus malencontreuse sur l’avenir professionnel du décideur abouties ou encore profiter du travail d’éducation et/ou sur sa rémunération. des consommateurs réalisé par le modèle.
Principaux Les conséquences de l’imitation sont réduites à la Les conséquences de l’imitation sont réduites à la seule Nécessité de trouver les arrangements organisationnels et seule question de la performance. question de la performance. contractuels les mieux à même de limiter ces enseignements au niveau comportements opportunistes et de réduire les asymétries organisationnel Les avantages dont peuvent bénéficier les imitateurs Toutes les organisations ne sont pas en mesure de tirer bénéfice d’information (théorie de l’agence). doivent être mis en parallèle avec les avantages des de l’apprentissage par procuration. Les organisations qui innovateurs et des premiers entrants. Aucun réussissent sont celles qui ont été en contact avec le plus grand consensus n’émerge de ce champ de littérature si ce nombre de modèles et qui auront sélectionné les modèles les n’est pour souligner l’importance du moment plus pertinents au regard d’une problématique donnée ou des d’entrée sur le marché et l’influence du type de caractéristiques de leur propre organisation. ressources détenues par l’organisation imitatrice sur sa capacité à tirer parti d’une entrée tardive.
Principaux Vision schumpétérienne de la destruction créatrice Phénomènes d’apprentissage collectifs au niveau des Aucun et de la diffusion des innovations par l’imitation. populations d’organisation ( « population level learning ») enseignements au niveau populationnel
Chapitre 2 : Les deux faces de l’imitation
2. LES APPROCHES EVALUATIVES DE L’IMITATION
Les travaux qui ont été présentés dans la section précédente, qu’ils insistent sur les conséquences de l’imitation attendues par les décideurs pour l’organisation ou pour eux- mêmes, présentent un point commun : ils considèrent que les comportements imitatifs ont une finalité déterminée par les conséquences attendues par les acteurs stratégiques.
A ces approches instrumentales , il est possible d’opposer des approches évaluatives faisant intervenir des explications fondées sur le désir, la légitimité des modèles ou l’identité, qu’elle soit sociale ou organisationnelle. Dans cette littérature, le modèle (d’une organisation ou d’un groupe d’organisations) sera perçu comme un étalon de mesure influençant les actions et les décisions du stratège. Sans attendre ou anticiper de conséquences particulières, les décideurs s’aligneront sur des normes de comportement observables dans leur environnement immédiat. L’imitation sera ici normative, fondée sur ce qui semble approprié (March et Olsen, 1989) et non performative.
Bien qu’elles aient pour point commun de rejeter le postulat de conséquentialisme, les théories qui vont suivre ne mobilisent pas les mêmes unités d’analyse. Nous invitons le lecteur à passer outre ces incompatibilités théoriques apparentes, pour se focaliser sur les raisons mises en avant par les auteurs qui, une fois transposées au monde du management stratégique, constitueront autant de pistes permettant de comprendre les phénomènes d’imitation concurrentielle.
Notre exploration des approches évaluatives de l’imitation commencera par l’étude de l’œuvre de René Girard (1972, 1982) et à sa théorie mimétique (section 2.1). Au vu des limites souvent attribuées à cette pensée, nous retrouverons la notion de légitimité si chère au courant néo-institutionnaliste (section 2.2). A la faveur d’un glissement du niveau d’analyse (nous passerons d’un niveau organisationnel à un niveau individuel), la notion d’identité sociale apparaitra comme étant en mesure d’expliquer certains comportements imitatifs dans des groupes d’individus (section 2.3) mais aussi dans des groupes d’organisations (section 2.4).
86 Première partie : Revue de la littérature
2.1. UNE RIVALITE MIMETIQUE
Comme l’explique Dupuy (2003) plusieurs auteurs français ont relié l’imitation, à une forme de fascination, souvent inconsciente, pour un modèle (Paicheler et Moscovici, 1984). Cette affirmation rejoint la thèse défendue par René Girard, dont l’œuvre gravite autour d’une idée fixe désignée indistinctement par les termes « désir emprunté », « désir métaphysique », « désir triangulaire », « désir de seconde main » ou « désir mimétique ». Pour Girard, l’imitation trouverait sa source dans la part de sauvagerie, d’obscurité, propre à chaque être humain. Tels Dr Jekill se changeant en Mr Hyde, les individus verraient périodiquement cette animalité primaire refaire surface.
a) Un désir mimétique, une violence primaire L’existence de rivalités enfantines serait la preuve du caractère inné de l’imitation chez l’être humain : « Mettez un certain nombre de jouets, tous identiques, dans une pièce vide, en compagnie du même nombre d’enfants : il y a de fortes chances que la distribution ne se fasse pas sans querelles » (Girard, 1978, p.17).
Au travers d’une relecture d’œuvres littéraires (Girard, 1961), de mythes antiques (Girard, 1972) ou de textes bibliques (Girard, 1978, 1982), ce philosophe français, expatrié aux Etats- Unis, cherche à bâtir une théorie, la théorie mimétique, capable de mettre en lumière les fondements des premiers rites et des premières institutions.
Une relation triangulaire Au commencement de la pensée girardienne, il y a le désir, un désir intermédié qui n’existe que dans le cadre d’une relation triangulaire entre l’objet, le sujet et le médiateur (Girard, 1961). Comme l’explique Ehrmann (1963, p.111), « au lieu que le sujet désire un objet sans intermédiaire, il a besoin, pour s'assurer de la validité de son désir, de la garantie que lui offre un tiers, l'Autre, que Girard appelle le médiateur. » Chez Girard, le désir d’un individu pour un objet est donc révélé et exacerbé par le désir d’un autre pour le même objet, c’est un désir mimétique. L’imitation, qui capte le désir d’autrui, est dès lors encouragée par la proximité du modèle et du sujet : « le désir s’amplifie avec la proximité des individus » (Hirigoyen, 2007).
87 Chapitre 2 : Les deux faces de l’imitation
« Le désir est essentiellement mimétique, il se calque sur un désir modèle ; il élit le même objet que ce modèle. Le mimétisme du désir enfantin est universellement reconnu. Le désir adulte n’est en rien différent, à ceci près que l’adulte, en particulier dans notre contexte culturel, a honte, le plus souvent, de se modeler sur autrui ; il a peur de révéler son manque d’être. Il se déclare hautement satisfait de lui même ; il se présente en modèle aux autres ; chacun va répétant : “Imitez moi” afin de dissimuler sa propre imitation. »
René Girard (1972, p.205)
Cette idée est représentée par le schéma suivant :
Schéma 3 La structure du désir selon Girard
Objet
Modèle Sujet
D’après Grote (2003, p.117)
Un modèle obstacle Loin d’être génératrice d’harmonie, cette tendance naturelle, qualifiée « d’ hypermimétisme humain » (Girard, 2003, p.31), est porteuse de rivalité et de violence : lorsque deux désirs portent sur le même objet, ils se télescopent, se font concurrence. Par la théorie du « modèle- obstacle », Girard explique que le désir conduit les individus dans l’impasse de leurs désirs adverses. Dès lors, imiter l’autre devient une façon de l’anéantir, d’en devenir le double monstrueux.
On pourra trouver, dans la vie des affaires, de nombreuses illustrations de cette théorie du « modèle-objet » (Hirigoyen, 2007), et interpréter les décisions de certains dirigeants non comme le produit d’une réflexion stratégique mais comme la traduction d’un désir mimétique. En octobre 2006, Bernard Arnault décidait ainsi de lancer une fondation Louis-Vuitton dédiée à la création artistique (Mouricou, 2007). Cette décision intervenait six mois après une initiative similaire de son concurrent de toujours, François Pinault, à la tête du groupe PPR. Malgré les affirmations de Bernard Arnault pour qui « toute comparaison avec d’autres initiatives ne serait pas pertinente »34 , on ne peut qu’être frappé par la grande proximité de ces décisions, révélatrice de la rivalité entre ces deux figures emblématiques du capitalisme
34 « Arnault défie Pinault dans l’art contemporain », l’Expansion , 2 octobre 2006.
88 Première partie : Revue de la littérature français. Faute de pouvoir triompher de son concurrent, Bernard Arnault aurait-il cherché à en devenir le double monstrueux ?
Une compétition La théorie de l’équivalence structurelle (Burt, 1982, 1983, 1987), qui lie elle aussi imitation et compétition, vient apporter quelques éléments de réflexion complémentaires. Lorsque deux personnes occupent des positions similaires dans le système social, elles deviennent, selon Burt, interchangeables aux yeux des autres membres du système. Tel est le cas lorsque deux sœurs d’âges proches essaient d’obtenir les meilleures notes dans les mêmes matières et y sont encouragées par leurs parents ou lorsque deux étudiants travaillent sur le même sujet et reçoivent les enseignements des mêmes professeurs. Toute tentative de l’un des deux individus pour se distinguer positivement de l’autre est interprétée comme un avantage. Le pionnier est alors imité par le second qui cherche à maintenir sa position sociale : la rivalité devient mimétique.
b) Une violence contagieuse La violence et le sacré (1972) permet à René Girard de proposer une illustration de sa théorie mimétique en mobilisant le mythe d’Œdipe : derrière la prophétie (selon l’Oracle, Œdipe est condamné à tuer son père pour épouser sa mère), on retrouve le désir mimétique du fils pour ce qui constitue l’objet du désir du modèle (sa mère pour son père). Personnage tragique, Œdipe ne parvient pas à échapper à son propre désir mimétique et tue cet inconnu rencontré au hasard des chemins, Laïos, son père.
« Dans la rencontre d’Œdipe et de Laïos au carrefour, il n’y a d’abord ni père, ni roi ; il n’y a que le geste menaçant d’un inconnu qui barre son chemin au héros, il y a ensuite le désir de frapper, le désir qui frappe cet inconnu et qui se dirige, aussitôt, vers le trône et l’épouse, c'est à dire vers les objets qui appartiennent au violent. Il y a, enfin, l’identification du violent comme père et roi. C’est la violence, en d’autres termes, qui valorise les objets du violent. »
René Girard (1972, p.203)
La rivalité est telle que la haine réciproque des rivaux conduit à la destruction de l’objet des désirs (dans le mythe, Jocaste, veuve de Laïos, mère et épouse d’Œdipe, finit par se pendre lorsqu’elle découvre la vérité). Une relecture comparable du mythe hindou des Brahmanas est proposée dans un ouvrage plus récent (Girard, 2003). La violence du désir mimétique a ceci de particulier qu’elle est contagieuse : les deux individus qui désirent la même chose sont bientôt rejoints par un troisième, puis par un quatrième. C’est l’effet boule de neige.
89 Chapitre 2 : Les deux faces de l’imitation
Cette violence, annihile les différences entre individus - Girard souligne, par exemple, l’indifférenciation sexuelle dans le mythe des Bacchantes (Girard, 1972) - et plonge la société dans le chaos. Pour arrêter la crise, il faut tromper la violence, la détourner, la polariser contre une victime unique. Cette assertion permet à Girard d’ajouter à la théorie mimétique un nouveau pan : une théorie du bouc émissaire. Le sacrifice du bouc émissaire a donc pour fonction de rassasier la soif de violence des individus, de mettre un terme à la crise en réinstaurant une différence entre le sacrifiable et le non sacrifiable.
« Le miracle du sacrifice, c’est la formidable “économie” de violence qu’il réalise. Il polarise contre une seule victime toute la violence qui, un instant plus tôt, menaçait la communauté entière »
René Girard (2003, p.26)
Le schéma 4 reprend cet enchainement d’évènements. Après une synthèse de la théorie mimétique de Girard, nous nous interrogerons sur la portée de cette théorie pour les Sciences de Gestion. Cette réflexion nous conduira à élargir notre champ d’analyse de la littérature et à nous intéresser à d’autres courants théoriques qui, comme Girard, mettent en avant des raisons individuelles ancrées dans un modèle évaluatif de la rationalité humaine pour expliquer les phénomènes d’imitation.
Schéma 4 Du désir mimétique au sacrifice chez René Girard
Désir Mimétique Violence Contagion Crise Sacrifice (deux individus)
90 Première partie : Revue de la littérature
Synthèse 6 Points essentiels de la théorie mimétique
Auteur clé : René Girard / Champ disciplinaire : Anthropologie / Niveau d’analyse : individus et société
Les être humains ont un « désir mimétique » qui les pousse à désirer les choses désirées par autrui. Le désir pour un objet s’inscrit donc dans une relation triangulaire « modèle – objet – sujet ». Lorsque deux individus désirent la même chose, ils entrent en concurrence ( théorie du modèle obstacle ). La violence qui découle de cette rivalité prend le pas sur l’objet du désir. Pour la théorie de l’équivalence structurelle , la proximité sociale de deux individus les place en situation de compétition. Toute tentative de l’un pour se distinguer positivement aux yeux des autres membres du système sociale est alors imitée par l’autre. La rivalité devient mimétique . Cette violence est contagieuse , elle plonge la communauté dans une crise. La violence est d’autant plus grande que sont abolies les différences entre les individus. Le sacrifice d’un bouc émissaire permet de mettre un fin à cette spirale de violence en rétablissant une différence entre le sacrifiable et le non sacrifiable. Le sacrifice est ensuite répliqué puis ritualisé afin de prévenir toute nouvelle éruption de violence mimétique. Il aurait existé une violence ancestrale à laquelle on aurait mis fin par un sacrifice. Cette crise sacrificielle originelle aurait donné naissance au fait religieux.
Quels enseignements pour les Sciences de Gestion ? L’œuvre de Girard est dense, complexe. La présentation qui vient d’en être faite est forcément réductrice. Le pan métaphysique de la pensée girardienne qui relie sacrifice et naissance du fait religieux et qui est, selon nous, indissociable de la foi catholique animant l’auteur, a ici été écarté.
En dépit de sa position particulière, à l’intersection du littéraire, du scientifique et du religieux, l’œuvre de Girard demeure une lecture stimulante pour les chercheurs en Sciences de Gestion. Comme l’expliquent Desmond et Kavanagh (2003), l’analyse girardienne pourrait éclairer d’un jour nouveau l’existence de formes organisationnelles (qui seraient les plus à même de réduire la violence mimétique de leurs membres) ou les mécanismes de harcèlement en entreprise. Plus proches de la thématique de la recherche, les auteurs soulignent que la
91 Chapitre 2 : Les deux faces de l’imitation théorie du modèle obstacle pourrait apporter des micro fondations aux théories néo- institutionnelles (Touron, 2005) ou à la théorie des conventions (Montmorillon, 1999).
Mobilisée dans des champs très divers de la théorie des organisations, la théorie mimétique est supposée permettre une analyse des conflits de succession dans les entreprises familiales (Grote, 2003 ; Hirigoyen, 2007) ou de l’éthique des affaires (Grote et McGeeney, 1997) ; une minimisation des risques relationnels et informationnels dans les réseaux d’entreprise (Simonnet, 2006) ou une analyse de l’adoption précoce des normes comptables anglo- saxonnes par certaines entreprises françaises (Touron, 2005). Précisons néanmoins qu’aucune des recherches qui viennent d’être citées n’apporte de base empirique sérieuse à la théorie mimétique 35 .
Un point de départ stimulant L’analyse de Girard insiste sur le rôle du modèle dans les comportements imitatifs et décrit une relation imitative qui n’est ni objectale (sujet – objet), ni exclusivement interindividuelle (sujet à sujet) mais triangulaire, le modèle jouant un rôle de révélateur du désir d’autrui. Girard demeure néanmoins évasif sur les critères de sélection du modèle. On aimerait, par ailleurs, avoir plus d’explications quant aux motivations qui poussent les individus à s’imiter les uns les autres ; l’auteur se contentant, en effet, de souligner le caractère instinctif de l’imitation en insistant sur l’existence de comportements imitatifs chez les jeunes enfants.
Même si les modèles de rationalité sur lesquels elle repose semblent bien éloignés de la conception classique, la question des raisons qui poussent les individus à s’imiter les uns les autres demeure périphérique dans la théorie mimétique. Pour Girard, l’essentiel est ailleurs : le désir mimétique est générateur de violence, la violence est contagieuse, le sacrifice d’un bouc émissaire vient mettre un terme à cette spirale destructrice.
Plusieurs approches théoriques, issues de la sociologie des organisations ou de la psychologie sociale, sont en revanche susceptibles d’éclaircir cette question.
35 L’étude qualitative réalisée par Philippe Touron (2005) est ancrée dans le paradigme néo-institutionnel. La théorie mimétique y est surtout présentée comme un prisme intéressant pour interpréter les résultats de la recherche et comme une piste potentielle pour des travaux ultérieurs.
92 Première partie : Revue de la littérature
2.2. L’ IMITATION ET LA LEGITIMITE
C’est par exemple le cas du courant néo-institutionnaliste qui affirme la prégnance des institutions pour comprendre les faits économiques et sociaux (Huault, 2004a ; Meyer et Rowan, 1977 ; Scott, 1995), marquant ainsi une rupture profonde par rapport aux conceptions néo-classiques fondées sur une représentation individualiste et maximisatrice des comportements humains. Si la perspective néo-institutionnelle insiste sur « l’inscription politique, culturelle, cognitive voire relationnelle des organisations » (Huault, 2004a, p.1), force est de constater qu’elle rassemble des courants très différents qui semblent avoir beaucoup de mal à s’entendre sur une définition du terme « institution ». Les chercheurs s’accordent généralement à décrire « l’institution » comme un produit des représentations et des comportements individuels mais aussi comme un cadre orientant ces représentations et ces actions. L’accent est souvent mis sur la durée de vie extrêmement longue des institutions. Ces considérations générales sont souvent précisées par des classifications permettant de distinguer plusieurs catégories d’institutions.
Cette section ne prendra pas part aux débats propres à ce champ, pas plus qu’elle ne tentera de les synthétiser 36 . Au risque de présenter une vision tronquée de cette tradition de recherche, nous nous focaliserons sur les travaux abordant les thématiques du mimétisme et de l’imitation concurrentielle. En effet, les questions liées au conformisme au sein de populations d’organisations (DiMaggio et Powell, 1983) et les enjeux liés à la légitimité des organisations (Suchman, 1995) constituent des objets d’analyse traditionnels dans le courant sociologique de la théorie néo-institutionnelle.
Au cours des dernières années, sous la pression de plusieurs auteurs (DiMaggio, 1988 ; Oliver, 1991), ce courant a cependant progressivement étendu son champ d’analyse (Acquier et Aggeri, 2006 ; Lounsbury, 2008). Ses développements théoriques actuels tendent à affiner des concepts tel que le bricolage institutionnel (Campbell, 2004) ou l’entrepreneur institutionnel (Hwang et Powell, 2005).
36 On renverra ainsi le lecteur aux états de l’art proposés par Bendrine et Demil (1998) et par Huault (2002).
93 Chapitre 2 : Les deux faces de l’imitation
a) L’isomorphisme et les pressions institutionnelles Selon Scott (1995), les dimensions normatives, coercitives et cognitives de l’environnement constituent les trois piliers de l’analyse néo-institutionnelle : ils exercent une influence sur les organisations. La théorie néo-institutionnelle marque donc un intérêt particulier pour l’influence de l’environnement sur l’organisation (Livian et Baret, 2002). En se conformant à cette influence, les organisations gagnent en légitimité, ce qui peut leur permettre d’accéder à certaines ressources et de voir leur chances de survie augmenter (Meyer et Rowan, 1977 ; Scott, 1987 ; Zucker, 1987). Cet intérêt conféré au conformisme organisationnel constitue le point de départ de la réflexion entamée par DiMaggio et Powell (1983) qui cherchent à savoir pourquoi, dans un champ donné 37 , les organisations deviennent similaires.
Pour caractériser le processus d’homogénéisation des organisations, DiMaggio et Powell (tout comme Hannan et Freeman, 1977) mobilisent le concept d’isomorphisme, « un processus contraignant qui dans une population donnée, force une unité à ressembler aux autres unités faisant face aux mêmes contraintes environnementales »38 . A la différence du phénomène décrit par Hannan et Freeman (qualifié par DiMaggio et Powell d’ isomorphisme concurrentiel ), l’isomorphisme institutionnel n’est pas le fruit d’un processus de sélection naturelle, mais résulte des différentes pressions institutionnelles auxquelles sont confrontées les organisations. Ces pressions institutionnelles peuvent être regroupées en trois grandes catégories : les pressions coercitives, normatives et mimétiques.
Certains relecteurs ont précisé que ces différentes pressions pouvaient interagir et s’auto- renforcer. C’est le cas de Desreumaux (2004) qui souligne que le processus isomorphique est par nature dynamique. Aussi, il est parfois difficile de dissocier, dans la réalité, les différentes pressions isomorphiques (Mizruchi et Fein, 1999).
Les pressions coercitives Les pressions coercitives ont trait à l’environnement légal encadrant les activités de l’organisation. L’idée essentielle est que, face à une législation identique (fiscalité, protection de l’environnement, droit du travail, normes comptables), les organisations d’un même champ auront tendance à adopter les mêmes pratiques, à se doter des mêmes structures, à suivre les
37 Le champ organisationnel est défini comme « un groupe d’organisations constituant une sphère particulière de la sphère institutionnelle. Il rassemble les fournisseurs, les consommateurs, les autorités de régulation et les organisations qui opèrent dans le même domaine d’activité » (DiMaggio et Powell, 1983, p.148). 38 “Isomorphism is a constraining process that forces one unit in a population to resemble other units that face the same set of environmental conditions” (Hawley, 1968 ; cité par DiMaggio et Powell, 1983 : 149).
94 Première partie : Revue de la littérature mêmes stratégies. Les structures organisationnelles et les modes d’action découlent ainsi, dans une large mesure, des règles édictées par des acteurs dotés d’un pouvoir de surveillance et de sanction tels que l’Etat (Tolbert et Zucker, 1983) ou les agences gouvernementales (Meyer et Rowan, 1977 ; Scott, 1995). Ces pressions coercitives peuvent également émaner de parties prenantes contrôlant des ressources dont dépendent les organisations (Mizruchi et Fein, 1999). Le pouvoir de sanction des investisseurs sera ainsi d’autant plus grand que l’accès au capital sera difficile (Aerts et al. , 2006).
Les pressions normatives Les pressions normatives résultent principalement de la professionnalisation du champ d’activité. Le comportement des organisations n’est pas contraint, mais orienté par des normes qui, selon DiMaggio et Powell, permettent de distinguer les pratiques considérées comme « professionnelles » de celles qui ne le sont pas. On retrouve ici l’idée, chère aux conventionnalistes, de règles de comportements auxquelles souscriraient les acteurs en vue de rationaliser leurs actions. Les actions individuelles seraient dictées, non seulement par une logique d’efficacité, mais également par un standard de « professionnalisation » proche du principe de crédit d’opinion en vigueur dans la cité de l’opinion esquissée par Boltanski et Thévenot (1991).
Dans un ouvrage consacré à la presse, Cook (2005) offre une illustration de cette idée. La citation d’experts, l’exposition de points de vue différents, la volonté de s’en tenir aux faits font ainsi partie intégrante de ce qu’il est convenu d’appeler « l’éthique des journalistes ». Ces pressions normatives ne se cantonnent d’ailleurs pas aux grands médias. Comme l’a montré Bird (1992), les personnes officiant dans des tabloïds distribués dans les supermarchés américains se définissent, elles aussi, comme des journalistes et adhèrent aux mêmes rites d’objectivité que les journalistes des médias traditionnels.
Une attention particulière peut alors être portée aux institutions – telles que les associations professionnelles, les instituts de formation, la presse professionnelle, les cabinets de conseil ou les banquiers d’affaire – qui sont susceptibles, à la manière de Johnny Appleseed 39 , de diffuser les « bonnes pratiques » et de normer les comportements au sein du champ
39 La comparaison est empruntée à Haunschild (1994). Johnny Appleseed (de son vrai nom John Chapman, 1774-1845) est un personnage bien connu dans la littérature enfantine anglo-saxonne. Pionnier, missionnaire et écologiste, il a contribué à la diffusion de la culture de la pomme en plantant des pommiers dans de nombreux Etats américains, en apprenant aux personnes qui croisaient son chemin à fabriquer du cidre et en leur vendant des pommiers selon un principe proche du microcrédit.
95 Chapitre 2 : Les deux faces de l’imitation organisationnel. On pourra trouver dans les travaux de Hirsch (1986), Espeland et Hirsch (1990) et Stearns et Allan (1996) un prolongement de ces réflexions. Ces auteurs montrent que les innovations managériales sont souvent, dans un premier temps, adoptées par des dirigeants n’appartenant pas à l’élite managériale et n’ayant pas fréquenté les grandes écoles ou par des organisations marginales dans le champ organisationnel et donc supposées être moins exposées aux pressions normatives.
Les pressions mimétiques Au fil de leur existence, les organisations ont tendance à négliger l’efficacité réelle des pratiques, des structures ou des stratégies qu’elles adoptent (Palmer et al. , 1993), en particulier lorsqu’elles doivent faire face à des situations caractérisées par un fort degré d’incertitude et d’ambiguïté (DiMaggio et Powell, 1983 ; Meyer et Rowan, 1977 ; Powell, 1991). Mues par une quête de reconnaissance, les organisations cherchent alors à adopter les pratiques qui ont déjà rencontré le succès ailleurs et à suivre un modèle, une autre organisation qui, précisent DiMaggio et Powell, peut n’avoir aucune envie d’être copiée.
L’organisation imitée (le modèle) est choisie en fonction de sa forte légitimité. Dans une industrie donnée, il est ainsi fréquent de voir le leader du secteur ou un compétiteur aux performances supérieures à la moyenne jouer le rôle de « leader d’opinion ». Le modèle verra alors sa structure, certaines de ses pratiques, ou sa stratégie, se diffuser au sein du champ organisationnel. Néanmoins, comme le montrent Labianca et Fairbank (2005), au travers d’une étude de cas consacrée à une université américaine, il peut arriver que des organisations n’imitent pas une autre organisation légitime en particulier, mais un groupe d’organisations légitimes (en l’occurrence, celles qui appartiennent au « Top 20 » des « Business Schools » établi par l’hebdomadaire Business Week ).
Les pressions mimétiques – qui émanent des organisations du champ autant qu’elles s’exercent sur elles – peuvent également jouer en l’absence d’incertitude. En effet, lorsqu’une proportion significative d’organisations aura adopté une « innovation », celle-ci sera admise et progressivement adoptée par les autres organisations ce qui contribuera à son institutionnalisation (Burt, 1987 ; Tolbert et Zucker, 1983).
Zucker (1977) et March (1981) soutiennent alors que les pratiques les plus répandues et les plus communément admises au sein du champ organisationnel sont parfois adoptées de façon
96 Première partie : Revue de la littérature quasi inconsciente. A mesure qu’une innovation s’institutionnalise, elle peut acquérir le statut de règle, son adoption n’étant plus simplement du ressort de l’organisation (Meyer et Rowan, 1977).
b) Un concept central : la légitimité Dans l’analyse de DiMaggio et Powell, la légitimité intervient de deux façons distinctes dans le processus mimétique : d’une part dans l’identification des structures, des pratiques et des stratégies à imiter (celles qui ont préalablement été adoptées par une organisation légitime) ; d’autre part dans la quête de légitimité à laquelle se livrent les organisations (Huault, 2002 ; Suchman, 1995). La conformité étant un facteur susceptible d’accroitre la légitimité des organisations (Dacin, 1997 ; Deephouse, 1996), une organisation pourra imiter une pratique, adopter une structure ou une stratégie donnée en vue de se légitimer au sein de son champ organisationnel d’appartenance (Scott, 1987),. La légitimité nouvellement acquise par l’organisation imitatrice pourra lui permettre d’accéder à certaines ressources (des capitaux par exemple) et ainsi contribuer à sa performance à long terme (Allouche et Huault, 2003 ; Dacin , 1997 ; Deephouse, 1996, 1999 ; Meyer et Rowan, 1977 ; Scott, 1987).
Un statut objectif de l’organisation, créé subjectivement par les acteurs Il n’est donc pas surprenant de voir le concept de légitimité faire l’objet d’une attention particulière chez les néo-institutionnalistes. Statut conféré par des acteurs sociaux (Ashforth et Gibbs, 1990 ; Deephouse, 1996 ; Pfeffer et Salancik, 1978), la légitimité d’une organisation s’observe lorsque ses actions et les valeurs qu’elle affiche sont en cohérence avec les attentes des acteurs de son environnement social. A la suite de Suchman (1995), on considérera que la légitimité repose sur « une impression largement partagée que les actions d’une entité sont désirables, convenables et adéquates, par rapport à un système de normes, de valeurs et de croyances sociales »40 . La légitimité est donc associée au statut objectif d’une organisation et créée subjectivement et collectivement par les acteurs sociaux.
Les processus de légitimation : la typologie de Suchman Au-delà de cette définition, Suchman (1995) identifie trois grands processus par lesquels peuvent se créer la légitimité d’une organisation : (1) la légitimité pragmatique, résultant de la satisfaction des demandes et des attentes des parties prenantes ; (2) la légitimité normative, qui est le produit d’une évaluation morale de l’organisation et de ses activités par des tiers ; et
40 “Legitimacy is a generalized perception or assumption that the actions of an entity are desirable, proper or appropriate within some socially constructed system of norms, values, beliefs and definitions” (Suchman, 1995, p.574)
97 Chapitre 2 : Les deux faces de l’imitation
(3) la légitimité cognitive qui sera liée au taken for granted de l’organisation dont l’existence et la position seront considérées comme normales, évidentes, allant de soi (Aldrich et Fiol, 1994 ; Jepperson, 1991 ; Kostova et Zaheer, 1999). C’est à ce dernier processus que DiMaggio et Powell (1983) font référence lorsqu’ils analysent les pressions mimétiques contribuant à l’isomorphisme institutionnel dans un champ organisationnel donné.
Synthèse 7 Points essentiels de la théorie néo-institutionnelle
Auteurs clés : DiMaggio et Powell, Scott / Champ disciplinaire : Sociologie des organisations Niveaux d’analyse : organisation et champ organisationnel
L’ isomorphisme institutionnel est un processus permettant d’expliquer les similitudes entre des organisations appartenant à un même champ. Les organisations se conforment aux pressions intentionnelles . Elles peuvent ainsi bénéficier d’une légitimité accrue, accéder à des ressources, voir leurs chances de survie augmenter. L’isomorphisme institutionnel résulte de trois types de pressions : coercitives, normatives, mimétiques . Les pressions mimétiques exercent leur influence lorsque les situations sont caractérisées par un fort degré d’ incertitude . Les organisations sont alors tentées d’imiter un modèle à forte légitimité afin de se légitimer. Elles peuvent également jouer en l’absence d’incertitude lorsque les organisations imitent, de façon inconsciente, des modèles ou reprennent des pratiques généralement acceptées. Parce qu’elle lui permet d’accéder à certaines ressources, la légitimité d’une organisation peut contribuer à sa performance . L’analyse de DiMaggio et Powell renvoie à la notion de légitimité cognitive ( taken for granted ). Une organisation est légitime lorsque les acteurs considèrent son existence comme normale et allant de soi.
c) Des développements empiriques conséquents De tous les pans de la théorie néo-institutionnelle, les questions liées aux pressions mimétiques et au rôle central de la légitimité sont indiscutablement celles qui ont suscité le plus de développement empiriques 41 . S’ils mobilisent explicitement le cadre conceptuel
41 Une attention jugée disproportionnée par Mizruchi et Fein (1999) qui pointent, en outre, un manque de rigueur dans les mesures utilisées dans les 26 articles qu’ils analysent.
98 Première partie : Revue de la littérature proposé par les néo-institutionnalistes et mettent en exergue la quête de légitimité des organisations, certains de ces travaux font référence à plusieurs approches théoriques. La théorie néo-institutionnelle a ainsi été combinée à la théorie de l’écologie des populations (Fligstein, 1985 ; Lee et Pennings, 2002), à la théorie de l’agence (Brandes et al. , 2006 ; Davis, 1991), à la théorie des ressources, à la théorie des réseaux sociaux (Galaskiewicz et Wasserman, 1989) ou aux théories de la diffusion (Palmer et al. , 1993 ; Webb et Pettigrew, 1999).
La grande diversité de cette littérature est également perceptible dans le choix des terrains et des pratiques étudiés. Les pressions mimétiques et la quête de légitimité des organisation conditionnent les pratiques de recrutement des dirigeants (Williamson et Cable, 2003) ou l’adoption d’un mode de rémunération pour ces derniers (Brandes et al. , 2006 ; Westphal et Zajac, 1994), de pratiques telles que la mise en place de « poison pills » (Davis, 1991), de programmes de qualité totale (Westphal et al. , 1997), la mise en place d’une démarche de certification (Guler, Guillén et Macpherson, 2002), le montant des dons attribués à des organismes non lucratifs (Galaskiewicz et Wasserman, 1989).
Certains de ces résultats viennent, par ailleurs, confirmer les prédictions d’Oliver (1991) qui envisageait la possibilité de voir des décisions stratégiques se diffuser par imitation. L’imitation concurrentielle peut ainsi avoir pour objet la structure organisationnelle (Burns et Wholey, 1993 ; Fligstein, 1985 ; Lee et Pennings, 2002 ; Palmer et al. , 1993), le positionnement stratégique (Greve, 1995, 1996, 1998), les modalités de développement retenues par l’organisation (Stearns et Allan, 1996), ou encore la stratégie internationale de l’entreprise (Guillén, 2002, 2003 ; Henisz et Delios, 2001 ; Webb et Pettigrew, 1999).
L’imitation de pratiques largement répandues Malgré quelques exceptions notoires 42 , la relation entre la fréquence d’une pratique, d’une structure, ou d’une stratégie au sein d’un champ organisationnel et son adoption a été établie par de nombreux travaux. Ces résultats viennent confirmer l’existence d’une « imitation fondée sur la fréquence » (Haunschild et Miner, 1997 ; Williamson et Cable, 2003). Henisz et Delios (2001) montrent que le choix d’un pays d’implantation par une entreprise japonaise et largement conditionné par le nombre d’entreprises s’étant déjà installées dans ce pays.
42 A titre d’exemple, Davis (1991) parvient à des résultats non significatifs lorsqu’il étudie le lien entre la mise en place de poison pills par une organisation et la fréquence de telles pratiques dans son industrie.
99 Chapitre 2 : Les deux faces de l’imitation
Cette relation est particulièrement forte lorsqu’une décision stratégique 43 a préalablement été adoptée par des organisations qui appartiennent au même secteur d’activité que l’organisation imitante (Fligstein, 1985 ; Henisz et Delios, 2001 ; Palmer et al. , 1993).
Des phénomènes d’imitation concernant des décisions stratégiques ont ainsi été mis en lumière chez les radios musicales américaines (Greve, 1995, 1996, 1998), les agents de crédits américains (Haveman, 1993), chez les cabinets d’expertise comptable aux Pays-Bas (Lee et Pennings, 2002).
L’imitation comme moyen de légitimation Prolongeant le travail fondateur de Tolbert et Zucker (1983), à propos de l’adoption de la réforme du service civil par les municipalités américaines, plusieurs recherches mettent en exergue la fonction légitimatrice de l’imitation. Conformément aux propositions néo- institutionnalistes, les organisations adoptent des pratiques, des structures organisationnelles, ou des stratégies largement diffusées afin de se légitimer au sein de leur champ organisationnel d’appartenance. Ces motivations institutionnelles seraient particulièrement saillantes lors des phases finales du processus de diffusion (Burns et Wholey, 1993 ; Westphal et al. , 1997), durant lesquelles l’innovation a acquis une valeur symbolique liée à son statut de taken for granted (Westphal et Zajac, 1994).
Dans une étude consacrée à l’adoption des programmes de qualité totale par les hôpitaux américains, Westphal, Gulati et Shortell (1997) mettent en évidence la relation entre le conformisme des organisations et leur légitimité. Si la démarche des chercheurs, consistant à s’appuyer sur les notes attribuées par le JCAHO 44 aux hôpitaux est contestable, notons ici qu’il s’agit d’une des rares tentatives de mesure directe de la légitimité. Les résultats de l’étude montrent que la mise en place tardive de programmes de qualité totale améliore la notation des hôpitaux alors qu’elle détériore leurs performances.
S’intéressant à la communauté médicale britannique, Broadent, Jacobs et Laughlin (2001) montrent, de leur côté, que la crainte d’une perte de légitimité peut, elle aussi, être à l’origine de comportements imitatifs. Les acteurs de la communauté médicale adopteraient de nouvelles pratiques comptables et financières de crainte de se trouver isolés. Les spécificités
43 Décisions liées au positionnement, à la stratégie corporate (diversification, internationalisation) ou au choix d’une structure organisationnelle. 44 Joint Commission on the Accreditation of Healthcare Organizations.
100 Première partie : Revue de la littérature du cas étudié par les trois auteurs laissent néanmoins planer certaines interrogations quant à la nature, coercitive ou mimétique, des pressions institutionnelles à l’œuvre. Les pratiques qu’ils étudient s’inscrivent, en effet, dans les réformes successives du système de santé introduites par le gouvernement britannique.
Les deux cas étudiés par Touron (2005) permettent de lever cette ambigüité. Le chercheur s’intéresse à l’adoption de normes comptables américaines par deux grandes entreprises françaises (Rhone Poulenc et Saint-Gobain) dans les années soixante-dix. Cette période précède la création l’ International Accounting Standard Committee (IASC). D’autres normes comptables étaient alors préconisées par les autorités de régulation françaises. C’est ici la quête de légitimité, traduite par la volonté des entreprises d’afficher leur dimension internationale, qui est décrite comme le facteur essentiel ayant conditionné l’adoption des normes comptables américaines.
Lorsqu’elle est liée à une quête de légitimité de l’organisation, l’imitation peut néanmoins demeurer superficielle. Whestphal et Zajac (1994) soulignent ainsi le caractère largement cérémoniel de l’adoption de système incitatifs de rémunération à destination des dirigeants par les grandes entreprises américaines.
S’intéressant aux politiques de prévention du harcèlement moral mises en œuvre par les municipalités finlandaises, Salin (2008) aboutit à des conclusions comparables et s’étonne d’une tendance manifeste au « copier/coller » dans les documents officiels : ce sont souvent les mêmes expressions, voire les mêmes paragraphes, qui sont utilisés par les municipalités pour attester de leurs bonnes pratiques. Cette pratique, utilisée par ces collectivités en vue de maintenir leur légitimité, laisse planer un sérieux doute quant à la mise en œuvre effective des politiques de prévention du harcèlement moral.
L’imitation de modèles légitimes Même si les organisations imitées ne sont pas toujours celles qui sont les plus admirées (Labianca et Fairbank, 2005), plusieurs travaux viennent accréditer l’idée d’une sélection des modèles en fonction de leur légitimité.
Dans le cadre d’un travail consacré aux agents de crédits d’assurances britaniques, Webb et Pettigrew (1999) montrent, par le biais d’une méthodologie originale (étude longitudinale
101 Chapitre 2 : Les deux faces de l’imitation combinant données qualitatives et quantitatives), que les stratégies d’internationalisation de Prudential et General Accident (les deux leaders du secteur) sont largement reprises par les concurrents du secteur. Reprenant des extraits d’entretiens réalisés auprès de managers, les deux chercheurs font par ailleurs état d’une forme d’admiration à l’égard de ces deux entreprises. Cette dernière observation est cohérente avec l’idée d’une sélection des modèles sur la base de leur légitimité.
La dimension qualitative de l’étude de Webb et Pettigrew permet d’appréhender la légitimité des modèles comme un statut leur étant conféré par des acteurs extérieurs. Dans leur grande majorité, les travaux qui cherchent à intégrer cette dimension le font cependant de façon indirecte en considérant que les modèles légitimes sont des organisations sélectionnées en fonction de leur taille ou de leurs bonnes performances.
Pour décider de leurs lieux d’implantation, les banques japonaises de la région de Tokyo auraient ainsi eu, au début du siècle, tendance à choisir leurs modèles sur la base de leur taille (Greve, 2000) : « l’isomorphisme peut ainsi se produire lorsque des organisations de petite taille scrutent le comportement d’organisations de taille plus importante en vue d’obtenir des indications quant aux comportements normaux appropriés aux grandes organisations et, en imitant ces dernières, deviennent plus homogènes » (Greve, 2000, p.831) 45 . Ce résultat rejoint ceux obtenus par Haunschild & Miner (1997) et par Williamson et Cable (2003) et qui ont été évoqués plus tôt (imitation fondée sur les caractéristiques du modèle / chapitre 1 / section 4). Partant du principe que l’existence de modèles de grande taille constitue un facteur contribuant à la dynamique isomorphique, certains chercheurs ont, par extension, posé et vérifié l’hypothèse selon laquelle l’influence des pressions mimétiques serait plus forte dans les industries fortement concentrées (Aerts et al. , 2006 ; Westphal et al. , 2001).
La légitimité peut également être attribuée par les acteurs du champ à des organisations en raison de leurs bonnes performances commerciales et financières. Henisz et Delios (2001) démontrent ainsi que dans le cadre de leur stratégie d’internationalisation, les multinationales japonaises ont tendance à choisir les mêmes pays d’implantation que ceux précédemment retenus par des organisations leaders dans leur secteur d’activité. Dans un article intitulé
45 “Mimetic isomorphism can result when initially different small organizations look to large organizations for clues on what behaviors are normal for a large organization and, by imitating those behaviors, be come more homogeneous.”
102 Première partie : Revue de la littérature
« follow the leader », Haveman (1993) souligne, quant à elle, que les agents de crédits américains ont tendance à répliquer les décisions d’entrée sur de nouveaux marchés de leurs concurrents les plus performants. Stearns et Allan (1996) intègrent l’imitation des leaders dans un modèle plus général, expliquant la vague de fusions-acquisitions aux Etats-Unis dans les années quatre-vingt. Initiée par des organisations marginales (en termes de statut), à la suite d’une évolution de l’environnement, la vague est amorcée lorsque les pionniers sont copiés en raison de leurs bonnes performances financières. Les fusions-acquisitions s’institutionnalisent, ce qui a pour conséquence de créer un effet boule de neige (« bandwagon effect ») auquel un nouveau choc environnemental viendra mettre un terme.
Dans le cas de groupes multinationaux, certaines filiales peuvent également jouer le rôle de modèle. Prolongeant les propositions de Kostova et Zaheer (1999), l’existence d’un mimétisme intra-organisationnel a ainsi été vérifiée (Davis, Desai et Francis, 2000 ; Kostova et Roth, 2002 ; Lu, 2002 ; Tixier, 2004). Pour élaborer leurs stratégies d’internationalisation, les filiales les moins expérimentées ont, par exemple, tendance à imiter d’autres unités du même groupe (Lu, 2002), en particuliers lorsque les initiatives mises en place par ces dernières ont été couronnées de succès. Ce constat amène certains auteurs à identifier un phénomène de dualité institutionnelle : les filiales subissent des pressions qui émanent à la fois de leur environnement externe et interne (Davis et al. , 2000 ; Kostova et Roth, 2002 ; Tixier, 2004).
Du lien entre incertitude et imitation Sans reprendre dans le détail les travaux cités dans le chapitre précédent, rappelons, enfin, que plusieurs chercheurs ont cherché à établir un lien entre imitation et incertitude, rejoignant ainsi les propositions de DiMaggio et Powell (1983), mais aussi de Keynes (1934, 1937), des théoriciens de conventions (Gomez 1996, Orléan 2004) et de l’information en cascade (Banerjee 1992, Bickchandani, Hirshleifer et Welch, 1998).
Malgré l’importance de l’argument fondé sur l’incertitude dans les théories consacrées à l’imitation, force est néanmoins de constater le faible nombre de travaux cherchant à établir empiriquement cette relation. Si certaines tentatives sont couronnées de succès (Gygax et Griffiths, 2007 ; Haunschild et Miner, 1997), les résultats sont souvent peu significatifs. Pour ne citer qu’un seul exemple, Haunschild (1994) dans une étude consacrée aux primes
103 Chapitre 2 : Les deux faces de l’imitation d’acquisitions versées par les entreprises américaines, ne parvient pas à mettre en évidence le rôle catalyseur de l’incertitude dans les phénomènes d’imitation.
Le caractère mitigé de ces résultats laisse suggérer une relation complexe entre incertitude et imitation, ne pouvant se traduire par une simple corrélation. Un autre élément d’explication possible réside dans la définition de l’incertitude qui est adoptée. En effet, les travaux empiriques existants assimilent souvent l’incertitude à un état objectif de la nature 46 et ne s’appuient pas sur les travaux existants (Koopmans, 1970 ; Milliken, 1987 ; Williamson, 1994) pour distinguer différents types d’incertitude.
Partant du principe que l’incertitude n’est pas appréhendée de la même façon par toutes les organisations, Henisz et Delios (2001), dans leur étude consacrée aux stratégies d’internationalisation de entreprises multinationales japonaises, font ainsi apparaître une relation positive entre l’inexpérience des entreprise et leur propension à l’imitation. De son côté Greve (1995) parvient à établir que les stations de radio détenues par des grands groupes médias, supposées avoir accès à plus d’informations et donc être moins exposées à l’incertitude, pratiquent moins l’imitation que les autres.
Des limites récurrentes Sans nier la force de conviction de ces travaux empiriques, il est possible de noter certaines limites en regrettant, à la suite de Mizruchi & Fein (1999), que la théorie néo-institutionnelle y soit souvent reprise de façon succincte, réductrice, pour ne pas dire caricaturale. La dimension souvent symbolique et cérémonielle de la citation de l’article séminal de DiMaggio et Powell offre ainsi la parfaite illustration des thèses néo-institutionnalistes (DiMaggio, 1995).
« En l’espace de quelques années, l’article est devenu une sorte de citation rituelle pour appuyer l’idée qu’en fait, les organisations seraient un peu bizarres et que les individus ne seraient jamais rationnels, alors que figurent dans le sous titre de l’article les termes de “rationalité collective” » 47
DiMaggio (1995, p.395)
46 Par exemple, Haunschild (1994) s’appuie sur la variance dans les cours des entreprises faisant l’objet d’une acquisition. 47 “Within a few more years, the paper had turned into a kind of ritual citation, affirming the view that, well, organizations are kind of wacky, and (despite the presence of "collective rationality" in the paper's subtitle) people are never rational.”
104 Première partie : Revue de la littérature
La limite la plus importante des travaux empiriques existants réside dans le caractère indirect des mesures qu’ils proposent : la plupart des travaux n’appréhendent pas directement les phénomènes dont ils sont supposés rendre compte (Mizruchi et Fein, 1999). La seule constatation que les pratiques se diffusent est souvent considérée comme une preuve irréfutable de la quête de légitimité des organisations et de l’institutionnalisation des pratiques (Lee et Pennings, 2002 ; Scott, 1995).
Compte tenu de la diversité des théories consacrées aux phénomènes d’imitation concurrentielle, plusieurs explications pourraient néanmoins s’appliquer aux cas étudiés. Un chercheur constatant que les organisations imitent souvent des modèles connaissant des performances exceptionnelles pour déterminer leur stratégie internationale, pourrait certes voir dans son observation une validation de l’argument néo-institutionnaliste fondé sur la légitimité (la performance conditionne la légitimité d’une organisation, les organisations les plus légitimes sont imitées), mais il pourrait aussi y voir une validation de l’idée, chère aux théoriciens de la diffusion, que le succès de l’organisation imitée constitue un indicateur des bienfaits de la stratégie adoptée.
Adoptant des méthodologies quantitatives, la majorité des travaux empiriques existants ignore, enfin, les micro fondations de la théorie néo-institutionnelle (lesquelles sont longtemps restées implicites).
d) A la recherche de micro fondations A la lecture des travaux néo-institutionnalistes, on pourra, en effet, être frappé par la porosité de la frontière individu/organisation : les individus apparaissant en ombre portée de la quête de légitimité animant les organisations. Au travers de reformulations des théories néo institutionnalistes, certains auteurs semblent d’ailleurs faire preuve d’un anthropomorphisme assumé. Selon Mintzberg et ses collègues (1999, p.299), l’isomorphisme mimétique renvoie à la volonté des organisations de « convaincre tout le monde qu’elles sont aussi à la pointe de ce qui se fait de mieux. » Pour Barthélemy (2002, p.52), il les conduit à « copier les concurrents directs qu’elles admirent le plus ».
Les explications théoriques de la sociologie néo-institutionnelle demeurent cependant désincarnées : la perception des individus y faisant figure de boite noire (Hasselbladh et Kallinikos, 2000). Partant du constat que les individus ont longtemps fait partie de la face
105 Chapitre 2 : Les deux faces de l’imitation cachée de la théorie néo-institutionnelle, Powell et DiMaggio (1991, p.16), esquissent alors un véritable programme de recherche : « Trop peu d’efforts ont été entrepris pour rendre explicites les fondements micro du néo institutionnalisme. […] Certes, la dimension macro du néo institutionnalisme est fondamentale. Il n’en demeure pas moins que toute macrosociologie repose sur une microsociologie, aussi tacite soit elle. En conséquence, pour comprendre pleinement le néo institutionnalisme, il est nécessaire d’éclairer ces postulats. »48
La question des fondements micro du néo-institutionnalisme est particulièrement sensible dès lors qu’est mobilisé le concept de légitimité. Comme le remarque Deephouse (1996), la légitimité peut à la fois se concevoir comme une propriété objective associable à une organisation ou comme un processus au cours duquel les acteurs sociaux interviennent collectivement et subjectivement. L’étude de la légitimité comme processus conduit alors à postuler un mode de rationalité alternatif à la conception classique sur les individus.
2.3. UN CONFORMISME DE GROUPE : LES THEORIES DE L ’IDENTITE SOCIALE
La quête de légitimité des organisations serait-elle le pendant de la quête d’identité animant les individus ? C’est ce que semblent soutenir les chercheurs Vermeulen et Wang (2005) et Massini, Lewin et Greve (2005) qui mobilisent les théories de l’identité sociale pour apporter le complément théorique interindividuel qui manquait à l’analyse néo-institutionnaliste du mimétisme inter-organisationnel.
48 “There as been little effort to make neoinstitutionalism’s microfoundations explicit […]. We agree that the macro side of neoinstitutionalism […] is central. Yet any macrosociology rests on a microsociology, however tacit. It follows from this that to understand neoinstitutionalism, it is necessary to bring these assumptions to light.”
106 Première partie : Revue de la littérature
Schéma 5 Les théories de l’identité sociale comme micro-fondation de l’isomorphisme mimétique
Champ organisationnel (organisations)
Isomorphisme Pressions mimétiques Légitimité cognitive « taken for granted »
Identité sociale « Social self » Auto catégorisation Comparaison sociale « Ingroup / Outgroup »
Comparaison ascendante « Related attribute similarity »
Groupe (individus)
Les théories de l’identité sociale s’intéressent à la relation entre l’identité d’un individu et son appartenance (ou sa non-appartenance) à un groupe ou à une catégorie sociale. Compte tenu de l’importance de cette littérature, il serait impossible d’en proposer ici un panorama exhaustif. En complément des travaux fondateurs de Tajfel et Turner (Tajfel et Turner, 1986 ; Turner, 1985), plusieurs ouvrages de synthèse permettent néanmoins d’en dégager un aperçu global (Abrams et Hogg, 1988 ; Brown, 2000 ; Hogg, 2001, 2003).
a) De l’identité personnelle et de l’identité sociale Les recherches qui mobilisent le concept d’identité sociale ont pour point commun de considérer l’identité d’un individu comme multidimensionnelle. Elles procèdent donc systématiquement à la distinction de l’identité personnelle (« personal self ») qui à trait aux caractéristiques distinctives d’un individu (par comparaison aux autres individus) et de l’identité sociale (« social self » ou « relational self ») qui renvoie son à appartenance à une ou à plusieurs catégorie(s) sociale(s) (Brewer et Gardner , 1996).
107 Chapitre 2 : Les deux faces de l’imitation
Le processus de catégorisation Pour simplifier leur environnement, les individus sont amenés à le segmenter en catégories rassemblant des objets perçus comme étant similaires sur certaines dimensions. Chaque information est alors reliée rapidement à une catégorie préexistante au lieu d’être traitée de façon isolée et unique. Ce phénomène, bien connu des chercheurs en sciences cognitives, est illustré par Hogg (2001) de façon éloquente : sans avoir recours à une quelconque catégorisation, un individu qui rencontrerait une créature dotée de quatre pattes, d’une imposante crinière et de dents menaçantes serait probablement plongé dans l’embarras le plus total. L’utilisation de la catégorie « lion » ne rendra pas la situation moins délicate : elle permettra tout de même à l’individu de lui donner du sens, d’avoir une idée de ce qui risque de lui arriver, de cerner les actions à mettre en œuvre.
Le monde social n’échappe pas au processus de catégorisation. Nous utilisons des critères tels que l’appartenance à une organisation, l’âge ou la nationalité pour constituer des catégories sociales (Tajfel et Turner, 1986). Une catégorie sociale rassemblera alors une collection de caractéristiques typiques censées représenter ses membres (Turner, 1985). Les individus appartenant à la catégorie sociale des « joueurs de football » pourront par exemple être définis par un certain nombre d’éléments relatifs à leur équipement (tenue, ballon), à une dextérité particulière dans la pratique de ce sport, à leur esprit sportif, etc. Ce processus se traduit par une dépersonnalisation de la perception qu’ont les individus du monde social (Turner, Hogg, Oakes, Reicher et Wetherell, 1987) : l’autre n’est plus perçu comme un individu unique mais comme un membre plus ou moins représentatif de sa catégorie sociale. Les caractéristiques prototypiques prennent alors le pas sur les caractéristiques individuelles (Hogg, 2001 ; Hogg et Hains, 1996).
Comme tout processus de catégorisation, la catégorisation sociale permet à l’individu de construire une représentation simplifiée de la réalité. Elle lui permet également de se situer cognitivement dans son environnement social (Ashforth et Mael, 1989). Pour permettre cette simplification du monde réel, les individus auront à opérer une segmentation la plus claire possible qui se traduira par une augmentation des similarités perçues entre les membres d’une même catégorie sociale et par une augmentation des différences perçues entre des catégories sociales différentes.
108 Première partie : Revue de la littérature
Le groupe Le groupe constitue l’objet d’étude privilégié de la psychosociologie. La question de ses frontières a été traitée à de nombreuses reprises et plusieurs démarches ont pu être adoptées : nombre d’individus, nombre d’interactions, caractère direct ou indirect des relations, critères objectifs tels que le territoire occupé par une tribu, les liens de parenté, etc.
En matière d’identité sociale, la solution adoptée est toute autre : le groupe se présente comme un ensemble d’individus se définissant et étant définis par les autres comme des membres d’une même catégorie sociale (Tajfel et Turner, 1986). Parce qu’il n’existe que par les représentations que les individus se font des autres et d’eux-mêmes, le groupe est un construit cognitif. Les représentations des individus pouvant différer, tout en conservant un certain degré de convergence, les frontières du groupe seront par définition poreuses et imprécises.
Schéma 6 Le groupe comme une catégorie sociale
Catégories
Catégories sociales
Groupe
Dans ses Lois de l’imitation , Gabriel Tarde (1890 [2001]) proposait une conception très différente du groupe et y voyait « une collection d’êtres en tant qu’ils sont en train de s’imiter entre eux ou en tant que, sans s’imiter actuellement, ils se ressemblent et que leurs traits communs sont des copies anciennes d’un même modèle. » Sans faire de l’imitation un élément permettant de définir le groupe, les théories de l’identité sociale pointent également l’existence d’un conformisme de groupe trouvant sa source dans les processus par lesquels un individu est amené à définir sa propre identité sociale en relation avec l’appartenance à un groupe particulier (identification sociale).
b) Les processus d’identification sociale L’identification sociale s’opère au travers de deux processus cognitifs distincts : l’autocatégorisation et la comparaison sociale (Abrams et Hogg, 1988).
109 Chapitre 2 : Les deux faces de l’imitation
Le processus d’autocatégorisation Par l’autocatégorisation, les individus sont amenés à se positionner dans leur environnement social, à définir leur groupe d’appartenance, « l’ ingroup » (ou endogroupe) et leur groupe de non appartenance, « l’ outgroup » (ou exogroupe). Cette idée s’inscrit dans le prolongement des travaux de Cooley (1902) qui partait du principe que les individus s’intéressaient à la façon dont ils sont perçus. Le groupe de référence est défini comme la perception par un individu de sa position relative par rapport à d’autres individus (Hyman, 1942). Un groupe pourra alors être plus ou moins attractif, en fonction du désir des individus de le rejoindre et du sentiment d’appartenance éprouvé par ses membres (French et Raven, 1959).
Comme dans le processus de catégorisation sociale décrit plus haut, l’autocatégorisation s’accompagne d’une dépersonnalisation : en nous catégorisant de la même façon que nous catégorisons les autres, nous nous dépersonnalisons (Turner, 1999 ; Turner et al. , 1987) et définissons notre propre identité (« self concept ») par rapport aux caractéristiques les plus saillantes de notre groupe d’appartenance (Brewer, 1991). Par exemple, un individu s’identifiant au groupe des parents sera amené à associer à sa propre identité les caractéristiques les plus évidentes permettant de définir ce qu’est un « parent » telles que conduire un monospace, connaître les paroles de la comptine « Une souris verte », etc. (Elsbach, 1999).
Plusieurs expériences menées auprès d’étudiants américains (Aron, Aron, Tudor et Nelson, 1991 ; Powell, Koput et Smith-Doerr, 1996) ont confirmé l’existence de tels mécanismes (identification à un groupe, association des caractéristiques prototypiques à sa propre identité).
Le processus de comparaison sociale Par le processus de comparaison sociale, les individus sont amenés à se comparer à d’autres (Festinger, 1954). Il s’agit pour chaque individu d’élaborer une image de soi ( « self esteem ») positive en se comparant à autrui (Tajfel et Turner, 1986 ; Turner et al. , 1987), en percevant son groupe social d’appartenance comme différent et meilleur que les autres. Le rôle joué par l’endogroupe (groupe social d’appartenance) est alors double (Brewer et Gardner , 1996). D’une part, il apporte aux individus une base leur permettant de s’évaluer et d’évaluer les autres. D’autre part, il permet de définir leur identité sociale en cohérence à l’endogroupe et par opposition à l’exogroupe. L’utilisation du « nous » (« nous les français », « nous les
110 Première partie : Revue de la littérature femmes », « nous les chercheurs en Sciences de Gestion ») marque la frontière entre « ingroup » et « outgroup ».
Des comportements discriminatoires à l’égard des individus extérieurs au groupe social et de favoritisme à l’égard des membres appartenant au groupe, pourront alors constituer des moyens d’asseoir une identité sociale positive (Abrams et Hogg, 1988 ; Stangor et Thompson, 2002 ; Wills, 1981).
c) Un conformisme de groupe La catégorisation du monde social a une influence sur la perception qu’ont les individus des autres et d’eux-mêmes. Les membres d’une même catégorie se perçoivent comme relativement similaires, et distincts des autres catégories sociales.
Au-delà des perceptions Les processus de catégorisation et d’autocatégorisation sont également supposés orienter les comportements des membres du groupe. Les caractéristiques prototypiques influeraient sur les attitudes, les émotions et les comportements des individus. L’influence de ce conformisme intra-groupe est supposée aller croissante avec le degré d’identification des individus à leur groupe (Doosje, Ellemers et Spears, 1999).
Plusieurs auteurs (Suddaby et Greenwood, 2001 ; Wheeler et Zuckerman, 1977) soulignent, en outre, que les individus se comparent à des modèles avec lesquels ils partagent déjà certaines caractéristiques dans un domaine donné ( « related attribute similarity »). Un nageur aura d’autant plus tendance à se comparer à d’autres nageurs lorsque ces derniers atteindront des résultats sportifs comparables aux siens et qu’ils auront à peu près le même âge que lui (Zanna, Goethals et Hill, 1975).
En matière de stratégie d’entreprise, l’argument proposé par les approches fondées sur la comparaison sociale est complété par l’idée que les stratégies développées par des entreprises appartenant à la même industrie, faisant face aux mêmes contraintes environnementales, ayant une taille comparable et mobilisant les mêmes ressources sont susceptibles d’êtres plus facilement transférables (Westphal et al. , 2001).
Il a ainsi été démontré que les managers des laboratoires pharmaceutiques chinois calquaient leurs décisions de diversification sur les stratégies adoptées par des entreprises de taille
111 Chapitre 2 : Les deux faces de l’imitation comparable à la leur (Vermeulen et Wang, 2005). Cette idée, selon laquelle le partage de certaines caractéristiques (en l’occurrence la taille) faciliterait l’imitation rejoint les prédictions de Scott (1992, p.258). Nous retrouvons également les conclusions avancées par Fligstein (1991) à l’issue d’une étude des stratégies de diversification des entreprises américaines, par Haunschild et Beckman (1998) à propos des politiques d’acquisition, par Kraatz (1995, 1998) à propos du contenu des formations proposées par les écoles américaines et par Lant et Baum (1995) à propos des pratiques de gestion des hôtels de la région de Manhattan.
La théorie de la distinction optimale La quête de conformisme des individus par rapport à leurs alter ego , membres de l’ingroup, est à mettre en perspective avec leur volonté de se différencier par rapport aux individus qui ne font pas partie de leur groupe social (Brewer, 1991, 1993) : la volonté d’être conforme et la volonté d’être différent constitueraient donc les deux faces de Janus d’une même quête d’identité sociale chez les individus (théorie de la distinction optimale). Ces deux dynamiques auraient pour conséquence d’accroitre les similarités à l’intérieur d’un même groupe et d’accroitre les différences entre des groupes sociaux distincts (Jetten, Spears et Manstead, 1999).
Schéma 7 Conformisme intra-groupe et différenciation inter-groupe
Des résultats empiriques mitigés De nombreux travaux ont cherché à mettre en évidence l’existence d’un conformisme intra- groupe (voir Cialdini et Goldstein, 2004 pour une synthèse de ces résultats) susceptible de concerner émotions, attitudes, opinions ou encore comportements. Abrams et ses collègues (Abrams, Wetherell, Cochrane, Hogg et Turner, 1990) ont par exemple répliqué l’expérience « de la petite lumière » imaginée par Sherif (1935) en prenant soin de constituer des groupes sociaux distincts chez les sujets. Les résultats sont conformes aux prédictions théoriques mentionnées plus haut : les opinions des sujets ont d’autant plus tendance à s’éloigner de
112 Première partie : Revue de la littérature celles des autres dès lors qu’ils perçoivent ces derniers comme extérieurs à leur propre groupe social.
Comme en témoignent les résultats obtenus par Terry et Hogg (1996), la relation entre le comportant d’un individu et son degré d’identification d’un individu à un groupe social semble cependant plus difficile à établir. Lors d’expériences menées dans une université australienne auprès d’étudiants, les deux auteurs ont cherché à montrer que les normes comportementales du groupe avaient une influence sur le comportement des individus. Les expériences se focalisaient sur deux types de comportements : la pratique d’une activité sportive et l’utilisation d’une crème solaire. Si l’influence du groupe semble réelle sur les intentions de comportement des individus (intention de pratiquer une activité sportive ou d’utiliser une crème solaire), elle demeure néanmoins difficile à prouver dès lors que l’on s’intéresse au comportement réel de ces derniers (pratique effective d’une activité sportive, utilisation réelle d’une crème solaire). Si le contact régulier avec des amis sportifs a pu donner envie aux sujets qui ont participé l’expérience de faire du sport, ces derniers n’ont pas semblé enclins à les imiter effectivement.
On peut se demander si les résultats auraient été différents si l’expérience avait porté sur d’autres types de comportements (consommation de drogue, ou d’alcool par exemple). En outre, la difficulté à faire le lien entre appartenance à un groupe et comportement tient probablement à la nature pluridimensionnelle et changeante de l’identité sociale (Turner, 1999) : un même individu peut s’identifier, en fonction du contexte, à différents groupes sociaux (parfois simultanément).
Un statut social Comme précédemment mentionné, le processus de comparaison social permet aux individus de s’évaluer et d’améliorer leur estime-de-soi. Se pose alors la question du choix du modèle pour établir cette comparaison. Selon Festinger (1954), les individus auraient tendance à adopter un principe de « comparaison sociale ascendante » ( « upward comparison ») visant à se comparer à meilleur que soi.
113 Chapitre 2 : Les deux faces de l’imitation
Cette idée a été vérifiée empiriquement au travers d’expériences menées auprès de groupes d’étudiants (Wheeler, 1966) 49 et de joueurs de bridge (Nosanchuk et Erickson, 1985) 50 . Elle pourra venir appuyer la thèse tardienne selon laquelle les innovations se diffuseraient des « classes supérieures » vers les « classes inférieures » (Tarde, 1890 [2001]). Dans un ouvrage provocateur et caustique, le sociologue Thorstein Veblen (1899 [2007]) décrivait également des phénomènes de ce type. Cherchant à améliorer leur statut social, les consommateurs auraient tendance à s’identifier aux classes les plus privilégiées et à imiter leurs habitudes de consommation, quitte à supporter des coûts plus élevés (émulation pécuniaire).
Ces derniers, membres d’une classe de loisirs feraient quant à eux l’acquisition de biens hors de prix afin de se distinguer des classes défavorisées. Le prix prohibitif étant de nature à décourager les consommateurs les moins fortunés, il constituerait la garantie pour les membres des classes favorisées de voir leur statut social se maintenir 51 . On parle alors de consommation ostentatoire.
« Dans toute bonne société industrielle, l’assise la plus fondamentale du bon renom, c’est la puissance pécuniaire ; le moyen de briller en ce domaine, et par là de se faire ou de garder une réputation, c’est d’avoir du loisir et de consommer pour la montre. »
Thorstein Veblen (1899 [2007], p.57)
49 De faux résultats à un test écrit sont remis aux étudiants. Les étudiants sont placés dans des petits groupes et obtiennent systématiquement la note médiane et un classement de 4/7. Le chercheur demande alors à chaque étudiant de quelle autre personne il aimerait connaître la note. La plupart des étudiants demandent à connaître la note obtenue par la personne étant classée juste avant eux. 50 Des joueurs de bridge peuvent s’entretenir avec d’autres joueurs à propos du jeu et de ses stratégies. La plupart des joueurs demandent à obtenir des conseils émanant de joueurs plus expérimentés et bien meilleurs qu’eux- mêmes. 51 La relation positive (à qualité équivalente) entre la consommation d’un produit et son prix, qualifiée « d’effet Veblen », a suscité de très nombreuses recherches en marketing (Bagwell et Bernheim, 1996 ; Braun et Wicklund, 1989) dont la présentation déborderait largement du cadre de la recherche.
114 Première partie : Revue de la littérature
Synthèse 8 Points essentiels des théories de l’identité sociale
Auteurs clés : Festinger ; Tajfel, Turner, Hogg / Champ disciplinaire : Psychologie sociale Niveaux d’analyse : individu et groupes d’individus
Les individus sont mus par une quête d’ identité sociale positive qui les amène à se positionner dans leur environnement social. Par un processus d’ auto catégorisation , ils associent à leur propre identité des traits qu’ils perçoivent comme étant caractéristiques de leur groupe social d’appartenance (ingroup). Par un processus de comparaison sociale , ils se comparent à d’autres individus afin de construire une identité sociale positive. Ils perçoivent les caractéristiques de l’ingroup comme très différentes de celles des autres groupes. Ces processus sont supposés engendrer un conformisme intra groupe . Les membres d’un même groupe social s’imiteraient les uns les autres et adopteraient les mêmes opinions, attitudes et comportements. La volonté de se distinguer des autres groupes sociaux (comparaison sociale) aurait pour conséquence l’ accroissement des différences entre les groupes sociaux (théorie de la distinction optimale). Le processus de comparaison sociale ascendante permet d’envisager la possibilité d’une imitation des groupes de statut social élevé par les groupes de faible statut social. Cette idée est cohérente avec les phénomènes décrits par Veblen et Tarde.
2.4. LES GROUPES STRATEGIQUES COGNITIFS : IDENTITE ET STRATEGIE
En stratégie, des développements empiriques conséquents viennent accréditer l’idée d’une convergence stratégique des entreprises perçues par leurs dirigeants comme identiques. Rompant avec une tradition « objective » issue de l’Economie Industrielle qui tendait à appréhender les groupes stratégiques comme des groupes d’organisations poursuivant la même stratégie et faisant face aux mêmes conditions environnementales (Hunt, 1972 ; Porter, 1979), la littérature consacrée aux « groupes stratégiques cognitifs » voit en l’environnement concurrentiel « une représentation mentale composée principalement de catégories de concurrents perçus comme similaires » (Dornier, 2004, p.40).
115 Chapitre 2 : Les deux faces de l’imitation
a) Les groupes stratégiques cognitifs Devant faire face à l’incertitude et étant dotés de capacités cognitives limitées, les dirigeants des entreprises catégoriseraient ainsi leur environnement concurrentiel par un mécanisme similaire à celui décrit précédemment (Dutton et Jackson, 1987). Cette opération de catégorisation, étudiée empiriquement par Reger et Huff (1993), permettrait notamment aux dirigeants de produire une image simplifiée de l’environnement de leur organisation afin de le rendre intelligible. Produits de ce processus de catégorisation (Peteraf et Shanley, 1997), les groupes stratégiques perçus par le dirigeant ne sont pas forcément composés de firmes en concurrence directe les unes avec les autres (Labianca et Fairbank, 2005) et peuvent n’être que partiellement liés à la réalité matérielle de la concurrence (Lant et Baum, 1995 ; Porac et Thomas, 1990). Cette dernière remarque est importante étant donné que la façon dont les dirigeants se représentent leur environnement a une influence tant sur leurs décisions stratégiques (Porac et Thomas, 1990 ; Porac et al. , 1989) que sur la structure de l’industrie (Johnson et Hoopes, 2003 ; Porac, Thomas, Wilson, Paton et Kanfer, 1995).
Même si la référence aux théories de l’identité sociale est, pour les auteurs à l’origine du courant des « groupes stratégiques cognitifs », loin d’être systématique, ces deux champs apparaissent comme grandement complémentaires. Alors que certaines questions sont propres au courant des « groupes stratégiques cognitifs » (concordance ou diversité des représentations concurrentielles, lien avec la performance), de nombreux centres d’intérêts sont partagés avec les théoriciens de l’identité sociale. Il en est ainsi de la relation entre l’appartenance à un groupe et les comportements (ici étudiés sous l’angle des décisions stratégiques). De la même façon que les individus se catégorisent dans un groupe social donné, les dirigeants définissent leur groupe stratégique cognitif d’appartenance en comparant les traits les plus saillants de leur organisation aux caractéristiques prototypiques du groupe (Porac et al. , 1989). Les autres membres du groupe peuvent alors être perçus comme des concurrents directs (Porac et Thomas, 1990 ; Porac et al. , 1989) 52 .
52 Cette idée est amendée par Johnson et Hoopes (2003) qui expliquent que des stratégies de coopération peuvent exister à l’intérieur du groupe, en particulier lorsqu’il existe des effets de réseau.
116 Première partie : Revue de la littérature
b) Une identité de groupe En intégrant l’idée que les organisations, tout comme les individus, ont une identité (Albert et Whetten, 1985 ; Dutton et Dukerich, 1991 ; Dutton, Dukerich et Harquail, 1994 ; Fiol et Huff, 1992) 53 , Peteraf et Shanley (1997) développent le concept d’identité du groupe stratégique : un système de compréhension réciproque, et de croyances communes (Porac et al. , 1989), entre les membres d’un même groupe stratégique cognitif, au regard de ses caractéristiques prototypiques 54 . En présence d’organisations à statut élevé, lorsque les organisations sont localisées au même endroit, ou lorsque les liens sociaux sont denses entre ces dernières, elles peuvent s’identifier à leur groupe cognitif d’appartenance.
Peteraf et Shanley expliquent que ces dernières ont alors tendance à imiter les attitudes et les orientations les plus saillantes dans leur groupe cognitif ce qui contribuera à la convergence stratégique. Les dirigeants copient la stratégie des organisations appartenant au même groupe que la leur, en particulier lorsqu’ils ne considèrent pas ces dernières comme des concurrents directs (Johnson et Hoopes, 2003).
c) Le groupe stratégique, un espace de comparaison sociale Le groupe stratégique d’appartenance est un groupe de référence. Par un processus proche de la comparaison sociale, les dirigeants ont ainsi tendance à faire preuve d’une certaine myopie stratégique en se comparant, non pas avec toutes les entreprises du secteur, mais seulement avec celles qui sont situées dans leur propre groupe stratégique (Fiegenbaum et Thomas, 1995 ; Mbengue, 1992 ; Porac et al. , 1989 ; Vermeulen et Wang, 2005).
Incarné par des organisations prototypiques considérées par les dirigeants comme particulièrement représentatives (Mbengue, 1992 ; Porac et al. , 1989), le groupe constituerait un espace cognitif propice à l’imitation. Les résultats proposés par Dornier (2004), qui montrent notamment que les voyagistes français considèrent que l’imitation est une pratique plus répandue à l’intérieur de leur propre groupe stratégique cognitif que dans le secteur pris dans son ensemble, permettent d’accréditer cette idée.
53 Une réponse utilisée par ses membres à la question : « quelle genre d’organisation sommes-nous ? » (Albert et Whetten, 1985), un ensemble de caractéristiques distinctives, stables et centrales permettant de définir l’organisation. 54 On remarquera que cette conception implique que les représentations concurrentielles des dirigeants convergent, au moins dans une certaine mesure.
117 Chapitre 2 : Les deux faces de l’imitation
Dans le même état d’esprit, Paniagiotou (2007) met en exergue la fréquence des pratiques de « benchmarking », consistant à se comparer à des organisations de son propre groupe et à les imiter. Les réponses stratégiques adoptées par les membres d’un même groupe à un choc de l’environnement identique ont, par ailleurs, tendance à converger. Le même constat est réalisé Barreto et Baden-Fuller (2006) qui montrent que les banques portugaises ont tendance à imiter les organisations appartenant à leur groupe de référence.
Pour certains auteurs néanmoins, le lien entre groupe de référence et propension à l’imitation est plus subtil. Les innovateurs et les imitateurs auraient des groupes de référence différents : les innovateurs auraient tendance à se comparer à d’autres entreprises innovantes du secteur alors que les imitateurs se compareraient à des entreprises moyennes (Massini et al. , 2005). DeSarbo et Grewal (2008) viennent également nuancer ces conclusions en reconnaissant, à la suite de Reger et Huff (1993) et de McNamara et ses collègues (2003), que certaines entreprises peuvent être associées de façon plus forte que d’autres aux caractéristiques typiques du groupe (« core firms »). Les « secondary firms », qui occupent une position plus périphérique, serait ainsi au contact d’autres groupes stratégiques cognitifs et soumis à des influences multiples. L’intersection de ces différents groupes est appréhendée au travers du concept de « groupe stratégique hybride ».
Synthèse 9 Points essentiels de l’approche par les Groupes Stratégiques Cognitifs
Auteurs clés : Reger & Huff, Porac et Thomas / Champ disciplinaire : Stratégie Niveaux d’analyse : organisations, groupes d’organisation, industrie
Les décideurs catégorisent leur environnement stratégique en groupes stratégiques pour le rendre intelligible. Les groupes stratégiques cognitifs rassemblent des concurrents perçus comme similaires . Les entreprises qui appartiennent au même groupe stratégique cognitif peuvent se considérer comme des concurrents directs . Les entreprises d’un même groupe stratégique cognitif peuvent développer une identité de groupe à l’origine d’une convergence stratégique . Elles vont alors imiter les caractéristiques prototypiques de leur groupe et prendre ce dernier comme référence . Ce processus proche de la comparaison sociale explique l’existence de pratiques de « benchmarking » intra-groupe.
118 Première partie : Revue de la littérature
La section qui se termine est consacrée à des courants théoriques qui s’éloigne de la conception instrumentale de la rationalité humaine et ont une approche évaluative de l’imitation. Ces théories ont été regroupées en quatre grandes approches qui ont fait l’objet d’encadrés de synthèse : (1) théorie mimétique, (2) sociologie néo-institutionnelle, (3) théories de l’identité sociale et (4) théorie des groupes stratégiques cognitifs.
Comme le montre le tableau qui va suivre, ces théories n’adoptent pas le même niveau d’analyse. La théorie mimétique et les théories de l’identité sociale situent leurs analysent au niveau des individus et des groupes d’individus alors que la sociologie néo-institutionnelle et la théorie des groupes stratégiques cognitifs se placent davantage sur un niveau organisationnel et populationnel.
En faisant état de différentes raisons à l’origine des phénomènes d’imitation, ces approches théoriques ont une dimension individuelle qui les rend compatible avec la perspective qui anime notre recherche. Les raisons individuelles qu’elles mettent en avant nous permettront d’étudier les pratiques d’imitation concurrentielle des programmateurs des radios musicales françaises.
119
Tableau 4 Approches instrumentales de l’imitation : une synthèse
Théorie mimétique Sociologie néo institutionnelle Théories de l’identité sociale Groupes stratégiques cognitifs
L’adoption par autrui éveille un désir Les raisons individuelles restent implicites dans L’imitation permet aux individus de Reprise des enseignements tirés des théories Principaux chez l’imitateur (théorie du modèle les travaux fondateurs de ce courant théorique. correspondre aux caractéristiques de l’identité sociale. enseignements au obstacle). typiques de leur groupe social niveau individuel Certaines interprétations estiment que les d’appartenance. (raisons) Ce désir n’existe que parce que l’objet est stratèges imitent des organisations qu’ils également désiré par autrui. Lorsque leurs admirent afin de convaincre les autres Elle découle donc d’un processus de désirs se télescopent, les individus entrent professionnels qu’ils sont à la point de ce qui se d’autocatégorisation et de comparaison en compétition. fait de mieux. sociale.
L’imitation est la traduction de la volonté Elle a pour conséquence la constitution d’appropriation des objets désirés par d’une identité sociale positive chez les autrui. individus.
Principaux Aucun Les organisations imitent des modèles qu’elles Aucun Les organisations imitent les organisations considèrent légitimes. enseignements au qu’elles associent à leur groupe stratégique (En revanche, la théorie livre des (En revanche, la théorie livre des d’appartenance. niveau enseignements au niveau du groupe Les pressions mimétiques sont plus forte en enseignements au niveau des groupes organisationnel d’individus et de la société prise dans son situation d’incertitude. d’individus). De la même manière qu’il existe une identité ensemble). sociale chez les individus, il existe une L’imitation peut permettre à l’organisation de identité sociale chez les organisations d’un gagner en légitimité. Cette même groupe stratégique. légitimité nouvellement acquise peut avoir des retombées en termes de performance organisationnelle (accès à certaines ressources).
Principaux Aucun L’imitation est à l’origine d’une standardisation Aucun Focalisation des groupes stratégiques. Les au sein du champ organisationnel. caractéristiques typiques ont tendance à enseignements au s’accentuer avec le temps. niveau populationnel Cette standardisation prend la forme d’un processus isomorphique.
Première partie : Revue de la littérature
3. RAISONS ET PRATIQUES D’IMITATION CONCURRENTIELLE
Ce chapitre nous a permis de dresser un panorama assez large des théories qui se sont intéressé à la thématique de l’imitation. Notre objectif était ici de comparer ces approches en faisant ressortir les raisons individuelles qu’elles plaçaient au cœur des phénomènes d’imitation. Même lorsque ces théories ne traitent pas du sujet particulier de l’imitation concurrentielle et adoptent une perspective plus globale, elles nous livrent des enseignements qui peuvent être mobilisés dans le cadre de notre recherche.
Cet exercice de revue de la littérature a pour finalité de nous permettre, sur la base des raisons individuelles mises en évidence, d’identifier des pratiques d’imitation concurrentielle chez les programmateurs des radios musicales et d’analyser de quelle façon elles contribuent à la fabrication de la stratégie des radios musicales (nous retrouvons ici l’orientation « stratégie as practice de notre recherche »).
Deux grandes approches ont pu être identifiées dans la littérature en fonction des modèles de rationalité dans lesquels s’inscrivent les théories recensées : aux approches instrumentales de l’imitation, nous avons opposé les approches évaluatives. Nous conserverons cette dichotomie lorsque nous chercherons à articuler le cadre d’analyse de la recherche et que nous présenterons nos résultats.
Le chapitre qui va suivre prolongera notre revue de littérature. Au-delà des raisons individuelles au cœur des phénomènes d’imitation, il s’intéressera à un concept récurrent dans la littérature : l’incertitude. Comme nous avons pu le constater lorsque nous avons présenté les théories néo-institutionnelles, l’incertitude a pu être décrite comme la principale variable à l’origine de l’imitation. Nous allons voir que cette idée n’est pas propre à la sociologie néo- institutionnelle et qu’elle est présente dans de nombreux courants de recherche.
En dépit de cet intérêt commun pour l’incertitude, ces courants ne conçoivent pas de la même manière les situations qu’ils décrivent. En conséquence, les comportements d’imitations auxquels ils s’intéressent et les raisons individuelles qu’ils décrivent ne sont pas les mêmes.
121 Chapitre 2 : Les deux faces de l’imitation
RESUME DU CHAPITRE 2
Le premier chapitre de la thèse se concluait à la fois sur un paradoxe (malgré les préconisations souvent émises par les chercheurs en stratégie, les organisations s’imitent) et sur l’ouverture d’une perspective : cerner les rationalités qui sous-tendent les pratiques d’imitation permettrait, à la fois de mieux comprendre les phénomènes d’imitation concurrentielle, mais aussi d’éclairer leur contribution à la stratégie des organisations. Tel est l’objet du chapitre 2 qui, au travers de la distinction « approches instrumentales » versus « approches évaluatives » de l’imitation se propose d’opérer une première classification des raisons misent en avant dans la littérature existante pour expliquer les comportements imitatifs des organisations et/ou des individus. Défenseurs d’une conception instrumentale de l’imitation, les travaux recensés en section 1 ont pour point commun de proposer des théories de l’imitation sur les conséquences prévues ou attendues par les décideurs. Stratégie défensive permettant d’anéantir l’avantage concurrentiel des concurrents, l’imitation pourrait aussi, dans certains cas, contribuer à la performance des organisations imitatrices. Cet « avantage des entrants tardifs » pourrait ainsi trouver sa source dans une diminution des coûts de Recherche et Développement permise par l’imitation, dans la capacité des imitateurs à bénéficier des dernières avancées technologiques, ou dans des mécanismes liés au comportement des consommateurs. Ces arguments sont complétés par les avancées des recherches s’inscrivant dans le courant de « l’apprentissage vicariant », qui associent imitation et apprentissage organisationnel, et par certaines recherches qui considèrent que l’imitation, en permettant à l’organisation de se légitimer au sein de son environnement, constituerait un moyen d’accéder à certaines ressources et d’améliorer les chances de survie de l’organisation. Au-delà de ces conséquences attendues, qui concernent l’organisation, des facteurs plus individuels, liés à la volonté des stratèges de maximiser leur réputation personnelle, peuvent également permettre d’expliquer pourquoi les stratégies d’imitation sont si fréquentes. En insistant sur la dimension évaluative des rationalités qui sous-tendent l’imitation, les recherches qui font l’objet de la section 2 marquent un tournant radical par rapport aux approches qui ont ouvert ce chapitre. Les émotions, le désir, la quête de légitimité et d'identité sont ainsi à l'origine de comportements imitatifs pouvant, en Sciences de Gestion, expliquer l'existence de stratégies d'imitation concurrentielle. Inné chez l'être humain, le désir mimétique pousserait les individus à s’approprier des objets possédés par autrui. Dans cette relation triangulaire (objet - sujet - modèle), l'autre peut se poser comme un obstacle à l'accomplissement du désir individuel. Il y a rivalité mimétique : il s’agit de nier l’existence de l’autre en devenant son double monstrueux. L’imitation concurrentielle peut également trouver son origine dans la quête de légitimité à laquelle se livrent les organisations. Confrontées à des situations caractérisées par un fort degré d’incertitude, les organisations imitent souvent des modèles à forte légitimité (comme par exemple les leaders de leur secteur d’activité). Elles peuvent également imiter les pratiques les plus largement répandues dès lors que celles-ci seront « taken for granted » c'est-à-dire perçues dans l’industrie comme normales, allant de soi.
122 Première partie : Revue de la littérature
RESUME DU CHAPITRE 2 (SUITE)
Pour certains auteurs, la quête de légitimité animant les organisations est à mettre en parallèle à la quête d’identité sociale des individus. Les théories de l’identité sociales mettent ainsi en exergue des comportements imitatifs à l’intérieur des groupes sociaux. Après avoir défini leur groupe d’appartenance par un mécanisme d’auto catégorisation, les individus ont en effet tendance à répliquer les caractéristiques les plus saillantes chez les autres membres de leur groupe. En outre, ces derniers se comparent plus facilement avec les autres membres, ce qui peut, encore une fois, expliquer les comportements imitatifs intra-groupe. L’imitation est alors un moyen de renforcer son identité sociale et de se différencier des autres groupes sociaux. Malgré des résultats empiriques mitigés, les théories de l’identité sociale peuvent trouver un terrain d’application en Sciences de Gestion au travers du concept de « groupe stratégique cognitif ». Les dirigeants catégorisant leur environnement concurrentiel en vue de le rendre intelligible ont tendance à regrouper les concurrents qu’ils perçoivent comme étant similaires dans des « groupe stratégiques ». Par opposition aux approches fondées sur des caractéristiques objectives, on parlera de « groupes stratégiques cognitifs ». Les entreprises appartenant à un même groupe stratégique, qui se perçoivent souvent comme des concurrents directs, peuvent alors développer une identité de groupe à l’origine d’une convergence stratégique. Comme le groupe social, le groupe stratégique est en effet un espace de comparaison sociale où se développent des pratiques d’imitation concurrentielle comme le « benchmarking ». Avant d’articuler ces théories au sein du cadre analytique intégrateur qui sera présenté lors de la synthèse de la première partie de la thèse, il est nécessaire de s’intéresser à un facteur de contexte fréquemment décrit comme étant à l’origine des comportements d’imitation. Le chapitre 3 sera ainsi consacré aux liens entre imitation et incertitude.
123
Chapitre 3 L’imitation comme produit de l’incertitude
« Conscients du peu de valeur de notre jugement individuel, nous veillons à l’aligner sur le jugement de tous les autres, sans doute mieux informés. »
John Maynard Keynes, « Théorie générale de l’emploi », 1937.
ans les approches présentées dans le précédent chapitre, l’imitation est appréhendée D comme le produit de raisons individuelles. Une donnée essentielle n’a pas encore été analysée : le contexte. Tel sera l’objectif de ce chapitre. A l’instar d’Herbert Simon, père de la rationalité limitée, nombreux sont les auteurs qui refusent d’envisager les décisions individuelles en ignorant le contexte environnant. Chez Simon, c’est autant le caractère limité des capacités du cerveau humain que le caractère incertain de l’environnement qui justifient le rejet du modèle de rationalité véhiculé par l’économie néo-classique. Une façon d’affirmer, avec Paul Valery, que dans un monde changeant, peuplé d’acteurs mal connus et peu prévisibles, les décideurs sont contraints de « tenter de vivre »55 .
Ce chapitre sera consacré aux approches théoriques qui ont placé l’incertitude au cœur des comportements imitatifs. L’idée selon laquelle l’imitation constituerait ainsi un moyen de surmonter des situations caractérisées par un fort degré d’incertitude (Cyert et March, 1963 ; March, 1981 ; March et Olsen, 1989) est une thèse largement reprise dont on pourra trouver, dans les expériences pionnières menées par Sherif et Asch, un creuset commun auquel sera consacrée la section ouvrant ce chapitre.
55 C’est à Romelaer et Lambert (2001) que nous devons cette référence et son utilisation dans une réflexion consacrée à l’incertitude.
124 Première partie : Revue de la littérature
Les sections suivantes seront consacrées aux théories qui en découlent, qu’il s’agisse des travaux consacrés aux phénomènes d’information en cascade (section 2) ou de ceux issus de la théorie des conventions (section 3). Cet intérêt porté à l’incertitude ne nous amènera cependant pas à renoncer à la dichotomie « approches instrumentales » versus « approches évaluatives » qui nous a jusqu’ici servi de fil conducteur. Les travaux consacrés à l’information en cascade restent ainsi ancrés dans une conception performative et instrumentale. A l’opposé, la théorie des conventions s’appuie sur une conception de la rationalité fondée sur ce qui semble approprié (March et Olsen, 1989).
Ces éléments théoriques viendront alimenter le cadre d’analyse qui sera présenté à l’issue de la première partie de la thèse. Ce cadre analytique aura plusieurs objectifs : (1) il permettra de préciser et de justifier les questions de recherche de ce travail, (2) il nous orientera dans la définition des grandes catégories de l’analyse des données, (3) il guidera la restitution de nos résultats.
1. UN CREUSET COMMUN
Au commencement, il y a l’incertitude, sorte de brouillard empêchant l’exercice de la rationalité substantive par les individus. Ceux-ci doivent alors s’en remettre à d’autres mécanismes pour engager leurs actions. Pour les managers il pourra s’agir de réaliser en interne de certaines tâches (Williamson, 1994), de réduire les coûts de recherche (Cyert et March, 1963 ; Levitt et March, 1988), de répliquer des décisions passées (Podolny, 1994), de s’en remettre à des routines (March et Simon, 1993), de recourir à des experts extérieurs tels que des consultants ou des banquiers d’affaire (Haunschild, 1994)… ou d’imiter les actions d’autrui.
1.1. DE L ’INCERTITUDE
Concept central dans la littérature consacrée à la théorie des organisations, l’incertitude a pu faire l’objet de plusieurs définitions. A la suite de Milliken (1987), il nous semble possible d’identifier trois grandes approches.
1. L’incertitude peut, tout d’abord se concevoir comme un déficit d’informations à propos des relations de cause à effet qui peuvent exister dans le monde du management (Lawrence et Lorsch, 1967).
125 Chapitre 3 : L’imitation comme produit de l’incertitude
2. Elle peut par ailleurs être définie comme une incapacité à prévoir les conséquences potentielles d’une décision (Duncan, 1972). 3. L’incertitude a, enfin, pu être définie comme une incapacité des individus à assigner des probabilités à des états futurs de la nature. Cette définition est par exemple adoptée par des auteurs classiques comme Pfeffer et Salancik (1978).
Nous retrouvons dans cette dernière définition la conception introduite par Knight (1921) qui, au travers d’un ouvrage court, Risk, Uncertainty and Profit , fait entrer de façon fracassante l’incertitude dans le monde statique et certain de l’économie néo-classique. L’incertitude découle ici de l’incapacité des agents à connaître le lendemain.
a) Un problème spécifiquement humain Ce problème, nous explique Knight, ne se pose qu’aux êtres dotés de conscience : Seuls les êtres humains (et peut-être certains animaux précise-t-il) sont capables de voir les « choses venir ». Cette méconnaissance du lendemain les empêche d’adopter le schéma causal classique « stimulus / réaction » puisque le stimulus n’existe pas encore au moment de la réaction. En fait, le stimulus existe… mais d’une façon particulière : il s’agit d’une image, d’une représentation.
« ous percevons le monde avant de réagir à celui ci, et nous réagissons non pas à ce que nous percevons, mais toujours à ce que nous anticipons. »56
Knight (1921, p.201)
S’ils sont doués d’une capacité d’anticipation, les êtres humains n’en sont pas pour autant infaillibles. Nous pouvons nous tromper et, la plupart du temps, nous nous trompons. Nos sources d’erreurs sont multiples et peuvent découler d’une piètre connaissance du présent, d’une information approximative sur les conséquences de nos actions ou de notre incapacité à respecter nos plans initiaux et à agir comme prévu. Knight se refuse cependant à conclure à une ignorance totale du lendemain. Notre connaissance (ou notre ignorance) du lendemain est, selon lui, toujours partielle.
56 “We percieve the world before we react to it, and we react not to what we perceive, but always to what we infer.”
126 Première partie : Revue de la littérature
b) L’incertitude, entre certitude et ignorance Dans nos expériences de la vie de tous les jours, nous sommes ainsi placés sur un continuum entre certitude totale et ignorance absolue. Et Knight de présenter quatre types de situations rendant plus ou moins facile le travail d’anticipation. Dans le premier type de situations, il sera possible d’anticiper le futur à l’aide de probabilités a priori (ou probabilités objectives). Ces probabilités sont liées à des propriétés structurelles de la situation. Ainsi, lorsque je lance un dé (pour peu que le dé soit non pipé), je sais que structurellement, la probabilité de tomber sur l’une des six faces s’élève à un sixième.
Ces situations sont, selon Knight, extrêmement rares dans la vie de tous les jours. Elles le sont encore plus dans la vie des affaires. Aussi sommes-nous souvent amenés à formuler des prévisions à propos du futur en mobilisant des informations passées, en observant un échantillon représentatif, etc. Les situations du deuxième type permettent l’utilisation de probabilités statistiques .
Schéma 8 Les quatre degrés d'incertitude selon Knight
Utilisation Utilisation de de Estimations Opinions
probabilités probabilités Certitude a priori statistiques Ignorance
Situations Situations de risque (ou incertitude simple) d’incertitude radicale
Les éléments nécessaires à la construction de probabilités statistiques ne sont pas toujours disponibles. Il s’agira alors, pour les individus désireux de se projeter dans le futur, de formuler des estimations en fonction de leur intuition, de leurs sentiments. On se situe ici très loin de la rigueur mathématique qui était permise dans les deux précédentes situations. Les probabilités utilisées ne sont alors plus objectives, mais subjectives.
Les trois types de situations qui viennent d’être étudiés reposent sur une hypothèse commune : la liste des évènements possibles est connue. Elles sont donc au cœur des phénomènes appréhendés par les travaux qui s’inscrivent dans la tradition des « théories de la
127 Chapitre 3 : L’imitation comme produit de l’incertitude diffusion » et tendent à considérer, avec Rogers (2003, p.6) 57 que l’incertitude renvoie au nombre d’alternatives que les individus perçoivent et associent à un évènement particulier et aux probabilité relatives de ces alternatives. Les différences concernent les moyens mis en œuvre pour mesurer les probabilités de réalisation de chaque évènement et la fiabilité de ces dernières (les probabilités a priori étant supposées plus fiables que les estimations). Pour appréhender ces trois types de situations de façon formelle, économistes et statisticiens ont crée de nombreuses astuces mathématiques permettant, en fait, d’avoir une vision assez « certaine » de l’incertitude, de la réduire à un « simple » problème de calcul de risque .
Ces « tours de passe-passe » ne doivent néanmoins pas occulter l’existence d’une autre forme d’incertitude, beaucoup plus profonde en ce qu’elle ne laisse aux individus aucun moyen de connaître (ou même de se représenter) la liste des évènements possibles. Le futur n’est d’aucune manière déductible du présent : c’est l’incertitude radicale ( « true incertainty »). Impossible à mesurer de façon scientifique, l’incertitude radicale élimine toute possibilité de traitement statistique.
c) Des objets divers, des expériences individuelles variées Comme le remarque Williamson (1994), prolongeant les travaux de Koopmans (1957), l’incertitude à laquelle sont confrontés les managers peut avoir plusieurs objets. Le fondateur de la théorie des coûts de transaction distingue ainsi l’incertitude primaire (qui concerne les évolutions de l’environnement général de l’organisation), l’incertitude secondaire (qui concerne spécifiquement les actions des autres acteurs économiques, et des concurrents) et l’incertitude comportementale (qui concerne le comportement des co-contractants actuels et potentiels de l’organisation et renvoie au risque d’opportunisme). D’autres situations peuvent néanmoins être susceptibles d’être génératrices d’incertitude, comme par exemple l’apparition d’une innovation (Rogers, 2003) dont les bienfaits sont a priori méconnus des individus.
L’incertitude ne saurait cependant se définir, exclusivement, comme un état objectif de la nature. S’intéressant aux décisions stratégiques, Daft, Sormunen et Don (1988) définissent l’incertitude perçue comme le différentiel entre l’information disponible et l’information nécessaire pour prendre une décision. Ces auteurs insistent sur deux facteurs environnementaux susceptibles d’influencer l’incertitude perçue par les managers : la
57 “Uncertainty is the degree to which a number of alternatives are perceived with respect to the occurrence of an event and the relative probabilities of these alternatives.”
128 Première partie : Revue de la littérature complexité de l’environnement (qui s’accroit à mesure qu’augmente le nombre de paramètres et d’évènements extérieurs à prendre en compte), et son instabilité.
Pour autant, et comme le souligne Milliken (1987), l’incertitude perçue est susceptible de se traduire par différents problèmes posés aux managers. L’incertitude perçue par les managers pourra les placer en situation de manque d’information sur les changements en cours dans leur environnement, les placer dans l’incapacité de prévoir les conséquences de ces changements sur leur organisation ou encore d’établir une réponse à mettre en œuvre. Cette différence dans la façon de concevoir l’incertitude sera au cœur de notre analyse dans la deuxième partie de la thèse.
S’ils mobilisent la notion d’incertitude (sans forcément adopter la même conception), les travaux existants qui sont consacrés à la relation entre imitation et incertitude revendiquent souvent une filiation avec les expériences fondatrices de la Psychologie Sociale. La section qui suit leur sera consacrée.
1.2. DES TRAVAUX FONDATEURS
Par leurs travaux fondateurs, Sherif (1935) et Asch (1951) ont largement inspiré les développements théoriques consacrés à la relation entre incertitude et imitation.
a) L’expérience de Sherif Comment réagir à l’incertitude ? Telle est la question de départ qu’adopte Muzaref Sherif, chercheur à Columbia et père fondateur de la Psychologie Sociale. Son expérience dite de la « caverne des voleurs » (Sherif, 1935) est l’une des premières à s’intéresser à la relation entre imitation et incertitude. Ses résultats sont bien connus : lorsqu’ils doivent faire face à l’incertitude, les êtres humains ont tendance à se référer aux opinions d’autrui. Placés dans une salle obscure, les participants à l’expérience doivent estimer la distance les séparant d’une petite lumière. L’estimation est rendue plus difficile par un effet visuel connu des astronomes, l’effet autocinetique, qui donne l’illusion du mouvement 58 . Pour reprendre les termes de Sherif, « le stimulus est ambigu ». Lorsqu’ils doivent proposer des estimations de façon autonome, les sujets ont tendance à se créer une norme personnelle, une fourchette à l’intérieur de laquelle se situent leurs réponses.
58 Cette impression de mouvement est très forte lorsque l’on observe une étoile isolée sur un ciel uniforme. Les raisons qui la provoquent font encore aujourd’hui l’objet de débat au sein de la communauté scientifique.
129 Chapitre 3 : L’imitation comme produit de l’incertitude
Cette fourchette est susceptible de différer largement d’un individu à un autre. La situation est ensuite modifiée. Les sujets sont placés en groupes et ils doivent communiquer, à haute voix, leurs estimations aux autres participants. Les sujets ont alors tendance à s’imiter les uns les autres et à faire converger leurs estimations autour d’une norme sociale propre à chaque groupe. On parle de normalisation. Les groupes peuvent, par ailleurs, voir émerger des leaders d’opinion, des individus ayant plus d’influence que les autres dans la détermination de la norme sociale.
Lorsque le déroulement est inversé (la séance est dans un premier temps collective puis individuelle) il est intéressant d’observer que les sujets ont tendance à conserver la norme collective pour construire leurs estimations individuelles. Les conclusions de l’expérience sont résumées par Moscovici (1979) dans sa Psychologie des minorités actives : la convergence résulte de l’incertitude des participants quant à l’exactitude de leurs réponses.
b) L’expérience de Asch Les individus peuvent également s’imiter lorsque la réponse à la question qui leur est posée est évidente. Telle est la conclusion à laquelle parvient Asch à l’issue d’une série d’expériences devenues célèbres (Asch, 1951, 1971). Un sujet est placé dans un groupe de 7 à 9 personnes. Il ignore que ses acolytes ont été mandatés par le chercheur pour l’induire en erreur. L’expérience parait simple : il s’agit de comparer une barre test à trois autres barres pour retrouver celle qui a la même longueur.
Schéma 9 L'expérience de Asch
A B C
130 Première partie : Revue de la littérature
L’expérience est répétée selon un déroulement invariable : le cobaye est systématiquement l’avant dernier à prendre la parole. Deux fois sur trois, les complices du chercheur annoncent de façon unanime la même mauvaise réponse. Dans un tiers des cas, le cobaye imite la majorité dans des réponses qu’il sait, à l’évidence, être les mauvaises.
1.3. KEYNES , LE PREMIER CONVENTIONNALISTE
Dans la sphère économique et managériale, comme dans toute activité humaine, les individus s’imitent, en particulier lorsqu’ils doivent faire face à des situations d’incertitude (expérience de Shérif). De tous les pères de la pensée économique, John Maynard Keynes est probablement celui qui rejette avec le plus de vigueur le postulat d’information parfaite cher aux néo-classiques et aux libéraux.
Il aura fallu dix années, passées à rédiger son Treatise on Probability (1921), pour que Keynes se résolve finalement à accepter l’existence du brouillard opaque de l’incertitude radicale et renonce à objectiver les perceptions subjectives des décideurs par un jeu de probabilités. Un constat d’échec qui marque le point de départ de la pensée keynésienne. Non, l’incertitude n’est définitivement pas escamotable par les statistiques. Dès lors, l’essentiel n’est plus de raccrocher les wagons du modèle d’information parfaite mais d’en modifier les hypothèses pour s’intéresser au comportement des décideurs devant faire face à ce mur infranchissable. Aux agents économiques rationnels de l’Economie orthodoxe s’opposent les agents ignorants, moutonniers, sujets à la panique et sensibles aux rumeurs de l’Economie keynésienne.
a) Le marché foule Cette idée est particulièrement saillante dans le chapitre 12 de la Théorie Générale de l’Emploi, de l’Intérêt et de la Monnaie (1934 [1969]) qui, au travers de la métaphore du concours de beauté, offre au lecteur une véritable « théorie dans la théorie ». Ce texte, connu pour être le premier chapitre achevé de la Théorie Générale , constitue aujourd’hui un socle fréquemment utilisé par les chercheurs s’intéressant à la relation entre incertitude et imitation.
Au-delà de son point de départ, consistant à affirmer que le futur n’est aucunement déductible du passé, son originalité réside probablement dans la volonté de l’auteur de fonder sa théorie sur une psychologie des foules empruntée à Freud. Keynes vouait en effet une admiration au père de la psychanalyse qui, comme le révèle Bernard Maris, appréciait en retour les écrits de
131 Chapitre 3 : L’imitation comme produit de l’incertitude cet économiste considéré de son vivant comme un iconoclaste et comme un empêcheur de penser en rond (Maris, 2007 ; Maris et Dostaler, 2009).Résolument humains, les décideurs économiques – et en particuliers les investisseurs sur les marchés financiers - sont selon Keynes en proie à l’hystérie collective et aux esprits animaux. Ce décor, fait de psychologie et d’incertitude radicale, est également marqué par la coexistence de deux types d’individus. A la foule aveugle et moutonnière s’opposent des spéculateurs cherchant à anticiper ses mouvements.
b) Des investisseurs moutonniers L’incertitude est donc radicale. Keynes ne se contente pas seulement, à la suite de Knight, d’émettre la distinction entre le probabilisable et le non probabilisable. Il s’intéresse aux conséquences d’une connaissance incertaine sur les comportements individuels et collectifs.
« Je n’entend pas simplement distinguer ce que l’on considère comme certain, de ce qui est seulement probable. Le jeu de la roulette n’est pas, en ce sens, sujet à l’incertitude […]. Le sens que je donne à ce terme est celui qu’il revêt lorsque l’on qualifie d’incertains la perspective d’une guerre européenne, le niveau du prix du cuivre ou du taux d’intérêt dans vingt ans, l’obsolescence d’une invention récente ou la place des classes possédantes dans l’échelle sociale pendant les années soixante dix. Pour toutes ces questions, il n’existe aucune base scientifique sur laquelle construire le moindre calcul de probabilité. Simplement : on ne sait pas. »
Keynes (1937 [2002], p.250)
Ne disposant d’aucune base sérieuse pour établir leurs prévisions les individus doivent se fier à leur intuition, « faire confiance » (Maris, 2007) ou, pour paraphraser Robert Sugden (1989, p.89), délaisser les axiomes du choix rationnel pour « quelque chose de plus ». Incapables de décider de façon autonome, les individus peuvent alors imiter ce qu’ils observent dans leur entourage.
« Conscients du peu de valeur de notre propre jugement individuel, nous veillons à l’aligner sur le jugement de tous les autres, sans doutes mieux informés. Cela signifie que nous cherchons à nous conformer à l’attitude de la majorité ou de la moyenne. La psychologie d’une société faite d’individus qui, tous, cherchent mutuellement à s’imiter, nous conduit à ce qu’il convient d’appeler très précisément un jugement de convention. »
Keynes (1937 [2002], p.250)
Convention, le terme est désormais explicite. Très présent dans la Théorie Générale , il n’a cependant pas encore acquis le sens que lui donneront les conventionnalistes. Comme le remarque Bernard Maris, il est utilisé par Keynes comme un synonyme de « confiance ». S’en
132 Première partie : Revue de la littérature remettre à la convention, c’est donc pour Keynes avoir confiance. Avoir confiance, tout d’abord, en la poursuite du présent. Avoir confiance, ensuite, en la capacité de l’opinion à synthétiser les informations disponibles. Avoir confiance, enfin, en la validité des informations détenues par autrui. La confiance est néanmoins précaire. Aveugle, moutonnière, ignorante, la foule est sujette à toutes les paniques, sensible à toutes les rumeurs. Elle est en proie à l’hystérie. Ses sautes d’humeur sont souvent violentes.
« Une évaluation conventionnelle, fruit de la psychologie de masse d’un grand nombre d’individus ignorants, est exposée à subir des variations violentes à la suite des revirements soudains qui suscitent dans l’opinion certains facteurs dont l’influence […] est en réalité assez petite. Les jugements manquent en effet des racines profondes qui leur permettraient de résister solidement. »
Keynes (1934 [1969], p.169)
c) Des loups dans la bergerie Lieu d’expression privilégié des tendances mimétiques des agents économiques, les marchés financiers voient également opérer des acteurs d’un tout autre type, des investisseurs professionnels qui « se soucient beaucoup moins de faire à long terme des prévisions serrées du rendement escompté d’un investissement […] que de deviner peu de temps avant le grand public les changements futurs de la base conventionnelle » (Keynes, 1934 [1969], p.170).
Calculateurs et rationnels, ces investisseurs professionnels doivent faire face à une incertitude moins radicale que le grand public, les mouvements de foule étant plus facilement prévisibles que les fondamentaux de l’économie.
Ce système dans lequel « chacun cherche à découvrir ce que l’opinion moyenne croit être l’opinion moyenne » (Keynes, 1934 [1969], p.171) s’apparente alors à un concours de beauté dans lequel les lecteurs d’un journal doivent voter, non pas pour la candidate qu’ils trouvent la plus jolie, mais pour celle qui rassemblera le plus de suffrages.
Une opinion moutonnière et ignorante, des spéculateurs retors et calculateurs. Faut-il voir dans cette dichotomie une trace de l’élitisme avéré de Keynes 59 ? Probablement, mais pas seulement. Le gout de Keynes pour la spéculation l’a amené à diriger la National Mutual Life
59 Le lecteur souhaitant se plonger dans la biographie de Keynes pourra se référer à l’ouvrage d’Alain Minc (2006), Une sorte de diable, les vies de John M. Keynes .
133 Chapitre 3 : L’imitation comme produit de l’incertitude
Insurance Company. Le spéculateur du chapitre 12 de la Théorie Générale ressemble trait pour trait au John Maynard Keynes de la City. Calculateur, il joue « avec le futur, activité qui terrorise la majorité de la population, qui se situe plutôt du côté des rentiers, des prudents, de ceux qui n’ont pas d’esprits animaux ou d’abondante libido » (Maris, 2007, p.38). Derrière la théorie, l’autoportrait d’un Keynes schizophrène condamnant, dans ses écrits académiques, les pratiques de spéculations qui sont les siennes dans ses activités extra-académiques.
« Du point de vue de l’utilité sociale l’objet de placements éclairés devrait être de vaincre les forces obscures du temps et de percer le mystère qui entoure le futur. En fait l’objet inavoué des placements les plus éclairés est à l’heure actuelle de “voler le départ”, comme le disent si bien les Américains, de piper le public, et de refiler la demi couronne fausse ou décriée. »
Keynes (1934 [1969], p.171)
d) Un héritage disputé De par sa clairvoyance, son ton caustique, la personnalité hors-norme de son auteur, le chapitre 12 de la Théorie Générale a donné naissance à plusieurs courants de recherche.
S’inspirant de la métaphore keynésienne du concours de beauté, la théorie des jeux de coordination (ou théorie des jeux évolutionnistes) s’intéresse à des situations dans lesquelles il importe d’agir comme autrui (Lewis, 1969 ; Schelling, 1960). Le problème est alors de se coordonner sur une solution unique. L’élément incertain est ici le comportement des autres acteurs économiques (incertitude secondaire au sens de Koopmans).
La théorie de l’information en cascade et la théorie des conventions font, quant à elles, peser un tout autre type d’incertitude sur les individus. Ces derniers ne connaissant pas les états de la nature (incertitude primaire au sens de Koopmans), ils cherchent à obtenir des informations manquantes ou à rationaliser leurs propres actions par l’imitation d’autrui.
e) Les jeux de coordination Des automobilistes peuvent choisir de rouler à gauche… ou à droite, tant qu’ils s’accordent pour rouler du même côté (Schelling, 1960). Des collègues peuvent décider de prendre leur pause café à 10h ou à 10h30… tant qu’ils prennent leur pause au même moment (Batifoulier, 2001). Nous pouvons utiliser un mot, plutôt qu’un autre (Lewis, 1969)… l’essentiel est de parler le même langage pour que la communication puisse s’établir. Comme le remarque
134 Première partie : Revue de la littérature
Chiappori (2004), il ne s’agit pas, ici, de renoncer totalement au principe de rationalité mais de souligner que ce dernier, dans un contexte de pluralité des équilibres, conduit à une indécidabilité. Tel est le point de départ de la théorie des jeux de coordination qui s’appuie largement sur les travaux d’un linguiste et philosophe, David K Lewis.
Parce qu’il n’existe pas de solution individuelle sans solution collective, les individus doivent, se coordonner sur une réponse unique : ils ont une « préférence pour la conformité » (Batifoulier et Larquier, 2001). Comme dans le concours de beauté keynésien, le problème porte sur les décisions d’autrui, elles-mêmes conditionnées par les prédictions de ces derniers sur nos propres décisions : « la prédiction ne porte pas sur le phénomène lui même mais sur les prédictions des autres, y compris leurs prédictions sur nos propres prédictions, et ainsi de suite à l’infini » (Chiappori, 2004, p.108). Pour sortir de l’impasse, ces derniers devront tenter de prévoir le comportement d’autrui pour s’aligner sur ce dernier.
Cette idée est à l’origine de « l’approche stratégique des conventions »60 qui définit la convention comme une régularité de comportement R dans une population donnée d’individus, « un équilibre stable dans un jeu qui admet deux, ou plus, équilibres stables » (Sugden, 1986, p.32) qui implique qu’ « une partie au moins de la réponse à la question “Pourquoi chacun fait il R ?” se trouve dans : “Parce que tous les autres font R” ».
La convention permet de lever l’incertitude en proposant « un accord non explicite » (Batifoulier et Larquier, 2001, p.11), dont l’adoption permet aux individus d’atteindre une solution mutuellement avantageuse. Dès lors, une convention se définira comme « la solution d’un problème de coordination qui, ayant réussi à concentrer sur elle l’imagination des agents, tend à se reproduire avec régularité » (Dupuy, 1989). La répétition du jeu permet, selon Lewis de renforcer la convention en constituant un savoir collectif. Nos collègues de bureau devant définir leur horaire de pause auront d’autant plus tendance à se retrouver à 10h30 qu’ils auront le souvenir de s’être retrouvé à cette même heure la dernière fois que s’est posé le problème.
60 Le terme « approche stratégique des conventions » est emprunté à Batifoulier et Larquier (2001) pour distinguer une tradition ancrée dans la théorie des jeux visant à résoudre un problème de coordination d’une tradition issue de l’Economie hétérodoxe et de la Gestion, la théorie des conventions, qui appréhende la convention comme un moyen utilisé par les individus pour rationnaliser leurs propres actions en situation d’incertitude.
135 Chapitre 3 : L’imitation comme produit de l’incertitude
Encadré 2 Les six conditions de Lewis
Soit une régularité de comportement (R). On parlera de convention si et seulement si : Chacun se conforme à R. Chacun anticipe que tout le monde s’y conforme. Cette croyance est auto-réalisatrice et auto-renforçante. Tous les individus préfèrent une conformité générale. Il existe au moins une alternative à R. Les conditions qui viennent d’être énoncées sont connues de tous.
D’après Lewis (1969)
Le problème de coordination est plus complexe lorsque les joueurs ne peuvent s’appuyer sur un antécédent. C’est par exemple le cas dans le film Maman j’ai encore raté l’avion et je suis perdu dans ew York lorsque le jeune Kevin et ses parents essaient de se retrouver sans pouvoir communiquer. La coordination s’effectue finalement au pied de l’immense sapin du Rockfeller Center. Dans ce « jeu du rendez-vous », c’est un élément exogène qui rend cette solution plus évidente que les autres : l’action se déroule le jour de Noël. Le Rockfeller Center fait alors office de « point focal », il est une « alternative plus saillante focalisant l’attention des joueurs » (Schelling, 1960).
Comme le soulignent Metha, Stermer et Sugden (1994), il est possible de distinguer plusieurs degré de saillance en fonction de la capacité des joueurs à intégrer dans leur raisonnement les répercutions de leurs propres actions. Un individu pourra ainsi adopter la première solution qui lui vient à l’esprit (saillance de premier ordre), il pourra aussi adopter la solution qu’il imagine être la plus évidente chez l’autre joueur (saillance de deuxième ordre). Il pourra enfin adopter la solution qu’il imagine être adoptée par l’autre joueur lorsque ce dernier cherchera à se mettre à sa place (saillance de troisième ordre). Les développements théoriques et les expérimentations empiriques sur ce thème constituent, à n’en pas douter, une voie de recherche féconde et stimulante 61 . L’impossibilité des individus d’observer directement les actions d’autrui (par exemple lorsque les joueurs agissent de façon simultanée) est ici une condition sine qua non à l’existence du jeu de coordination.
61 On renverra notamment le lecteur à l’ouvrage passionnant édité par les chercheurs du laboratoire Forum de Nanterre (Batifoulier, 2001).
136 Première partie : Revue de la littérature
Dès lors, les individus ne s’imitent pas les uns les autres, mais s’alignent sur une solution qu’ils imaginent être la solution collective. Il est donc difficile de relier ces développements à la thématique de la recherche.
f) L’information en cascade et les conventions Des clients potentiels d’un restaurant se fient au nombre de personnes déjà installées dans la salle pour estimer la qualité de la cuisine servie dans l’établissement (Banerjee, 1992). Des cabinets de conseil justifient leur démarche de certification par les pratiques en vigueur chez les entreprises de service (Isaac, 1996a). Ces deux exemples, empruntés respectivement aux théoriciens de l’information en cascade et aux conventionnalistes sont quant à eux totalement liés aux conséquences de l’incertitude sur les comportements imitatifs des agents.
Incapables de trouver par eux même une solution optimale, ils voient en l’imitation d’autrui un moyen de sortir du brouillard. Rompant avec le présupposé d’autonomie cher aux économistes néo-classiques, la rationalité devient mimétique (Montmorillon, 1999), autoréférentielle (Orléan, 2004b). Convient-il, pour autant, de renoncer à toute forme de calcul ? La réponse est, à notre sens, négative. S’ils diffèrent dans les degrés d’incertitude qu’ils appréhendent (risque pour les théories de l’information en cascade, incertitude radicale pour la théorie des conventions), ces deux champs se distinguent également par les modèles de rationalité qu’ils mobilisent.
A la logique instrumentale visant à s’accaparer les informations détenues par autrui (théories de l’information en cascades, section 2) s’oppose la logique de justification au cœur de la théorie des conventions (section 3).
2. UNE INFORMATION EN CASCADE
Lorsque Warren Buffet achète une action, le cours s’envole (Hirshleifer et Teoh, 2003). Cette observation témoigne de l’intérêt porté à la question de l’imitation par le monde de la finance de marché. A l’instar de Bruno-Laurent Moschetto, plusieurs auteurs ont souligné le caractère moutonnier du comportement des intervenants financiers (Moschetto, 1997, 1998).
Cette préoccupation a donné naissance aux théories de l’information en cascade et au courant du « herd behavior » (littéralement comportement de troupeau) dans lequel les calculs
137 Chapitre 3 : L’imitation comme produit de l’incertitude individuels doivent « faire avec » l’incertitude. Dans le prolongement des observations formulées par Keynes, ces travaux cherchent souvent à démontrer que les comportements mimétiques modifient les équilibres, et à savoir si certains donneurs d’ordres parviennent à en tirer profit.
Si la réponse apportée à la première question est bien souvent positive, la seconde question est encore soumise à débat et à discussions. Dans la perspective compréhensive qui anime ce travail, l’essentiel sera cependant de comprendre les raisons pour lesquelles les intervenants financiers s’imitent les uns les autres. Au cœur de cette approche, on trouve une idée, formulée par Orléan (1986) à la lecture des thèses keynésiennes : dans un système où tous les agents n’ont pas les mêmes informations, chacun plagie celui qui est supposé être le mieux informé. Une idée simple, qui est le point de départ de nombreux développements conceptuels.
a) Une source d’information A la suite de Bikhchandani et ses collègues, on désignera par les termes « information en cascade » toute situation dans laquelle il est optimal, pour un individu ayant observé les actions de ceux qui l’ont précédé, d’agir de la même façon en ignorant ses propres informations (Bikhchandani, Hirshleifer et Welch, 1992).
Si l’agent économique a bien accès à des informations imparfaites et privées (il est le seul à les détenir), ce dernier est conduit à les ignorer en supposant que les autres sont mieux informés que lui-même. L’imitation devient donc un moyen de mettre la main sur les données qui ne sont pas en sa possession (Banerjee, 1992 ; Bikhchandani et al. , 1992). Cet accès demeure fragile : l’équilibre qui en résulte est donc précaire et susceptible d’être modifié à l’arrivée d’une nouvelle information ou lorsqu’une évolution des conditions extérieures, aussi minime soit-elle, se produit (Bikhchandani et Sharma, 2000).
Plusieurs auteurs remarquent également que les agents économiques n’ont pas la même influence selon le niveau de crédibilité qui leur est attribué par les autres (Bikhchandani, Hirshleifer et Welch, 1998 ; Moschetto, 1997, 1998). On retrouve ici l’idée du « leader d’opinion » chère aux théoriciens des modes managériales. Certains agents peuvent également recevoir des informations avant les autres.
138 Première partie : Revue de la littérature
On pourra alors, à la suite de Hirshleifer, Subrahmanyam et Titman (1994), considérer que la conformité peut-être subie et non pas recherchée. Le fait que les agents les moins bien informés agissent de la même manière que les mieux informés avec du retard pouvant être expliqué par accès tardif à l’information et non par une stratégie d’investissement guidée par l’imitation.
b) De l’imitation restreinte et de l’imitation totale Les phénomènes d’information en cascade ne sont pas automatiques sur les marchés financiers (Bikhchandani et Sharma, 2000). Leur probabilité d’apparition dépendra de nombreux éléments au premier rang desquels figure l’incertitude ambiante matérialisée par le bruit du signal initial (Bikhchandani et Sharma, 2000 ; Hirshleifer, 2001 ; Hirshleifer et Teoh, 2003). L’imitation peut, par ailleurs, être restreinte ou totale (Moschetto, 1998). L’intervenant adoptant un comportement imitatif restreint va confronter ses anticipations à l’opinion du marché et l’intégrer partiellement. L’imitation est alors un moyen d’alimenter des anticipations préexistantes, pouvant se fonder sur des informations déjà détenues par l’intervenant.
L’imitation totale est, quant à elle, le fruit d’agents conscients de leur retard par rapport à l’opinion du marché : il s’agit alors de s’aligner sur cette dernière afin de maximiser ses gains. Dans les deux cas, ces comportements viennent renforcer le phénomène et constituent une externalité négative pour la collectivité (Bikhchandani et Sharma, 2000) car ils contribuent à la promotion d’informations partielles. Des individus altruistes (mais en l’occurrence, peu rationnels), ignoreraient l’opinion du marché pour se fier à leurs informations privées, ce qui améliorerait la qualité générale du signal véhiculé par le marché. Nous nous trouverions alors dans la situation, décrite par la majorité des modèles de la finance de marché orthodoxe, dans lesquels le cours des valeurs permet de synthétiser toute l’information disponible à un moment donné. Même si les phénomènes d’information en cascade sont une situation extrême, les tendances moutonnières des agents financiers, parce qu’elles empêchent l’agrégation parfaite de l’information disponible, nous amènent à faire le deuil de la configuration idéale décrite par Modigliani et Miller. Dans ce type de contexte, les agents peuvent difficilement prendre des décisions éclairées.
139 Chapitre 3 : L’imitation comme produit de l’incertitude
c) La place du bluff Une fois acceptée l’idée que les agents ont conscience de l’influence de leurs actions (qui peuvent être décodées et perçues par les autres comme une source d’information), on peut aisément imaginer que ces derniers vont tenter de retourner la situation à leur avantage et chercher à induire quelques « pigeons » en erreur afin de faire évoluer les cours à leur avantage (Moschetto, 1998). Le bluff sera une démarche d’autant plus payante que la réputation des meneurs sera bonne et que les autres agents auront accès à des informations de piètre qualité. La possibilité de tirer profit du bluff sur les marchés financiers est cependant loin d’être mise en évidence de façon empirique.
Synthèse 10 Points essentiels des théories de l’information en cascade
Auteurs clé : Banerjee, Bikhchandani, Hirshleifer, Welch Champs disciplinaires : Economie, Finance de marché / Niveau d’analyse : Individus
Les individus ne détiennent pas les mêmes informations à propos de l’état du marché. En imitant autrui, un intervenant financier peut s’approprier des informations qui ne sont pas en sa possession. L’ attitude rationnelle d’agents ignorant leurs informations privées et imitant autrui peut conduire à des phénomènes d’ information en cascade dont on trouve l’illustration dans le comportement de clients potentiels d’un restaurant évaluant la qualité de l’établissement au regard du nombre de clients déjà installé. Tous les intervenants n’ont pas la même influence : les leaders d’opinion sont perçus par les autres comme mieux informés. Les phénomènes d’information en cascade sont instables car ils reposent sur des bases précaires. Ils empêchent, par ailleurs, la parfaite agrégation de l’information disponible et rendent donc difficile une prise de décision éclairée des agents. Conscients de leur propre influence, certains agents peuvent alors chercher à bluffer de façon à manipuler l’évolution des marchés financiers à leur propre avantage.
140 Première partie : Revue de la littérature
3. LA THEORIE DES CONVENTIONS
La situation qui précède vient pousser la conception standard de la rationalité dans ses derniers retranchements. L’incertitude entrave les capacités optimisatrices des agents. A défaut de ne pouvoir agir selon les canons du modèle néo-classique, ces derniers substituent un principe de satisfaction à la règle standard de maximisation. La rationalité devient limitée (Simon, 1976). S’il y a bien calcul de la part des agents économiques, celui-ci ne peut se faire de façon autonome. L’imitation fait alors office de « plug in » à l’axiomatique rationaliste néo-classique en lui rajoutant un appendice social. Dans les théories de l’information en cascade, cet appendice social est un véritable fardeau pour la collectivité car il empêche les individus d’agir dans l’intérêt de la collectivité.
Plus familière aux chercheurs en Sciences de Gestion, l’approche systémique des conventions (désormais théorie des conventions) vient questionner, de façon plus radicale, l’édifice néo- classique. Selon Gomez (1994, 1996, 1997, 1999 ; Gomez et Jones, 2000), le problème posé par l’incertitude n’est, en effet, pas un problème de calcul rationnel mais de rationalisation des comportements individuels. Les individus devront alors mobiliser un dispositif cognitif collectif, la convention (Favereau, 1989), pour aligner leurs actions sur un modèle considéré comme raisonnable, comme normal. Les questions relatives à l’efficacité deviennent ici subalternes. Il s’agit de faire quelque chose… à défaut de ne rien faire du tout, d’agir malgré tout (Gomez, 1996, p.171).
La présentation qui suit utilisera les travaux de Gomez comme fil conducteur 62 . Précisons ici que l’ambition affichée par l’auteur, est de proposer un modèle général alternatif au modèle néo-classique fondé sur le marché et décliné dans la théorie de l’agence et dans la théorie des coûts de transaction. Une ambition jugée démesurée par Romelaer (1999) qui reproche au modèle formulé par Gomez son incapacité à rendre compte de l’ensemble des phénomènes organisationnels et sa propension à se focaliser sur des situations « extrêmes » d’incertitude radicale pour proposer un modèle à vocation universelle.
62 Les travaux de Luc Boltanski et Laurent Thévenot (1991), même s’ils constituent une contribution majeure à l’école conventionnaliste, ne seront pas traités en détail car l’imitation y occupe une approche moins centrale que dans les travaux de Gomez.
141 Chapitre 3 : L’imitation comme produit de l’incertitude
3.1. UN MOYEN D ’AGIR MALGRE TOUT
Comme dans les théories présentées précédemment, l’existence de situations d’incertitude fait figure de point de départ de la théorie des conventions. Avec la théorie des conventions, le calcul devient impossible. Comme le note Gensse (2003, p.18), « le contexte dans lequel les acteurs inscrivent leur action n’est pas risqué mais incertain, au sens de F.H. Knight ». Le problème n’est plus, pour reprendre l’exemple de Schelling (1960), de choisir entre rouler à gauche et rouler à droite : en situation d’incertitude radicale, les individus ne savent plus distinguer leur gauche de leur droite.
Cette incertitude est liée à la fois à l’incapacité des individus de prévoir les états futurs de la nature, mais aussi à leur incapacité cognitive de prévoir tous les comportements des autres. On retrouve ici la dialectique classique « incertitude primaire » versus « incertitude secondaire » proposée par Koopmans (1957) et qui imprégnait déjà la métaphore keynésienne du concours de beauté (Keynes, 1934 [1969]).
a) Des décisions raisonnables, plutôt que des décisions rationnelles Le calcul des individus n’est pas seulement handicapé par l’incertitude, il est rendu impossible. Dès lors, et pour reprendre une interrogation formulée par Isaac (2003, p.8), « comment agir si rien n’est prévisible ? »
Le choix individuel n’est rendu possible que par l’existence de repères, les conventions, « un ensemble de critères implicites ou explicites auxquels un individu se réfère au moment de décider » (Gomez, 1996, p.173). Les individus escamoteront alors la question du « pourquoi » pour se concentrer sur la question du « comment » (Isaac, 1996b). La décision ne peut plus être isolée, autonome. L’existence d’autrui apporte des balises. Le mimétisme social devient un moyen de se soustraire à l’incertitude car le savoir d’autrui est contenu dans la convention. Gomez tient enfin sa revanche sur Robinson Crusoé 63 , personnage rationnel, autonome, informé, et emblématique de l’économie libérale. Isolé sur l’île déserte de son utilité privée, il doit pour agir mobiliser, ô comble, un système de référence collectif : « Le souverain qu’il croit être est impuissant. Plus il est souverain, autonome, moins il est capable de trancher seul » (Gomez, 1996, p.170).
63 La métaphore de Robinson et Vendredi est fréquemment utilisée par les microéconomistes pour modéliser une société simple, fondée sur l’échange marchand et la maximisation sous contrainte.
142 Première partie : Revue de la littérature
Dans une perspective foucaldienne, l’hypothèse de rationalité des individus est alors écartée au profit d’une hypothèse de rationalisation. Il s’agit moins de décider de façon rationnelle que de rendre raisonnables ses actions à l’aide des règles de comportements véhiculées par la convention.
« Dans le cadre conventionnaliste, s’imiter ou imiter ce que l’ont croit être le comportement normal, est la solution raisonnable à l’incertitude »
Gomez (1997, p.67)
Ces règles n’existent cependant que parce que les acteurs ont la conviction que les autres vont s’y conformer : elles se construisent par imitation réciproque. Cette situation est, en suivant Sigal (1973, p.37), comparable à celle connue des rédacteurs de journaux qui doivent sélectionner les évènements dont ils vont rendre compte. « Le jugement du groupe amène une certaine dose de certitude dans le monde incertain du journaliste. Aucun journaliste n’est en mesure de connaître le sens d’un évènement, de savoir s’il s’agit ou non d’une information, ou si les sources sont fiables. »64 Le fait de traiter les mêmes nouvelles que les collègues, d’utiliser les mêmes sources permet alors « d’authentifier l’information », de rationaliser la décision.
b) Des conventions aux normes, du raisonnable au légitime Progressivement, la convention peut s’enraciner, se cristalliser (Orléan, 1997, 2004a ; Sugden, 1986). Les individus vont l’adopter « parce qu’ils croient que c’est leur devoir d’agir ainsi » (Orléan, 2004a, p.17). La convention acquiert alors un caractère normatif renforcé par la crainte de sanction sociale éprouvée par les adopteurs (Sugden, 1986). Il ne s’agit plus simplement de rationaliser ses actions mais de les légitimer aux yeux d’autrui en se conformant au modèle de comportement. La convention dote les individus de droits et de devoirs réciproques : « chaque participant se trouve obligé à l’égard des autres de se conformer à la convention et exerce à l’égard des autres un droit identique à ce qu’ils se conforment » (Orléan, 2004a, p.23) .
64 “This group judgment… imparts a measure of certainty to the uncertain world of the newsman. If no newsman knows what an event means, whether or not it is news, or who the reliable sources are, then reaching some agreement with colleagues on what is news and how to write a story about it helps to authenticate the news.” (Sigal, 1973, p.37)
143 Chapitre 3 : L’imitation comme produit de l’incertitude
3.2. UN TRIPTYQUE : CONVENTIONS , CONVICTION ET LIBERTE
Véritable « système d’information » (Gomez, 1996), la convention transmet des messages qui sont souvent considérés comme des évidences par les individus. Pour autant, et comme en rend compte Mercier (2003, p.183), il ne s’agit pas d’une donnée exogène au système social : « l’individu est convaincu du comportement des autres, de “ce qu’il faut faire”, donc il adopte la convention et en l’adoptant il renforce sa propre conviction. » La convention s’apparente donc à une prophétie auto réalisatrice, elle transmet une « conviction sur sa propre généralisation » (Gomez, 1997, p.68). Injustifiable, autrement que par la référence à autrui, elle est par ailleurs souvent implicite et rarement questionnée. N’ayant pas d’existence autonome, « elle se manifeste au cours de la mise en œuvre de l’action par des individus qui font partie d’une entreprise, d’un groupe, d’une communauté ou plus généralement d’une organisation » (Isaac, 1996b, p.9).
Selon le modèle conventionnaliste développé par Gomez (Gomez, 1994, 1996, 1997), il est possible d’analyser une convention au travers de sa morphologie. Cette dernière est composée d’un énoncé, qui constitue le discours sur les formes d’actions, et d’un dispositif matériel, qui organise l’action des acteurs.
a) L’énoncé Le principe supérieur commun est l’élément de justification ultime, apparaissant comme une évidence pour les adopteurs. A la différence de Boltanski et Thévenot (1991) qui recensaient un nombre limité de « cités » et de principes supérieurs associés, les travaux dont il est ici question ne cherchent pas à définir a priori une liste de principes universels. Les deux approches ont cependant pour ambition commune d’appréhender les critères permettant de justifier l’action individuelle. La distinction entre adopteurs permet à chacun de se positionner dans l’environnement social. Elle établit une hiérarchie des acteurs et attribue sa place à chacun. La sanction fixe la limite entre le normal et le hors-la-convention. Elle offre aux adopteurs des repères sur les conséquences d’un non respect de la convention. Elle fait de cette dernière un ordre autorégulé.
144 Première partie : Revue de la littérature
b) Le dispositif matériel La fréquence permet de savoir si les individus sont fréquemment en contact avec la convention ou non. La technologie est relative à la façon dont sont diffusées et formatées les informations véhiculées par la convention. La négociation porte sur le degré de tolérance à l’interprétation de la convention et sur le degré d’autonomie laissé aux individus dans l’interprétation.
c) La cohérence et la dynamique des conventions Les six éléments qui précèdent permettent de décrire une convention. Comme le note Isaac (2003), ils ne suffisent pas à expliquer pourquoi les individus adoptent une convention plutôt qu’une autre. L’espace social se posant, en effet, comme un lieu de compétition entre conventions alternatives.
Pour qu’une convention soit généralement adoptée par les individus, elle devra être plus convaincante que les conventions alternatives, ne pas faire l’objet de suspicion. Comme le notent De Vos, Lobet Maris et Rousseau (2005, p.11), « cette force de conviction est […] l’élément majeur à même d’expliquer l’adhésion des acteurs à la convention. Plus ces derniers percevront la convention comme cohérente – c'est à dire correspondant à une réalité – plus ils y adhéreront et plus la convention se maintiendra dans le temps. »
La force de conviction d’une convention, un gage d’efficacité de cette dernière, résidera dans la cohérence entre son énoncé et son dispositif matériel. Afin d’éviter toute « suspicion » sur la cohérence d’une convention, l’énoncé et le dispositif matériel ne doivent pas être contradictoires, dissonants (Gomez, 1994, 1996). Sous l’effet de la suspicion, la convention peut soit se modifier (et corriger son incohérence), soit renforcer son principe supérieur commun, soit s’effondrer et s’effacer au profit d’une convention alternative. On parle alors de crise conventionnelle (Isaac, 2000 ; Isaac, 2003). Selon Amblard (2003a), la présence d’individus dissidents, préférant adopter la convention alternative, l’inadéquation du discours délivré par la convention face aux transformations contextuelles (des situations d’incertitude nouvelles), où les stratégies délibérées de certains acteurs peuvent venir menacer la convention en place.
145 Chapitre 3 : L’imitation comme produit de l’incertitude
d) Les conventions de qualification et les conventions d’effort La théorie des conventions propose un modèle alternatif au modèle néo-classique et notamment à la théorie des coûts de transaction dont le problème principal est celui du choix entre deux alternatives : le marché et l’entreprise.
Par le concept de convention de qualification , la théorie des conventions se pose comme une théorie des règles du jeu économique. Apprises par mimétisme, les conventions de qualification organisent l’échange et contribuent à déterminer les comportements normaux des co-échangistes. Elles permettent, par exemple, aux agents économiques de déterminer si une prestation est chère ou bon marché, aux clients d’un restaurant de choisir le montant du pourboire accordé au serveur d’un restaurant, au médecin et à son patient d’organiser leur relation, au banquier et à l’emprunteur de connaître les modalités de négociation d’un prêt. Le « marché pur », fondé exclusivement sur la compétition et la transmission des informations par l’intermédiaire d’un système de prix, n’est, dès lors, qu’un cas extrême : une convention de très faible complexité (Gomez, 1994).
Référentiel commun des parties prenantes, la convention d’effort traite quant à elle d’un problème bien connu des théoriciens de l’agence : l’existence d’intérêts potentiellement antagonistes entre les « stakeholders » (souvent restreints, dans la théorie de l’agence, aux seuls actionnaires et salariés). Le problème d’agence est cependant élargi et déplacé. La question n’est plus de savoir par quels moyens brider l’opportunisme potentiel des agents, mais d’expliciter les règles de comportement normal de chacun. La convention permettra, par exemple, de désigner « le tire au flanc par antithèse du salarié normal » (Gomez, 1997, p.73) : elle fournira un référentiel permettant de mesurer la validité des actions individuelles.
3.3. UN MONDE DE CONVENTIONS
En véhiculant des guides comportementaux, les conventions permettraient aux individus de se soustraire à l’incertitude et amèneraient à reformuler certains problèmes de gestion. Plusieurs auteurs ont donc mobilisé le cadre conceptuel conventionnaliste pour éclairer des domaines tels que la gestion budgétaire (Zécri, 2001, 2003), la relation client-producteur (Marion, 1997, 2003), la comptabilité (Amblard, 2003b), le management des connaissances (De Vos et al. , 2005). Ces approches cherchent avant tout à proposer une lecture nouvelle dans leurs domaines respectifs, à reformuler certaines questions anciennes, à étendre le champ des possibles. Lorsqu’il existe, le volet empirique a avant tout une fonction illustrative, visant à
146 Première partie : Revue de la littérature démontrer la pertinence du cadre conceptuel. Elles participent ainsi à une reformulation de l’objet de la gestion : même si sa capacité d’action est limitée, le rôle du gestionnaire est de manipuler des conventions, de construire des convictions partagées (Gomez, 1996), de dépasser les paradoxes (Isaac, 2003), d’apporter « l’huile de coude qui fait prendre la mayonnaise de l’action collective » (Montmorillon, 1999, p.194).
Dans une perspective plus compréhensive, la théorie des conventions a également été mobilisée pour expliquer certains phénomènes organisationnels in situ . Isaac (1996a, 1996b, 2000) a ainsi cherché à déconstruire les logiques de certification dans les activités de service. Mercier (2003), de son côté, a mis en lumière le rôle de la compétition entre deux conventions dans le processus de changement organisationnel à la RATP. Si certains mécanismes, tels que la rationalisation des décisions au travers de règles de comportement ont pu retenir l’attention des chercheurs (voir ainsi Véran, 2003), les objets étudiés sont le plus souvent des conventions en place et relativement cristallisées. L’imitation réciproque supposée être au cœur de la construction des conventions semble exclue du champ des travaux empiriques qui voient plus dans la théorie des conventions une théorie des règles et des rationalisations qu’une théorie de l’imitation. En se focalisant sur les relations intra-organisationnelles (conventions d’effort) ou sur les règles de l’échange économique (conventions de qualification), la théorie des conventions semble, par ailleurs exclure de son spectre d’analyse les relations entre concurrents d’un même secteur, et donc les phénomènes d’imitation concurrentielle.
A l’opposé des travaux empiriques existants, cette recherche retiendra essentiellement de la théorie des conventions les éléments relatifs à l’imitation des individus et à la logique de rationalisation qui sera mise en perspective aux explications proposées par les autres théories présentées dans cette revue de littérature.
147 Chapitre 3 : L’imitation comme produit de l’incertitude
Synthèse 11 Points essentiels de la théorie des conventions
Auteur clé : Gomez, Orléan Champ disciplinaire : Sciences de Gestion / Niveau d’analyse : Individus / Conventions
Il existe des situations caractérisées par un tel degré d’incertitude que les individus ne peuvent agir de façon rationnelle. Les individus cherchent alors à agir malgré tout en adoptant des comportements raisonnables . La convention apporte aux individus une règle de comportement normal. Les conventions sont le produit d’une imitation généralisée et réciproque des individus. Elles sont auto réalisatrices et auto renforçantes . Une convention est composée d’un énoncé (qui constitue le discours sur les formes d’actions) et d’un dispositif matériel (qui organise l’action des individus). Pour qu’une convention soit généralement adoptée, elle doit être plus convaincante que les conventions alternatives. La conviction d’une convention trouvera sa source dans sa cohérence interne. Les différents éléments de son énoncé et de son dispositif matériel ne devront pas être dissonants. L’analyse de Gomez a d’abord porté sur les règles de l’échange économique (conventions de qualification ) avant de traiter du fonctionnement de l’organisation (conventions d’effort ). Dans leurs développements empiriques, les conventionnalistes ont surtout cherché à réinterpréter la gestion à l’aune de la théorie des conventions. De façon plus marginale, certains chercheurs ont mobilisé cette approche pour étudier certains phénomènes organisationnels in situ . Les éléments liés à l’imitation réciproque et à la logique de rationalisation qui sous-tend l’imitation demeurent, à l’heure actuelle, exclu du champ des recherches empiriques conventionnalistes.
4. INCERTITUDE ET PRATIQUES D’IMITATION CONCURRENTIELLE
Ce chapitre s’est focalisé sur un concept, l’incertitude, qui a souvent été placé au cœur des phénomènes d’imitation concurrentielle. Pour les théories de l’information en cascade, les individus s’imitent parce qu’ils n’ont pas accès aux informations pertinentes pour prendre une décision éclairée. La situation qu’appréhendent les conventionnalistes est plus complexe : l’incertitude est radicale, les individus sont placés en situations d’indécidabilité. L’effet est cependant le même : les individus s’imitent. Si le comportement que décrivent les deux théories est identiques, les raisons individuelles qui permettent de l’expliquer sont bien différentes : accès à l’information pour Banerjee (1992), Bikhchandani, Hirshleifer et Welch (1992) ; rationalisation pour Gomez (1994, 1996), Isaac (1996, 2000) et l’école
148 Première partie : Revue de la littérature conventionnaliste. Nous tenons là une piste intéressante pour l’étude des pratiques d’imitation concurrentielle. Si l’incertitude recouvre un ensemble divers de situations, il est possible d’envisager qu’elle soit à l’origine d’une variété de pratiques traduisant autant de raisons individuelles différentes.
Cette piste est d’autant plus stimulante que, comme le précise Milliken (1987), un même contexte d’incertitude pourra faire l’objet d’interprétations individuelles différentes. Les acteurs pourront ainsi avoir des difficultés à prévoir l’évolution de leur environnement, à anticiper les conséquences de ces évolutions sur leur propre situation ou ne pas être en mesure de déterminer une réponse adaptée.
Cette thématique trouvera son prolongement dans une des deux questions de recherche qui seront formulée dans la synthèse de la littérature qui va suivre. Elle sera traitée d’un point de vue empirique dans le chapitre 5.
149 Chapitre 3 : L’imitation comme produit de l’incertitude
RESUME DU CHAPITRE 3
Les développements théoriques auxquels il est fait référence dans ce chapitre viennent replacer les décisions individuelles et les rationalités qui sous-tendent l’imitation en contexte. Les décisions des individus peuvent, en effet, être entravées par la précarité des informations dont ils disposent. Placés en situation d'incertitude, les individus agissent par défaut et s'imitent les uns les autres. Prolongeant les travaux de Knight sur les différents types d'incertitude et les expériences pionnières de Sherif et Asch – qui mettent en évidence les conséquences de l'incertitude sur les comportements mimétiques des individus – plusieurs courants théoriques lient incertitude et imitation. Il convient néanmoins de distinguer des approches qui, à l'instar des théories de l'information en cascade, conservent l'hypothèse de rationalité calculatoire, de travaux s'en éloignant radicalement (théorie des conventions). On retrouve ici la dichotomie entre « approches instrumentales » et « approches évaluatives » qui nous a jusqu’ici servi de fil directeur. On retrouve d’ailleurs cette idée dans la description du fonctionnement des marchés financiers opérée par Keynes : aux spéculateurs calculateurs s'opposent les investisseurs privés plus moutonniers. Un même contexte, caractérisé par une incertitude, mais des rationalités bien différentes. Pour la théorie de l'information en cascade, c'est la volonté des agents économiques de s'accaparer des informations détenues par autrui qui les poussent à s'imiter. Tant pis si cela doit les conduire à ignorer leurs propres informations. L’attitude rationnelle de ces individus choisissant d’écarter les informations dont ils disposent pour imiter autrui peut conduire à des phénomènes d’information en cascade dont on trouve l’illustration dans le comportement de clients potentiels d’un restaurant évaluant la qualité de l’établissement au regard du nombre de clients déjà installés. Ces phénomènes d’information en cascade sont instables car ils reposent sur des bases précaires. Ils empêchent, par ailleurs, la parfaite agrégation de l’information disponible et rendent difficile une prise de décision éclairée des agents. Certains agents particulièrement calculateurs peuvent alors chercher à bluffer de façon à manipuler l’évolution de l’opinion de la foule. Le point de départ adopté par les conventionnalistes est différent. Il existerait ainsi des situations caractérisées par un tel degré d’incertitude que les individus ne pourraient procéder à aucune forme de calcul. Plongés dans le brouillard le plus opaque, ces derniers chercheraient à agir malgré tout en adoptant les comportements raisonnables véhiculés par les conventions. Produits d’une imitation généralisée et réciproque des individus les conventions se rapprochent des prophéties auto-réalisatrices keynesiennes : elles sont auto-renforçantes. Leur multiplicité les place néanmoins en situation de concurrence : Pour qu’une convention soit adoptée, elle doit être plus convaincante que les conventions alternatives.
150
Synthèse de la première partie Ebauche d’un cadre d’analyse et formulation des questions de recherche
otre recherche trouve son point de départ dans un paradoxe : alors que les stratégies Nd’imitation ont fait l’objet de critiques théoriques, elles ont souvent été observées chez les organisations. Ce décalage entre prescriptions théoriques et résultats empiriques nous a incité à nous intéresser aux micro fondations de l’imitation concurrentielle. Nous avons donc fait le choix d’une démarche inspirée de la stratégie en pratiques. Cette recherche a pour objectifs de comprendre les raisons qui animent les décideurs lorsqu’ils imitent leurs concurrents, d’identifier leurs pratiques d’imitation concurrentielle et d’analyser la façon dont elles contribuent à la fabrication de la stratégie.
En matière d’imitation concurrentielle, le « practice turn » pourrait se révéler être une piste de recherche d’autant plus fructueuse que, faute d’ancrage microscopique, les recherches empiriques existantes ont souvent ignoré la dimension individuelle des théories qu’elles mobilisent. A titre d’exemple, les travaux reprenant le concept de pressions mimétiques (DiMaggio et Powell, 1983) ont rarement observé directement les comportements imitatifs qui sont, dans la théorie, supposés être l’émanation d’une forme de rationalité fondée sur ce qui semble approprié et s’inscrire dans le prolongement de la quête de légitimité des organisations. Cette limite récurrente débouche sur une validation souvent partielle des théories de l’imitation concurrentielle qui ne sont appréhendées qu’au travers des processus qu’elles décrivent et jamais des raisons individuelles qu’elles postulent.
La première partie de la thèse a présenté une revue de la littérature consacrée à l’imitation. Elle nous a permis de mobiliser des travaux issus des Sciences de Gestion, de l’Economie, de la Sociologie et de la Psychologie Sociale. Ces théories sont, à notre sens, pertinentes pour entamer une étude des pratiques d’imitation concurrentielle et des raisons individuelles dont elles sont l’expression.
152 Première partie : Revue de la littérature
Nous allons maintenant proposer une synthèse de la revue de littérature. Cette section obéit à deux objectifs. Nous chercherons tout d’abord à apporter un ancrage théorique à la problématique que nous avons formulée dès l’introduction de la thèse et qui tient compte du champ d’étude retenu dans cette recherche (les radios musicales et leurs programmateurs).
En quoi les pratiques d’imitation concurrentielle des programmateurs contribuent elles à la stratégie des radios musicales françaises ?
Cette section de synthèse de la revue de littérature va nous permettre de mettre en évidence et de justifier les postulats qui imprègnent notre recherche (section 1). Nous avancerons, ensuite, un cadre analytique qui aura vocation à être complété et amendé par les résultats de la recherche (section 2). Ce cadre analytique permettra de préciser nos questions de recherche et de guider la restitution des résultats.
1. ANCRAGE THEORIQUE DE LA PROBLEMATIQUE
L’ancrage de notre recherche dans le courant de la stratégie en pratiques n’est pas neutre quant à ses postulats. Ces derniers renvoient au lien entre pratiques et stratégie (postulat n°1) et à l’articulation des notions de rationalité et de pratiques (postulat n°2).
Postulat n°1 Afin de prolonger les travaux consacrés aux formes d’imitation (Haunschild et Miner, 1997), nous avons souhaité articuler notre étude autour de la notion de pratiques d’imitation concurrentielle en nous intéressant à ce que les individus-stratèges font lorsqu’ils imitent leurs concurrents. Nous rejoignons ici un champ de recherche émergent, le courant de la stratégie en pratiques, qui considère que les décisions individuelles et quotidiennes contribuent à façonner la stratégie des organisations. Cette conception se traduit par le postulat suivant :
Postulat n°1 : Les pratiques d’imitation concurrentielle contribuent à la formulation de la stratégie de l’organisation.
Il ne s’agit, bien évidemment, pas de réduire la stratégie de l’organisation aux seules décisions individuelles. La formulation de la stratégie fait intervenir de nombreux facteurs environnementaux et organisationnels. Elle est également influencée par des processus écologiques.
Le postulat n°1 traduit une ambition revendiquée par les tenants du courant de la stratégie en pratiques : apporter un éclairage microscopique dans un domaine de recherche longtemps dominé par des travaux adoptant des niveaux d’analyse plus agrégés.
153 Elaboration d’un cadre d’analyse et formulation des questions de recherche
S’il ne résulte pas d’une volonté de remettre profondément en cause les travaux existants, notre intérêt pour les pratiques est guidé par l’idée qu’une meilleure compréhension des actions et des interactions individuelles est susceptible de faire progresser la connaissance des phénomènes d’imitation concurrentielle en management.
Il ne s’agit pas, non plus, d’affirmer que la stratégie d’une organisation ne résulterait que de la seule imitation. Les organisations innovent, se différencient de leurs concurrents. Nous chercherons ici à réintégrer les phénomènes d’imitation concurrentielle dans un champ, celui du management stratégique, qui a eu trop souvent tendance à négliger leur importance.
Postulat n°2 Un second postulat imprègne ce travail. Il consiste à affirmer – tant avec Hedström (1998) qu’avec Miner et Raghavan (1999) – que l’imitation est un lieu d’expression des rationalités individuelles. Ce postulat reprend une idée omniprésente chez les tenants du courant de la stratégie en pratiques puisqu’il conduit, d’une part à appréhender les pratiques (en l’occurrence, les pratiques d’imitation concurrentielle) comme le produit des actions et des décisions des individus qui en sont les initiateurs et d’autre part à considérer que ces dernières procèdent d’une intentionnalité (Chia et MacKay, 2007).
Nous retrouvons ici les trois premiers axiomes de la catégorisation de Boudon (2003) présentée dans le premier chapitre de la thèse : individualisme (tout phénomène social est le produit d’actions, de décisions et de comportements individuels), compréhension (ces actions, ces décisions et ces comportements peuvent être compris d’un observateur extérieur pour peu qu’il prenne le soin de s’informer suffisamment), rationalité (les actions, les décisions et les comportements des individus sont le produit de raisons qui peuvent être plus ou moins clairement perçues par l’individu). Le deuxième postulat sur lequel se fonde notre recherche peut dès lors être formulé de la façon suivante :
Postulat n°2 : Les pratiques d’imitation concurrentielle sont le lieu d’expression de raisons individuelles.
La diversité des explications théoriques présentées dans la revue de littérature nous conduit à insister sur le caractère pluriel des rationalités à l’œuvre en matière d’imitation concurrentielle.
154 Première partie : Revue de la littérature
Il ne s’agit pas d’affirmer que les pratiques d’imitation concurrentielle sont forcément guidées par un calcul individuel ou qu’elles obéissent à une logique exclusivement instrumentale. Ces dernières peuvent en effet s’inscrire dans une quête de légitimité ou d’identité sociale ou rendre plus « raisonnables » des décisions prises en situation d’incertitude. De même, nous ne chercherons pas à affirmer que les décideurs sont forcément totalement conscients des raisons qui les poussent à imiter leurs concurrents. Comme le notent Warnier et Lecocq (2007), ces derniers ne sont d’ailleurs pas forcément capables d’évaluer leur degré de différenciation et de similarité avec les autres acteurs de l’industrie. Il s’agit simplement d’admettre que les imitateurs ne sont pas les otages impuissants de forces sociales, psychologiques ou mémétiques qui les dépasseraient (ce point a été développé dans le chapitre 1 lors de la distinction entre mimétisme et imitation et dans le chapeau introductif du chapitre 2).
2. PRESENTATION DU CADRE ANALYTIQUE
La revue de la littérature de cette recherche vise à établir un cadre d’analyse qui a vocation à être complété et amendé dans la seconde partie. Il permettra également de préciser la problématique en définissant les questions de recherche qui guideront la restitution des résultats. Précisons à ce stade qu’en raison du caractère hybride de notre stratégie de recherche, le cadre analytique qui va maintenant être présenté est le produit d’un va-et-vient constant entre théorie et terrain. Sa formulation résulte donc, dans une certaine mesure, d’un exercice de rationalisation a posteriori .
Présentation du cadre d’analyse Sur la base de la dichotomie « approches instrumentales » versus « approches évaluatives » de l’imitation, le chapitre 2 nous a permis d’articuler plusieurs courants de recherche faisant intervenir – de façon centrale ou périphérique – la notion d’imitation. Au-delà des différences dans les niveaux d’analyses qu’ils adoptent (individus, organisations, groupes d’individus, populations d’organisations), ces travaux ont en commun d’appréhender l’imitation comme le produit (au moins partiel) de décisions individuelles faisant intervenir des raisons. Aux théories qui mettent en exergue les conséquences attendues par les décideurs pour expliquer les comportements imitatifs (ces conséquences pouvant concerner l’organisation ou renvoyer à l’intérêt personnel des acteurs) s’opposent les explications qui s’inscrivent dans une forme de rationalité fondée sur ce qui semble approprié (March et Olsen, 1989). Ces dernières pourront faire intervenir le désir mimétique des individus, la légitimité des modèles ou des
155 Elaboration d’un cadre d’analyse et formulation des questions de recherche pratiques imités ou des phénomènes liés à l’identité sociale (qu’elle soit individuelle ou organisationnelle).
Le chapitre 3 a prolongé cette grille de lecture en y intégrant un autre élément, l’incertitude. La description keynésienne du fonctionnement des marchés financiers – dans lesquels des spéculateurs dotés d’un réel sens du calcul se distinguent des investisseurs privés plus moutonniers – nous a permis d’introduire deux courants théoriques : les modèles d’information en cascade et la théorie des conventions. Si ces deux approches s’intéressent à la relation entre imitation et incertitude, elles ne reposent pas sur la même conception de la rationalité humaine. Les théoriciens de l’information en cascade insistent, en effet, sur les bénéfices attendus par les imitateurs en matière d’accès aux informations alors que la théorie des conventions intègre l’imitation dans une réflexion plus large liée à la rationalisation et à la justification des décisions individuelles en situation d’incertitude.
Cette différence découle, selon nous, de la conception de l’incertitude retenue par les auteurs. A l’incertitude radicale de la théorie des conventions s’oppose le risque encadrant les décisions individuelles dans les modèles d’information en cascade.
Les développements théoriques qui viennent d’être synthétisés nous permettent de présenter le cadre d’analyse suivant (schéma 10). Les éléments liés aux raisons individuelles y sont articulés autour de la dichotomie « rationalités instrumentales » versus « rationalités évaluatives ».
Ces raisons sont étroitement liées au contexte dans lequel les individus décident et agissent. Ce contexte peut être caractérisé par un degré plus ou moins fort d’incertitude. Ces raisons trouvent leur terrain d’expression dans les pratiques d’imitation concurrentielle et donne lieu à des pratiques d’imitation concurrentielle.
C’est cette notion qui nous permettra de faire la jonction entre un niveau d’analyse individuel et un niveau d’analyse organisationnel. En suivant le postulat n°1, ces pratiques sont supposées contribuer à la stratégie des organisations.
156 Première partie : Revue de la littérature
Schéma 10 Présentation d’un cadre d’analyse intégrateur
Stratégie de l’organisation
Contribuent à Organisationnel Niveau Pratiques
d’imitation concurrentielle
Sous-tendent Niveau Individuel
Raisons instrumentales Raisons évaluatives
Orientées par les conséquences Désir mimétique attendues pour l’organisation - Relation triangulaire - Diminution des coûts de R&D objet/modèle/sujet - « Late mover advantage » Quête de légitimité - Apprentissage par procuration - Légitimité du/des modèle(s) Orientées par les conséquences - « Taken for grantedness » attendues pour le décideur - « Sharing the blame effect » Identité sociale des individus
Accès à des informations privées Rationalisation de décisions prises (« herd behavior ») dans un contexte incertain
Incertitude
Problématique et questions de recherche La contribution des pratiques d’imitation concurrentielle à la stratégie des organisations constitue le fil directeur de notre travail. Sur la base de ce cadre d’analyse, deux questions de recherche peuvent être formulées afin de préciser la problématique de la thèse.
La première question de recherche vise à explorer la relation entre raisons et pratiques d’imitation concurrentielle. Il s’agira de dépasser des travaux consacrés aux formes d’imitation qui peuvent donner le sentiment de proposer des descriptions relativement désincarnées. Cette limite est d’autant plus gênante que les explications relatives aux raisons individuelles qui sous-tendent l’imitation sont nombreuses dans la littérature et le plus souvent décrites comme mutuellement exclusives. Notre première question de recherche sera donc formulée comme suit :
En quoi les pratiques d’imitation concurrentielle sont elles le terrain d’expression de différentes raisons individuelles ?
157 Elaboration d’un cadre d’analyse et formulation des questions de recherche
L’incertitude a souvent été désignée comme le principal facteur à l’origine des comportements d’imitation des individus et/ou des organisations (chapitre 3 de la revue de la littérature). Peu d’auteurs ont cependant cherché à expliciter la relation entre incertitude et imitation. Au-delà de l’absence de consensus liée à l’opérationnalisation de la « variable » incertitude traduisant une réelle difficulté à définir et à mesurer ce concept (Delios et Henisz, 2003 ; Delios et al. , 2008 ; Garcia-Pont et Nohria, 2002 ; Haunschild et Miner, 1997), ces travaux sont souvent parvenus des résultats peu significatifs ou au pouvoir explicatif très limité (en comparaison de l’importance de cette variable dans la littérature).
Pour mieux comprendre le contexte dans lequel apparaissent les pratiques d’imitations, nous partirons de la distinction entre des situations de risques, que nous supposons être plus propices à l’exercice de raisons instrumentales chez les acteurs, et des situations d’incertitude radicale, plus souvent liées à des approches évaluatives de la rationalité. Dès lors, nous formulerons la question de recherche suivante :
De quelle façon l’incertitude environnante – et plus généralement – le contexte, influent ils sur les raisons qui sous tendent les pratiques d’imitation concurrentielle ?
Les deux questions de recherche que nous venons de formuler nous permettrons d’orienter la restitution des résultats.
Présentation de la deuxième partie de la thèse La deuxième partie de la thèse sera consacrée au pan empirique de la recherche. Le chapitre 4 permettra de présenter notre champ d’étude : les radios musicales et leurs programmateurs. Le champ d’étude ayant largement influencé notre stratégie de collecte et d’analyse des données, nous avons fait le choix de présenter nos orientations méthodologiques à la suite du secteur étudié.
L’analyse permet de faire émerger deux types de résultats qui correspondent aux deux grandes questions de recherche que nous venons de formuler. La question du lien entre incertitude et imitation, et plus généralement, le rôle joué par le contexte dans lequel évoluent les décideurs fait l’objet du chapitre 5. Nous montrerons que le caractère imprévisible des goûts musicaux du public est générateur de doutes, d’hésitations et quelquefois d’angoisses chez les programmateurs. Pour sortir de ces situations d’indécidabilité, les programmateurs mobilisent un ensemble de normes partagées dans leur environnement professionnel, que nous qualifions
158 Première partie : Revue de la littérature
« d’orthodoxie du Top 40 ». Ces normes n’apportent cependant que des réponses partielles aux questions récurrentes des programmateurs. L’imitation pourra alors devenir un moyen d’autant plus fréquemment utilisé par les programmateurs pour se forger des certitudes qu’elle sera encouragée (par les attachés de presse officiant dans les labels) et facilitée (par l’existence d’outils et de liens sociaux facilitant l’observabilité des décisions des concurrents).
Ce contexte, où l’incertitude trouve son expression dans les doutes et les hésitations des décideurs, laisse apparaître des pratiques d’imitation concurrentielle diverses. Ces pratiques, fondées sur des raisons individuelles bien différentes, vont être identifiées et analysées dans le chapitre 6 au travers d’une typologie. L’analyse des entretiens permet d’identifier neuf pratiques types définies au travers de propriétés et de dimensions. Les explications présentées comme mutuellement exclusives par la littérature apparaissent donc comme complémentaires et concomitantes.
Ces résultats permettront alors d’amorcer une discussion générale consacrée à la contribution des pratiques d’imitation concurrentielle à la fabrication de la stratégie.
159
Deuxième partie Méthodologie et résultats
Chapitre 4 : Les programmateurs radio, praticiens de l’imitation concurrentielle p.162 Chapitre 5 : Un contexte propice à l’imitation p.230 Chapitre 6 : Une typologie des pratiques d’imitation concurrentielle p.274 Discussion : De l’imitation à la différenciation p.316
Conclusion générale p.332
160
Chapitre 4 Les programmateurs radio, praticiens de l’imitation concurrentielle
« And there goes the last DJ
Who plays what he wants to play
And says what he wants to say
Hey, hey, hey
And there goes your freedom of choice
There goes the last human voice
There goes the last DJ ».
Tom Petty, “The Last DJ”
otre recherche s’intéresse à la façon dont des décideurs reproduisent des décisions N adoptées chez leurs concurrents et concourent à faire de l’imitation un pan essentiel de la stratégie de leur organisation. Afin de comprendre les raisons pour lesquelles certains managers peuvent être amenés à répliquer les décisions prises par un ou par plusieurs concurrents, notre attention se portera sur les pratiques d’imitation concurrentielle et sur les raisons individuelles dont elles sont l’expression. Ce chapitre obéit à un double objectif. Il s’agira d’une part de présenter le champ d’étude que nous avons retenu (section 1) et d’autre part d’expliciter et de justifier le « design » de la recherche et nos principales orientations méthodologiques (section 2).
L’étude de terrain de notre recherche est consacrée aux radios musicales et à leurs programmateurs. Le secteur de la radio a fait l’objet de peu d’études en Sciences de Gestion. En dépit d’un poids économique relativement faible (un peu plus de 1,3 milliards d’euros en 2009, 742 millions d’euros en ne prenant en compte que les recettes publicitaires 65 ), ce
65 Source : Etude sectorielle XERFI 700 - Radio, juillet 2009.
162 Deuxième partie : Méthodologie et résultats secteur semble particulièrement adaptée à la thématique de la recherche. Depuis 2004 en effet, les radios musicales ont été au centre de nombreuses polémiques liées aux comportements imitatifs supposés de certaines d’entre elles. Le choix de ce champ d’étude est cohérent avec l’intérêt que nous portons aux pratiques d’imitation et à leur impact sur la stratégie des organisations. Le positionnement d’une radio musicale est, en effet, intimement lié à sa programmation : Les programmateurs participent donc, au travers de leurs décisions de tous les jours à l’élaboration de la stratégie.
Cette conception a des implications sur le « design » et sur l’esprit général de la recherche. Elle permet d’une part de justifier l’adoption d’une perspective stratégie en pratiques (Chanal, 2009 ; Golsorkhi, 2006a ; Jarzabkowski et Spee, 2009 ; Johnson et al. , 2003 ; Johnson et al. , 2007 ; Whittington, 2002, 2006) et nous conduit, d’autre part, à adopter une démarche inspirée de la théorie enracinée (Richards, 2005 ; Strauss et Corbin, 2004). Nous exposerons alors les choix méthodologiques qui ont guidé la recherche. Comme nous le verrons, la démarche de collecte des données et le processus d’analyse ont largement été influencés par les spécificités du champ étudié. La section 2 nous permettra donc de présenter et de justifier les orientations méthodologiques de la recherche.
1. LE CHAMP D’ETUDE
Cette première section vise à présenter le champ d’étude retenu pour mener cette recherche. Elle permettra au lecteur de s’immerger dans le quotidien des programmateurs radio. La section 1.1 dresse un panorama du secteur de la radio en France. Nous préciserons notre objet d’étude dans la section 1.2 puisque nous y traiterons des problématiques liées à la programmation musicale et aux programmateurs.
1.1. LA RADIO EN FRANCE
De nombreuses études ont été consacrées à la production musicale. La radio semble, quant à elle, n’avoir fait l’objet que d’un nombre plus faible de recherches (Ahlkvist et Fisher, 2000). Dans cette littérature, une proportion importante de travaux prolonge la voie ouverte par Peterson et Berger (1975) en abordant des thématiques liées à la production culturelle, à la culture de masse, à la diversité des programmes (Berland, 1990, 1993 ; Berry et Waldfogel, 1999a, 1999b, 2001 ; Lee, 2004 ; Rothenbuhler, 1985 ; Rothenbuhler et Dimmick, 1982 ; Rothenbuhler et McCourt, 1992). Dans ces recherches, les aspects liés aux modèles économiques en vigueur dans l’industrie et au fonctionnement des radios sont souvent traités
163 Chapitre 4 : Les programmateurs radio, praticiens de l’imitation concurrentielle de façon parcellaire. L’essentiel de l’attention des chercheurs demeure consacrée au contenu des programmes. Une littérature peu abondante, ancrée dans les champs de l’Economie Industrielle et des Sciences de Gestion s’intéresse à la radio pour traiter des questions liées à la constitution des champs organisationnels (Leblebici, Salancik, Copay et King, 1991), à la diffusion des innovations (Rossman, 2003, 2004) ou encore à l’imitation inter- organisationnelle (Greve, 1995, 1996, 1998 ; Mouricou, 2006). Ces travaux offrent au lecteur des éléments contextuels relatifs au secteur dans leurs parties méthodologiques. Le panorama qui va suivre s’appuiera également sur des ouvrages à caractère historique – qu’ils émanent de chercheurs (Cheval, 1997 ; Leblebici, 1995 ; Leblebici et al. , 1991), de praticiens (Brochand, 2006 ; Fisher, 2007) ou de journalistes (Mantoux et Simmat, 2008) – mais aussi d’articles issus de la presse professionnelle et d’entretiens réalisés auprès d’acteurs du secteur dans le cadre de la recherche.
Dans un premier temps (point a), nous synthétiserons quelques éléments sectoriels nécessaires à la compréhension des enjeux actuels du champ d’étude. Ces éléments seront complétées par un bref historique du secteur (point b).
a) Quelques éléments sectoriels Dans son Histoire de la communication moderne , Patrice Flichy (2004) inscrit la définition d’une première base économique de développement de la radio au crédit de l’américain David Sarnoff, responsable technique d’American Marconi : « En 1916, il envoie une note à son directeur général sur le “radio music box”. “J’ai en tête, écrit il, un plan de développement qui ferait de la radio un bien de consommation domestique dans le même sens que le piano ou le phonographe. L’idée est d’apporter de la musique dans les foyers grâce à la TSF” » (Flichy, 2004, p.150). Comme le révèle Lyons (1966), l’employé pressent déjà « les bases de l’exploitation industrielle du procédé et son potentiel publicitaire considérable » (Cheval, 1997, p.25). Il suffira de dix ans pour que la TSF devienne un des principaux supports de la culture de masse. Dès lors, les développements techniques de la TSF (invention de la bande FM en 1935, introduction de la stéréo en 1960, invention du transistor, du RDS, radio numérique) accompagneront l’affirmation du modèle économique de la radio.
Le modèle économique d’une radio commerciale Selon Leblebici et ses collègues, l’activité d’une radio commerciale consiste en la production d’un contenu (programme) en vue d’attirer une audience afin de vendre du temps d’antenne à des annonceurs potentiels (Leblebici, 1995 ; Leblebici et al. , 1991).
164 Deuxième partie : Méthodologie et résultats
« En radio, on a affaire à deux types de clients : les annonceurs et les auditeurs. La particularité, c’est qu’un groupe de clients est en quelque sorte un produit, qu’on va vendre au deuxième. »
Entretien réalisé avec le directeur marketing d’un réseau national
Ce modèle économique, que partagent la radio commerciale et la télévision commerciale, a parfois fait l’objet de formulations malencontreuses. En 2004, Patrick Le Lay, alors PDG de TF1, avait ainsi déclenché une vive polémique en expliquant « vendre du temps de cerveau humain disponible » à des annonceurs comme Coca-Cola 66 .
En France, comme au Canada, au Japon ou en Australie, les radios commerciales privées coexistent avec des radios de service public et des radios associatives dont l’essentiel du revenu provient de financements publiques. Aux Etats-Unis, des modèles économiques alternatifs ont émergé depuis le début des années 2000. Ainsi, des bouquets de radios par satellite proposent désormais aux auditeurs des formules par abonnement en leur promettant des programmes sans publicité et sans aucune forme de censure (Fisher, 2007).
L’encadré 3 synthétise quelques éléments quantitatifs relatifs au secteur de la radio en France et à ses évolutions actuelles. Comme nous allons le voir, le CSA distingue plusieurs catégories de fréquences propres aux différents types d’acteurs (radios périphériques historiques, réseaux nationaux, radios indépendantes, radios associatives, franchisés).
66 Source : Les Dirigeants français et le Changement : Baromètre 2004, ouvrage collectif des associés d’EIM, éditions Huitième jour.
165 Chapitre 4 : Les programmateurs radio, praticiens de l’imitation concurrentielle
Encadré 3 L’évolution actuelle du secteur en quelques chiffres
En 2008, le secteur de l’édition et de la diffusion de programmes radiophoniques représentait plus de 1,3 milliards d’euros de chiffre d’affaires provenant majoritairement des recettes publicitaires (742 millions d’euros soit 6,5% des recettes publicitaires tous médias confondus). Les ressources de Radio France (565 millions d’euros) émanent principalement de la redevance audiovisuelle (88,6% du CA de Radio France). De leur côté, les radios commerciales privées tirent leurs ressources, de façon quasi-exclusive, de la publicité. 67 Le sondage réalisé par Médiamétrie pour la période « Avril-Juin 2009 » révèle que 80,9% des français écoutent la radio quotidiennement (critère d’audience cumulée, lundi-vendredi). La durée d’écoute moyenne s’établit à 180 minutes. Quatre grands groupes (Radio France, NRJ, RTL, Lagardère) concentrent 68,6% de l’audience (critère de part d’audience). Les programmes musicaux drainent, quant à eux, 51,7% de l’audience (critère de part d’audience, PDA du GIE « Les Indépendants » incluse). 68 Les sondages les plus récents mettent en lumière une baisse tendancielle de l’audience des radios musicales nationales au profit des radios généralistes. Cette évolution n’est pas sans conséquences sur les performances financières des radios musicales. Le 28 août 2009, le groupe NRJ annonçait ainsi un recul de 18,5% pour ses activités radio au premier semestre 2009 par rapport à la même période en 2008 69 Pour le cabinet Xerfi et pour de nombreux observateurs du secteur, cette évolution est liée au développement des nouveaux supports d’écoute de musique (baladeurs mp3, streaming, etc.) Les investissements réalisés par les radios musicales sur Internet n’ont, pour l’instant, par réussi à enrayer la chute tendancielle de l’audience. Les entreprises du secteur placent aujourd’hui tous leurs espoirs dans le développement de la radio numérique (les premières fréquences numériques devraient entrer en vigueur à la fin 2009). Depuis 1989, la régulation des radios est sous la responsabilité du Conseil Supérieur de l’Audiovisuel (CSA). Le CSA est chargé d’attribuer les fréquences, d’autoriser l’exploitation d’une radio à l’issue d’un appel à candidature, de veiller à l’expression du pluralisme. Il contrôle le respect des principes fondamentaux du droit de la communication et des règles de la concurrence. Le CSA distingue 5 catégories de radios (hors service public). La catégorie A rassemble les radios associatives (ex : Radio Ici et Maintenant, Radio Béton). Pour l’essentiel, leurs ressources proviennent du fonds de soutien à l’expression radiophonique. Elles peuvent être complétées par des rentrées publicitaires dans la limite de 20% du chiffre d’affaires. La catégorie B rassemble les radios locales commerciales (ex : Champagne FM, Radio Star Marseille). La desserte de opérateurs de cette catégorie ne peut pas excéder 6 millions d’habitants. La catégorie C rassemble les franchisés des réseaux nationaux (ex : NRJ Montpellier). Ces stations ont l’obligation de diffuser un programme d’intérêt local. Elles réalisent donc des « décrochages locaux ». La catégorie D rassemble les radios musicales thématiques à vocation nationale (ex : Fun Radio, Chérie FM). La catégorie E concerne uniquement RTL, Europe 1 et RMC (les trois radios « périphériques » historiques).
67 Source : Etude sectorielle XERFI 700 - Radio, juillet 2009. 68 Source : Médiamétrie, 126 000 Radio, septembre-octobre 2007, www.mediametrie.fr 69 Source : Communiqué de presse de NRJ du 27 aout 2009.
166 Deuxième partie : Méthodologie et résultats
Encadré 3 (suite) L’évolution actuelle du secteur en quelques chiffres
En 2006, les fréquences étaient réparties comme suit :
Catégorie E 15% Catégorie A 24%
Catégorie B 16% Catégorie D 31% Catégorie C 14%
Source : www.csa.fr (données 2006)
Les recettes publicitaires La mesure des audiences radio est réalisée en France par l’Institut Médiamétrie. Chaque année, 126 000 interviews téléphoniques sont menées auprès de la population âgée de 13 ans et plus, entre les mois de septembre et juin. Les résultats sont publiés 70 quatre fois par an. L’audience des radios en Île-de -France donne lieu à une publication spécifique. Depuis 2006, l’audience des radios est également mesurée pendant les mois de juillet et août. Une enquête spécifique, réalisée sur la base de 13 500 interviews téléphon iques est réalisée à cet effet. L’audience des radios locales est mesurée dans le cadre d’une enquête spécifique : Médialocales, dont les résultats sont publiés une fois par an.
Trois principaux critères sont u tilisés pour mesurer l’audience. 1. Le critère d’audience cumulée mesure le nombre d’auditeurs ayant écouté la station au moins une fois dans la journée. Il ne tient pas compte de la durée d’écoute. 2. Le critère de durée d’écoute indique la durée d’écoute quotidienne moyenne des auditeurs d’u ne station. 3. La part d’audience mesure la part que représente l’écoute d’une station dans l’écoute globale du média radio.
70 www.mediametrie.fr
167 Chapitre 4 : Les programmateurs radio, praticiens de l’imitation concurrentielle
L’audience est mesurée par station, mais aussi par agrégat (ex : radios de service public, radios privées commerciales, radios privées associatives, etc.) et par couplage (un couplage étant une offre publicitaire regroupant plusieurs stations).
L’essentiel du chiffre d’affaires des radios commerciales provient de la publicité. L’audience d’une station conditionne ses recettes publicitaires : plus une station est écoutée, plus le prix que les annonceurs seront disposés à débourser pour louer son espace publicitaire (temps d’antenne consacré à la diffusion des spots publicitaires) sera important. L’espace publicitaire des radios est commercialisé par des régies publicitaires, qui sont souvent intégrées à des groupes radios à l’image de NRJ Régie (Groupe NRJ), IP (Groupe RTL), Lagardère Publicité (Groupe Lagardère) ou Skyrégie (Skyrock). Le rapport entre les recettes publicitaires d’une station et sa part d’audience est appelé « Power Ratio ». Il permet de comparer les performances des différentes régies publicitaires.
b) Un bref historique Les sections qui suivent permettront d’établir un bref historique des évolutions de la radio en France.
Au commencement… les radios périphériques Jusqu’en 1981, l’Etat français bénéficie d’un monopole sur la radiodiffusion. Au fil de ses évolutions, la Radiodiffusion française (RDF) devient Radio France. En 1964, la radiodiffusion française est organisée autour de quatre stations : France Inter, France Musique, France Culture et Radio 7 (Cheval, 1997 ; Mantoux et Simmat, 2008). Dans les faits, les auditeurs peuvent accéder à une offre commerciale privée alternative au service public. Depuis de nombreuses années, des stations telles que Radio Luxembourg (devenue RTL), Europe n°1, Sud Radio ou Radio Monte-Carlo font partie du paysage radiophonique français. Ces radios peuvent déroger au droit français parce que leurs émetteurs sont situés à l’extérieur du territoire national 71 . Dans les faits ces radios « périphériques », qui sont censées être des radios étrangères, ont des studios basés à Paris. En outre, la participation financière de l’Etat Français au capital de ces radios 72 , à défaut d’être le signe d’un contrôle total, révèle le caractère fictif de leur indépendance économique et éditoriale.
71 RTL émet ainsi depuis de Grand-Duché du Luxembourg, Europe 1 depuis la Sarre Allemande, Sud Radio depuis Andorre et RMC depuis la principauté de Monaco (en fait, à partir d’une parcelle de territoire monégasque située à Roumoules, dans les Alpes-de-Haute-Provence). 72 Via la Sofirad (RMC, Europe 1 et Sud Radio) ou Havas, présent dans le capital de la Compagnie Luxembourgeoise de Télédiffusion (CLT), actionnaire à 49,9% de RTL (Mantoux et Simmat, 2008).
168 Deuxième partie : Méthodologie et résultats
Les « périph’ » proposent un programme hétérogène mêlant informations, fictions radiophoniques, émissions musicales en public, etc. Avec le développement du transistor, l’essor du « Rock’n’roll », du « Jazz » et de la musique « Pop », des émissions musicales thématiques destinées au jeune public sont mises à l’antenne : « En 1966, parmi les jeunes de 15 à 20 ans, 46% disposaient personnellement d’un récepteur et 62% de cette tranche d’âge écoutaient la radio tous les jours ou presque, souvent pour suivre leur émission préférée : “Salut les copains” sur Europe n°1 » (Cheval, 1997, p.83)
1981 : Apparition des premières radios musicales Dès la fin des années soixante-dix apparaissent des stations pirates, pour la plupart reliées au mouvements étudiants, sociaux, écologistes, syndicaux ou politiques (Brochand, 2006). Ce n’est qu’avec l’ouverture de la bande FM en 1981, et l’attribution des premières autorisations en décembre 1982, que naissent les premières radios locales privées. Soustraites aux lois de l’économie de marché, ces radios ont l’interdiction de diffuser de la publicité jusqu’en 1984. Les stations qui émettaient auparavant de façon pirate doivent souvent se regrouper sur une même fréquence par paquet de deux, trois ou quatre : beaucoup s’y refusent. Dans cette situation de cacophonie, plusieurs stations dépassent allègrement les puissances d’émission autorisées, diffusent illégalement de la publicité, utilisent des fréquences non attribuées et constituent des réseaux pour diffuser un programme essentiellement musical.
Particulièrement visée par les autorités, NRJ, qui lors de sa création, émet depuis une chambre de bonne située près des Buttes Chaumont à Paris 73 , organise en décembre 1984 une manifestation de plusieurs centaines de milliers de personnes au nom de la défense de la musique. La dramatisation est « extrême », « calculée » (Cheval, 1997, p.82) : l’organisation de la manifestation est confiée à DBO, une célèbre agence de publicité. Créée par Jean-Paul Baudecroux, jeune héritier de la marque cosmétique Rouge Baiser, cette « Nouvelle Radio Jeune » s’inspire largement des recettes utilisées par les radios musicales américaines. En quelques mois, Baudecroux a réussi à poser les bases de ce qui deviendra un véritable « Empire des ondes » (Mantoux et Simmat, 2008). Au cœur de la réussite de NRJ, un sens implacable du marketing, un esprit entrepreneurial et des pratiques souvent à la limite de la légalité, mais surtout, des connexions politiques robustes avec le parti socialiste et son jeune porte-parole, Bertrand Delanoë.
73 Le choix de la localisation n’est pas réalisé par hasard : l’endroit est situé en altitude ce qui permet à NRJ de couvrir tout Paris. NRJ abandonnera la « rue du Télégraphe » en février 1984 pour l’avenue d’Iéna dans le VIIIe arrondissement de Paris (Mantoux et Simmat, 2008).
169 Chapitre 4 : Les programmateurs radio, praticiens de l’imitation concurrentielle
Un formatage progressif des radios musicales Comme l’explique ce professionnel rencontré dans le cadre de la recherche, les radios généralistes ont, avec la libéralisation de la bande FM, entamé une coexistence avec des radios musicales de plus en plus thématiques.
« La première étape, c’était “à chacun son émission”, c’était les radios généralistes. Les jeunes avaient leur émission à la fin de journée, les ménagères avaient une émission entre dix heures et midi… Et puis… une émission a été prise et on en a fait une radio. C’était l’étape RJ. Et après, c’est devenu : “à chacun sa radio”. C'est à dire qu’on a pris une émission et on en a fait une radio. Voilà… le “hit” de dix sept heures sur RTL est devenu RJ. Et après “à chacun sa radio”, il y a une étape qui est “à chacun sa musique”. On prend une musique, et on en fait une radio… »
Entretien réalisé avec le directeur des programmes d’un réseau national
Les historiens de la radio (Cheval, 1997 ; Flichy, 2004) s’accordent à relier l’invention du transistor et l’essor du « Rock’n’roll » à la dynamique de spécialisation des radios. En permettant la miniaturisation et la mobilité des postes de radio, le transistor introduit de nouvelles pratiques d’écoute de la musique. Dans ce « foyer juxtaposé », « chaque membre de la famille peut écouter la musique qu’il souhaite dans sa chambre » (Flichy, 2004, p.230). Ce nouveau mode de communication individuelle de la musique qui trouvera son prolongement naturel dans l’arrivée du baladeur permet une spécialisation des contenus radiophoniques. Dans la filiation directe des radios communautaires américaines (Fisher, 2007, p.26) qui dès les années soixante s’étaient engagées dans une dynamique de spécialisation, les stations françaises, avec plusieurs décennies de retard, entament donc la diffusion de contenus musicaux thématiques afin d’attirer des audiences spécifiques.
La renaissance des radios « indépendantes » Au début des années 90, le paysage radiophonique français entre dans une dynamique de concentration. Des réseaux musicaux nationaux rassemblent un nombre croissant de franchisés et tombent progressivement sous le contrôle de grands groupes médias.
Si quelques programmes locaux tels que Vibration à Orléans ou Radio Scoop à Lyon parviennent à concurrencer les réseaux nationaux, de nombreuses radios locales commerciales, héritières des radios libres de 1981, connaissent de graves difficultés financières que certains relient à des manœuvres anticoncurrentielles des réseaux nationaux. Le verbatim suivant est extrait du corpus de la recherche.
170 Deuxième partie : Méthodologie et résultats
« La radio s’est trouvée en dépôt de bilan et a fermé. On a gardé une fréquence, qu’après on a sous traité à Fun. Fun Radio avait lancé son réseau et voulait mettre une antenne ici. Et vu que ça ne se trouve pas comme ça une fréquence, on avait une fréquence qu’on n’exploitait pas. Donc on a loué sa fréquence à Fun jusqu’en… 2001 ou 2002. »
Entretien réalisé avec le programmateur d’une radio indépendante
Des stations locales se résignent alors à rejoindre des réseaux nationaux. D’autres s’organisent et mutualisent leurs ressources. Les tentatives de dumping entreprises par NRJ sur plusieurs marchés locaux et le développement du réseau Rire et Chansons, en dépit des règles fixées par la législation et le CSA, ne seraient pas étrangères à la fronde des radios locales (Brochand, 2006).
« Combien de locales sont mortes quand RJ est arrivé ? L’exemple le plus typique c’est Menton, Platine FM. Radio qui cartonnait, qui marchait très bien et qui avait commencé à avoir des antennes ici. RJ est arrivé, la radio a coulé. En six mois, elle déposait le bilan. RJ vendait des spots à 10 Francs à l’époque. Hein… la radio s’est écroulée en six mois. Et combien de radios sont mortes comme ça ? Voilà… si RJ existe, c’est grâce aux radios locales. Ils ont racheté des fréquences enfin… »
Entretien réalisé avec le directeur des programmes d’une radio indépendante d’Île de France
Crée en 1992, le GIE « Les Indépendants » organise la résistance. Douze radios locales s’associent alors pour proposer aux annonceurs nationaux une offre publicitaire commune aujourd’hui commercialisée par TF1 Publicité. Le GIE rassemble désormais plus de cent vingt stations locales et régionales. Outre les recettes publicitaires qu’il génère, le GIE peut conseiller les radios adhérentes en matière de programmation musicale ou encore négocier des tarifs préférentiels auprès de prestataires (studios d’enregistrement de jingles par exemple). Emblématique de l’essor des radios locales, le groupe Start, construit sur la base du succès de la radio orléanaise Vibration, contrôle aujourd’hui de nombreuses stations 74 . Ces acteurs locaux et régionaux viennent désormais contester le leadership des réseaux nationaux. Le verbatim qui suit est extrait d’un entretien réalisé auprès du directeur de la promotion d’un important label musical.
74 Forum (Centre) Voltage (Paris), Black Box (Bordeaux), Sun (Lyon), Latina (Paris), Wit FM (Bordeaux), Sud Radio (Grand Sud), Ado FM (Paris) et Vitamine (Marseille).
171 Chapitre 4 : Les programmateurs radio, praticiens de l’imitation concurrentielle
« Ces radios de province sont locales, en l’occurrence, ça peut être Radio 6 qui est basée à Calais… ou régionales, Alouette par exemple qui est basée aux Herbiers mais dont la zone d’émission est sur neuf départements… ou Vibration qui est une radio qui est basée à Orléans et qui émet aussi bien à Tours qu’à Cholet, à Blois, à Orléans, jusqu’aux portes de Paris quand il fait beau. Voilà. Ce sont de grosses radios qui sont des radios leaders, toutes dans leur domaine, et qui génèrent énormément d’audience. »
Entretien réalisé avec le directeur de la promotion d’un label appartenant à une major
Les éléments qui viennent d’être présentés permettent de cerner les enjeux actuels du secteur de la radio en France et d’en retracer l’histoire. Notre champ d’étude ne concerne cependant pas l’ensemble du secteur de la radio mais se porte sur une catégorie particulière de radios, les radios musicales, et sur un type particulier d’acteurs, les programmateurs. La section qui va suivre leur est consacrée.
1.2. DU LIEN ENTRE PROGRAMMATION MUSICALE ET STRATEGIE
La population des radios musicales françaises se caractérise par une très grande hétérogénéité, tant en termes de « taille » (des « petites » radios locales coexistent avec des réseaux régionaux et nationaux) que de format (des formats très spécialisés coexistent avec des formats relativement généralistes). Des émissions parlées viennent entrecouper la programmation. S’il est vrai que le modèle du « Zoo morning show » , mettant en scène un animateur principal et des personnages secondaires qui interagissent avec les auditeurs, est directement importé des Etats-Unis, l’existence d’émissions de libre antenne en soirée est une spécificité typiquement française (Glevarec 2005 ; Turner 1993). La présence de ces émissions parlées ne doit pas occulter le fait que l’essentiel du temps d’antenne des radios musicales demeure consacré à la musique (Glevarec 2005).
Comme l’explique Berland (1990, p.182) : « La musique n’est pas le véritable produit d’une radio, mais un moyen utilisé par la radio pour constituer son audience, le produit qui est commercialisé par la radio aux annonceurs en échange de recettes publicitaires. »75 Le plus souvent confiée au programmateur, au directeur de la programmation ou directeur des programmes, la programmation musicale conditionne l’audience de la station et se pose comme l’élément essentiel de la stratégie concurrentielle d’une radio musicale.
75 “Music programming is not the main commodity produced by radio, but is rather the means to the production of radio real commodity – the audience – to be sold to advertisers in exchange for revenue to the broadcaster.” (Berland, 1990, p.182)
172 Deuxième partie : Méthodologie et résultats
Après avoir défini la notion de format musical (point a), nous nous intéresserons au rôle du programmateur dans l’élaboration de la programmation musicale (point b). La mécanique « Top 40 », un ensemble de techniques élaborées aux Etats-Unis dès le début des années cinquante aux Etats-Unis, sera ensuite présentée (point c). Nous conclurons en soulignant la saillance de la thématique de la recherche (l’imitation concurrentielle) dans le champ opératoire étudié (point d)
a) Le format musical et la programmation Accompagnant la dynamique de spécialisation des radios américaines, la presse professionnelle du secteur de la radio et le FCC (l’autorité de régulation américaine) ont mis en place des nomenclatures permettant de classifier les contenus radiophoniques par « formats ».
Une définition de la notion de format En suivant Lee (2004, p.327) on considèrera qu’un format « est composé de titres issus du même sous genre musical (rock alternatif, musique urbaine, country, gospel…) »76 , par extension, le terme est également utilisé pour désigner des contenus parlés (on parle alors de formats « talk »). La classification qui suit (encadré 4) est présentée par Jérôme Delaveau, professionnel du secteur aujourd’hui directeur des programmes de Hit Radio (une station musicale du Maroc). Cette classification s’inspire des nomenclatures américaines. Elle est proposée dans une version plus détaillée en annexe 2.
76 “A format consists of music drawn from closely related sub genres of music [alternative rock, urban, adult contemporary, country, Spanish, gospel) or by extension a talk format such as “sports” or “news/talk” (Lee, 2004, p.327)
173 Chapitre 4 : Les programmateurs radio, praticiens de l’imitation concurrentielle
Encadré 4 Les principaux formats musicaux aux Etats-Unis
Les formats peuvent être classifiés en fonction du genre musical auquel ils se rattachent. Les formats CHR et AC demeurent relativement généralistes. Des sous-formats, plus spécialisés, peuvent leur être rattachés. Les formats Rock/Alternative et Urban renvoient quant à eux à des univers musicaux bien identifiés (respectivement le « Rock » et l’univers « Rap/R’n’B/Soul »). Les formats « Oldies » sont consacrés à des titres de « back catalogue » (titres relativement anciens).
D’après Jérôme Delaveau (Annexe 2)
Les formats ne sont pas seulement des instruments permettant d’analyser le positionnement des stations de radio. Ils contribuent également à la standardisation et à la rationalisation des pratiques radiophoniques (Berland, 1990, 1993), chaque radio définissant son format en fonction de l’audience qu’elle souhaite atteindre. Charge au programmateur de décliner ce dernier au travers de ses choix musicaux. Il serait cependant illusoire d’appréhender le format comme un moule rigide qui s’imposerait au programmateur. Le caractère extrêmement poreux des formats actuels laisse en effet la possibilité au programmateur d’influer largement sur le positionnement stratégique de sa station au travers de ses décisions musicales quotidiennes.
Des positionnements poreux Le Rapport sur la diversité musicale dans le paysage radiophonique établi en 2003 par l’Observatoire de la Musique souligne un « effet d’endogamie » dans les programmations musicales des radios. Sur 31 radios « observées », 19 avaient en commun au moins 50% de leur playlist. Dans une réflexion consacrée aux évolutions dans l’industrie musicale, le praticien Borey Sok (2007) estime que cette standardisation des « playlist » est en grande partie responsable de l’engouement des consommateurs de musique pour le téléchargement de fichiers musicaux sur Internet : « Les jeunes ne se sont pas tournés sur Internet uniquement
174 Deuxième partie : Méthodologie et résultats pour son offre et sa gratuité. La forte concentration des médias a poussé ce public à utiliser le Web comme un médium alternatif aux médias classiques. Des chaînes comme MTV ou MCM et des stations comme RJ ou FU RADIO ont les parts d’audience les plus importantes. Ce qui ne signifie pas que leur programmation soit “riche” et de “qualité”. Au contraire, les playlists se voient de plus en plus réduites. » (Sok, 2007, p.31). Le phénomène semble particulièrement prononcé chez les radios jeunes.
Il peut sembler paradoxal de voir des stations positionnées sur des formats musicaux différents adopter la même programmation musicale. Loin d’augmenter la diversité de l’offre musicale, le formatage a, selon certains auteurs, tendance à diminuer la richesse de l’offre musicale en radio : « l’organisation de l’audience par formats musicaux a pour effet de rationaliser le marché de la radio. Cette démarche pourrait nécessiter une diversification de la production musicale et une programmation plus variée… lorsqu’on étudie l’évolution des formats musicaux, on peut constater que c’est l’inverse qui s’est produit » (Berland, 1993, p.109). Barnard (1989) invoque quant à lui une « orthodoxie professionnelle » combinant formatage et recherche musicale, pour expliquer l’homogénéisation des playlists. Il n’est donc pas rare d’entendre un même titre diffusé sur de très nombreuses radios positionnées sur des formats différents. Comme le résumait en 2004 le publicitaire Christian Blachas (2004) dans un éditorial au vitriol, « la différence se fait [désormais] sur des notions ténues : musique du début des années 80, du milieu des années 80, de la fin des années 80. […] Toujours les mêmes tubes, les mêmes standards. Et toujours cette dictature de la playlist qui enlève à la radio la spontanéité qui est pourtant sa raison d’être » .
Décrire le formatage comme la cause exclusive de l’homogénéisation des programmations musicales serait néanmoins réducteur. L’apparition de titres difficilement classables dans un genre musical particulier rend, en effet, la notion de genre musical de plus en plus relative. Les exemples de fusions « Electro/Rock », « Rap/Rock », « Electro/rap » deviennent de plus en plus fréquents. En 2003 le groupe de Rock Linkin’ Park fait ainsi participer le rappeur Jay Z à son titre Numb. Le titre est alors programmé sur de nombreuses radios parmi lesquelles figurent notamment Europe 2, Ouï FM, Le Mouv’ (formats « Rock »), NRJ (formats généraliste), Fun Radio (format « Dance ») et Skyrock (format « Rap »)77 .
77 Données Yacast.
175 Chapitre 4 : Les programmateurs radio, praticiens de l’imitation concurrentielle
En 2004 c’est le groupe pop Starsailor connait un succès inespéré avec une version « Electro » de son titre « Four to the Floor » élaborée par le DJ Thin White Duke. L’expérience est répétée avec un groupe de « Rock », The Killers, qui par l’intermédiaire de remixes parvient à être programmé sur Contact, une station « Dance » du Nord de la France, dont le directeur des programmes assume les « écarts » de format.
« Il y a de plus en plus de clubs où les DJ’s passent du “R’n’B”. Bon, je pense que là on va arriver vers le bout et je pense que là, un nouveau son finira par arriver. Là nous par exemple, on est beaucoup sur ces fusions “Rock Electro” ou “R’n’B Electro”… parce qu’on sent bien que ça peut remplacer… enfin on y fait attention. »
Entretien réalisé avec le directeur des programmes d’une station indépendante thématique
En 2007, Mika parvient à être l’artiste le plus programmé en mêlant influences Pop, Rock et Electro : la clé d’une programmation sur de nombreuses radios aux formats différents. Le phénomène est désormais renforcé par l’apparition de « Bootlegs », montages réalisés par des internautes combinant plusieurs titres souvent issus de genre musicaux différents.
Cette porosité des positionnements accentue, à notre sens, le rôle du programmateur dans l’élaboration de la stratégie. Loin d’être un simple opérateur, il doit désormais constamment interpréter et questionner le format musical, quitte à s’éloigner, par moments, du positionnement revendiqué par sa station.
b) Le programmateur, un acteur stratégique Le positionnement concurrentiel de la station est donc susceptible d’évoluer au gré des choix musicaux du programmateur. Comme le révèle l’extrait suivant, les changements de positionnement correspondent souvent à l’arrivée d’un nouveau programmateur.
« Je suis revenu il y a trois ans, trois ans et demi. On m’a appelé, j’étais directeur des programmes d’une radio Suisse. On m’dit : “bah est ce que tu voudrais venir faire la même chose chez nous ?” Je dis que je n’avais pas prévu spécialement de revenir mais pourquoi pas. Et donc, quand je suis arrivé, la première année, en programmation : Renault, Axel Red, “Manhattan – Kaboul”. Et là, je joue Renault et Axel Red sur la radio. Et là, j’ai plein de gens qui viennent me voir en me disant : “Eh oh, c’est pas le genre de la maison”. Et moi je dis “ok mais bon, je le joue quand même parce que ça va être un tube énorme et je veux passer des énormes tubes”. Et ça a été marrant quoi… et le disque on l’a joué et effectivement, ça a été un tube énorme. La première année, tu dois forcer le respect par le travail. »
Entretien réalisé avec le directeur des programmes d’une radio indépendante généraliste
176 Deuxième partie : Méthodologie et résultats
Une décision sous influence Les décisions des programmateurs sont souvent largement commentées à l’intérieur des radios. Le caractère artistique et subjectif de la programmation expose parfois ces acteurs stratégiques à de nombreuses critiques. Ces interventions peuvent parfois émaner des dirigeants de la station et être « subies » par les programmateurs.
« Le principe… et c’est vrai que parfois c’est usant… c’est que quoi que tu décides, tu auras toujours 15 000 mecs autour de toi qui seront persuadés qu’ils ont tout compris à la musique et pour eux, tes choix sont forcément nuls. Après quand tu en fais ton métier, tu as une autre approche… tu choisis moins en fonction de tes goûts à toi et plus en fonction de ce que tu imagines des attentes des gens qui écoutent la radio. »
Entretien réalisé avec le programmateur d’une radio musicale indépendante
Les programmateurs font aussi l’objet d’une attention particulière des attachés de presse mandatés par les maisons de disques qui cherchent à voir leurs productions diffusées en radio. Au-delà de la redevance 78 versée par les radios et réparties aux ayants-droits au prorata de leurs diffusions, l’exposition d’un titre en radio est supposée générer des ventes et surtout de déclencher un cercle vertueux. Lorsqu’une radio entre un titre dans sa programmation, le titre gagne des places dans « l’ Airplay » (le classement des titres les plus diffusés en radio). « L’Airplay » est scruté par tous les professionnels du secteur, qu’il s’agisse des producteurs de l’industrie musicale, des distributeurs ou des autres programmateurs. Ce point sera largement traité dans le chapitre 5 de la thèse.
Des registres de programmation divers Au-delà de ces contraintes légales qui s’imposent à toutes les stations, les programmateurs sont susceptibles de concevoir leur métier de différentes façons. C’est à cette conclusion que parviennent Ahlkvist et Faulkner (2002) au travers d’une étude qualitative consacrée à des programmateurs officiant dans des radios américaines. Après avoir réalisé une trentaine d’entretiens, les deux chercheurs parviennent à faire émerger plusieurs « répertoires » qui correspondent à quatre façons très différentes d’appréhender le métier de programmateur.
78 Depuis le 1 er janvier 2008 le taux de rémunération est compris entre 4 et 7% du chiffre d’affaires selon la situation économique de la radio (décision publiée au Journal officiel du 6 novembre 2007). Le taux était précédemment de 4,25% pour toutes les radios.
177 Chapitre 4 : Les programmateurs radio, praticiens de l’imitation concurrentielle
Pour certains répondants, la programmation musicale est avant tout affaire de passion. Il s’agira pour le programmateur de mettre à l’antenne les disques qu’il préfère, de réaliser un travail d’éducation musicale des auditeurs. Cette attitude correspond au « répertoire subjectif ».
Pour d’autres, les instruments marketing permettent à la programmation de gagner en scientificité et en objectivité. La programmation doit alors s’aligner strictement sur une demande des auditeurs supposée pré existante. La programmation de nouveautés est perçue comme un risque inutile, le suivisme clairement revendiqué. Le programmateur n’est que la courroie de transmission de la volonté des auditeurs. Il s’agit du « répertoire objectif ».
Les programmateurs qui s’inscrivent dans le « répertoire populiste » travaillent souvent pour le compte de stations locales communautaires. Leur principal objectif sera de faire évoluer leur format dans le sens des attentes de leur audience locale. Si cette orientation vers les auditeurs les rapproche des programmateurs du « répertoire objectif », ils s’en différencient en ce qu’ils considèrent l’acte de programmation comme une forme d’artisanat où l’empathie doit primer sur l’utilisation des instruments de recherche. Comprendre son audience, la connaître, savoir anticiper sur ses goûts musicaux, constituent alors l’essentiel des qualités d’un bon programmateur.
Enfin, pour une quatrième catégorie d’acteurs, l’essentiel sera de s’aligner sur l’agenda promotionnel des maisons de disques. Les attachés de presse mandatés par les major compagnies sont perçus comme des partenaires de travail. Dans ce répertoire qualifié par Ahlkvist et Faulkner (2002) de « synergique », les objectifs des radios et des maisons de disques sont perçus comme étant similaires et le programmateur cherchera à maximiser la valeur ajoutée promotionnelle de sa station.
La typologie élaborée par Ahlkvist et Faulkner (2002) permet de mettre en lumière les différentes attitudes possibles chez les programmateurs radio. Ces derniers évoluent néanmoins dans un univers normé, reprenant des techniques et des méthodes élaborées pour la plupart aux Etats-Unis.
178 Deuxième partie : Méthodologie et résultats
c) Un univers normé Quel que soit leur format, les radios musicales reprennent en effet très largement la mécanique du « Top 40 », un ensemble de techniques et d’instruments élaborés au début des années cinquante aux Etats-Unis. Conçu aux Etats-Unis au début des années cinquante (Leblebici et al. , 1991) sur des radios comme KLIF (Dallas) ou KOWH (Omaha), le « Top 40 » repose sur la multidiffusion, au cours d’une même journée, d’une liste de titres limitée (« playlist »). Dans ce flux musical, les titres sont entrecoupés de « jingles », l’animateur intervenant de façon parcimonieuse pour annoncer la programmation, lancer les publicités, animer des jeux téléphoniques avec les auditeurs, annoncer quelques informations et surtout, donner une personnalité à l’antenne.
Aux succès du moment, diffusés très fréquemment sur l’antenne, se mêlent des titres plus anciens et des standards ( « golds »). Comme l’expliquent Leblebici et ses collègues (1991), ce modèle économique a permis de réduire considérablement les coûts de fonctionnement des radios musicales, le disc-jockey étant chargé de la réalisation technique de son émission, de l’animation et du standard avec les auditeurs. L’invention du « Top 40 », souvent attribuée à l’américain Todd Storz, fait aujourd’hui office de mythe fondateur chez les professionnels du secteur. A l’instar de pionniers décrits par Stinchcombe (1965) qui façonnent, à leur image, les organisations de leur secteur, Todd Storz a définitivement laissé son empreinte dans le fonctionnement de toutes les radios musicales actuelles.
Todd Storz, le père du « Top 40 » L’anthologie de la radio proposée par Mark Fisher (2007) donne des bases historiques sérieuses à ce mythe. C’est en 1949, dans un paysage radiophonique sinistré par l’arrivée de la télévision que Todd Storz fait l’acquisition de KOWH, une petite station de radio du Nebraska à l’audience confidentielle. L’euphorie des premiers jours laisse rapidement la place à une sévère désillusion : le programme, composé d’émissions parlées (religieuses notamment) et d’émissions musicales thématiques (musique classique, country) peine à attirer de nouveaux auditeurs. Les recettes publicitaires se tarissent.
La légende veut que ce soit en observant les clients d’un restaurant glisser des pièces dans le « jukebox » que Todd Storz ait posé les bases de la radio musicales moderne. « Je me suis rendu compte que les gens écoutaient leur chanson préférée encore et encore… » (Fisher, 2007, pp.8-9). Fasciné, Storz aurait également observé la serveuse du restaurant, qu’on aurait
179 Chapitre 4 : Les programmateurs radio, praticiens de l’imitation concurrentielle pu croire lassée d’entendre les mêmes disques toute la journée, adopter le même comportement à la fin de la journée. Convaincu que la clé du succès résidait dans la répétition des disques préférés des auditeurs, Storz commença par programmer, en 1951, l’émission « Your Hit Parade » entre neuf heures et onze heures, tous les matins sur KOWH, un classement des quarante chansons les plus populaires du moment. Rompant avec la croyance selon laquelle il ne fallait pas diffuser un même titre plus d’une fois durant la même journée, Todd Storz aurait alors demandé aux animateurs de sa tranche matinale de diffuser les chansons classées dans « Your Hit Parade ». D’une émission spécifique, le « Top 40 » est devenu une mécanique d’antenne.
Au-delà de la mécanique du « Top 40 », on doit également à Todd Storz l’introduction d’innovations telles que les jingles chantés entrecoupant les disques, le ton très particulier des animateurs de radios musicales, l’utilisation d’un bruit de machine à écrire en fond sonore des flashs infos et la programmation de ces derniers deux minutes avant l’heure fixe pour délivrer l’information « deux minutes avant tout le monde ».
Le mode de fabrication du flux musical Le mode de fabrication du programme musical est, lui aussi, extrêmement standardisé (Ahlkvist et Fisher, 2000). Dans un ouvrage consacré à la « success story » NRJ, les journalistes Aymeric Mantoux et Benoit Simmat (2008) décrivent le choc des cultures provoqué par l’arrivée d’un consultant américain dans la balbutiante NRJ.
« Dès son arrivée, le premier jour, Fergusson commence par diviser la grande horloge murale du studio en autant de parts qu’il existe d’heures. […] Sur chaque morceau, il colle trois pastilles rouges à distance égale. Parallèlement, il trie les disques et en sélectionne certains qui se voient frappés d’une pastille de la même couleur. Les disques “rouges” sont les tubes du moment à passer souvent et à intervalles réguliers : Stevie Wonder, Peter et Sloane, Gilbert Montagné… Les jours suivants, Fergusson arrive avec de nouvelles pastilles de couleur qui sont insérées entre les rouges. Il y a les “jaunes” pour les nouveaux tubes (en progression), les “violettes” pour des 45 tours dont on ne sait pas bien s’ils peuvent marcher […] et puis les “vertes”, pour les nouveautés de la semaine. Enfin, les “golds”, pour les grands standards que RJ, comme ses concurrentes, diffuse toujours. On programme chaque heure un maximum de “rouges” suivis des “verts”, des “jaunes”, des “violets” et enfin des “golds”. Cookie Dingler (Femme libérée) et Scorpions (Still Loving You) côtoient Jeanne Mas (Toute première fois) puis Jermaine Jackson et Pia Zadora (When The Rain Begins to Fall), et enfin… un bon vieux Dalida par exemple. »
D’après Mantoux et Simmat (2008, p.127)
180 Deuxième partie : Méthodologie et résultats
Ce jour de 1984 à NRJ, Ted Fergusson introduit trois outils, utilisés depuis très longtemps par les FM américaines : la playlist, les taux de rotation et les horloges. Il découple également la fonction de programmation musicale de celle d’animation pour la confier à Max Guazzini, nommé directeur des programmes.
La playlist est une liste de disques qui sont diffusés quotidiennement sur l’antenne. Les programmateurs des radios reçoivent en permanence les dernières productions musicales qu’ils doivent décider d’incorporer, ou non, à leur playlist (Rossman, 2004).
Un même titre est souvent diffusé à plusieurs reprises au cours d’une même journée. On appelle « taux de rotation » le nombre de passages quotidiens. Les titres sont regroupés en plusieurs catégories en fonction des taux de rotation. Comme nous l’explique ce programmateur, un label permet de désigner chaque catégorie (ici les « nouveautés », les « chauds », les « bouillants »).
« Dans la façon dont tu les fabrique avec tes catégories de titres : tu as les “golds”, les nouveautés, tu as les chauds, tu as les bouillants… c’est tout un bazar. »
Entretien avec le programmateur d’une station indépendante
D’ordinaire, les plus grands succès du moment (les « hits ») sont les titres qui sont programmés le plus souvent sur une radio. A l’opposé, les « golds » (titres relativement anciens considérés comme des standards) et les « nouveautés » feront l’objet d’un taux de rotation plus faible.
Dans la programmation quotidienne d’une station, les disques s’enchaînent en fonction d’un canevas très rigide. Véritable squelette de chaque heure, « l’horloge » organise l’alternance des différentes catégories de titres sur l’antenne. Il pourra s’agir, par exemple, de diffuser systématiquement un titre appartenant à la catégorie « bouillants » en début de chaque heure, d’enchainer sur un titre issu de la catégorie « nouveautés », puis sur une intervention de l’animateur, une plage de publicités, un « chaud », une « nouveauté », etc. Chaque catégorie est donc mobilisée un certain nombre de fois au cours d’une même journée, et contient un nombre de titres limité. Le ratio « nombre d’appels quotidiens de la catégorie / nombre de titres contenus dans la catégorie » permet de définir le taux de rotation.
181 Chapitre 4 : Les programmateurs radio, praticiens de l’imitation concurrentielle
La mécanique est résumée, en entretien, par ce programmateur :
« On a une catégorie d’ “actifs” qui tournent toutes les cinq heures… en fait on en a un par heure et il y en a cinq dedans. ous on est une radio quand même “Pop Rock” et pas une radio jeune style RJ. Je pense que sur RJ, ça sera cinq “actif” avec deux appels dans l’heure. Grosso modo ça va revenir toutes les deux heures et demi. Ou même plus que ça… parfois encore plus pour certaines radios jeunes. Il y a une radio qui nous ressemble un petit peu en Alsace. D’après ce que j’ai cru comprendre et décortiquer, ils auraient une playlist de neufs titres en ‘actifs’ avec deux appels dans l’heure. Ce qui fait un retour toutes les 4h30. »
Entretien avec le directeur d’une radio indépendant du ord Est de la France
L’augmentation des taux de rotation constitue une évolution générale depuis plusieurs dizaines d’années : à la fin de l’année 1994, l’entrée en playlist par NRJ du premier succès de Scatman John avec un taux de rotation de six passages quotidiens faisait figure de fait rarissime. Aujourd’hui, les programmateurs de NRJ n’hésitent plus à diffuser les plus grands « hits » du moment à un rythme pouvant aller jusqu’à dix-huit passages jour. Malgré cette évolution générale il convient de remarquer que les taux de rotation sont susceptibles de varier considérablement d’une station à une autre. Les radios positionnées sur des formats adultes ont ainsi tendance à pratiquer des taux de rotation plus faibles tandis que les radios destinées à des publics plus jeunes proposent des programmes beaucoup plus répétitifs. Ces pratiques sont en cohérence avec la durée d’écoute habituellement plus longue pour les radios adultes que pour les radios jeunes. Dans une étude consacrée aux radios musicales américaines, Rossman (2003) constate, par ailleurs, que les radios détenues par de grands groupes de communication (Clearchannel, Emmis Communication) ont tendance à pratiquer des taux de rotation plus élevés que les stations indépendantes.
La recherche musicale Comme l’explique Turner (1993), l’instinct du programmateur a progressivement laissé place à des méthodes supposées plus « objectives » pour élaborer la playlist. Des instruments de « recherche musicale » ont ainsi été développés pour « minimiser les risques en évitant l’innovation » (Ahlkvist et Fisher, 2000, p.304). Deux outils sont particulièrement utilisées : l’auditorium et le « call out » (Ahlkvist et Faulkner, 2002).
L’auditorium consiste à rassembler des auditeurs pour leur faire évaluer les différents éléments qui composent le programme (Ahlkvist et Fisher, 2000). Passionné de radio, Marc Fisher (2007, pp.271-272) nous plonge dans l’ambiance d’un auditorium.
182 Deuxième partie : Méthodologie et résultats
« Une cinquantaine de personnes avaient pris place autour de tables sur lesquelles on retrouvait des sucreries, des bouteilles de Coca Cola, des Brownies et de petits boitiers noirs électroniques sur lesquelles on pouvait lire l’inscription “Analyseur de perception”. Il n’y avait ni DJ, ni directeur de la programmation dans la salle. Ces cinquante personnes, recrutées par téléphone et sélectionnées parce qu’elles étaient représentatives de l’audience de la station sur des critères de sexe, d’âge, d’appartenance ethnique et de préférences musicales allaient définir la playlist de WBIG, la station « senior » du district de Washington.
Ces personnes étaient payées 65 dollars pour cette séance qui allait durer deux heures trente. Elles allaient passer deux heures à écouter des sept cent clips sonores, de sept secondes chacun, tirés des titres les plus populaires de leur jeunesse et de leur vie d’adulte.
Elles ne savaient pas quelle station avait financé l’opération… mais la plupart d’entre elles s’en douteraient assez vite. Elles allaient entendre les Beatles et Carly Simon, les Supremes, Fleetwood Mac, Elvis, Abba, encore les Beatles, à nouveau des productions Mottown. Extrait sonore après extrait sonore, jusqu’à ce qu’elles aient l’impression d’avoir écouté tous les disques jamais enregistrés. Elles seraient probablement surprises de reconnaitre la plupart de ces chansons à partir d’extraits aussi courts. A l’aide de leur boîtier individuel, on leur demanderait d’attribuer une note, comprise entre zéro et cent, afin d’indiquer si elles souhaiteraient entendre la chanson à la radio ou si l’écoute de cette dernière les feraient immédiatement zapper.
Les câbles des ordinateurs auxquels étaient reliés les boîtiers disparaissaient sous une cloison séparant la salle de réunion d’une autre pièce. Une autre pièce dont la porte était fermée. Une autre pièce dans laquelle les dirigeants de WBIG, assis, dégustaient des club sandwichs en scrutant l’écran géant sur lequel apparaissaient les résultats en temps réel. »
D’après Fisher (2007, pp.271 272)
Reproduits auprès de différents groupes, les « auditos » sont souvent pratiqués une fois par an par les stations musicales. Ils permettent surtout de définir la base de « golds ». Si certains titres, comme ceux appartenant au répertoire des Beatles, constituent des classiques incontournables, les choix peuvent s’avérer plus difficiles lorsqu’il s’agit de sélectionner des titres moins connus. Le recours aux « auditos » permet ainsi de trier le bon grain de l’ivraie. Marc Fisher (2007) révèle que lors de sa campagne électorale de 1992, Bill Clinton a pris soin de faire tester différents hymnes de campagne possibles. Le candidat démocrate a ensuite adopté une chanson du groupe Fleetwood Mac intitulée « Don’t Stop Thinking About Tomorrow » dont les résultats aux tests se sont avérés meilleurs que ceux obtenus par n’importe quel autre titre (à l’exception des chansons des Beatles).
183 Chapitre 4 : Les programmateurs radio, praticiens de l’imitation concurrentielle
Signe des temps, Hillary Clinton, avant de solliciter les suffrages des sympathisants démocrates lors des primaires de 2008 a adopté une autre méthodologie en demandant aux internautes de choisir parmi une dizaine d’hymnes de campagne potentiels, tous pré- sélectionnés par des consultants. A l’issu d’une opération très médiatisée, c’est finalement la chanson « You and I » de Céline Dion qui a été retenue.
Introduits en France au début des années quatre vingt-dix, le « call out » procède de la même logique que l’auditorium. Différence notoire, il s’agit d’une enquête réalisée par téléphone sur un panel d’auditeurs représentatifs du public de la station. Après avoir écouté un court extrait musical, le sondé doit répondre à une série de questions visant à évaluer la notoriété du titre, l’engouement ou la lassitude qu’il suscite chez les auditeurs, etc. Dans une interview télévisée accordée en 1993 à l’émission « Radio Mag » de MCM, Jean-Eric Valli, alors président de la station orléanaise Vibration, précise son utilisation de ces tests :
« Ça nous apporte des informations sur certains morceaux de musique qu’on passe depuis longtemps et pour lesquels on ne sait plus vraiment si l’auditeur les aime ou pas. En revanche, ça ne nous sert pas du tout sur les nouveautés, sur euh… C’est à nous d’investir en quelques sortes. De faire un pari, de voir si ça plait aux auditeurs, de jouer un morceau si ça leur plait, de le retirer si ça ne leur plait pas. Mais ça nous donne des informations… par exemple une info toute simple, c’est de savoir quand les gens en ont marre d’entendre un morceau. ous, en temps qu’animateurs de radio, on entend le morceau toute la journée… donc on en a très vite marre. L’auditeur écoute deux ou trois heures par jour, par séquences de vingt minutes… il en a peut être marre lui au bout de trois mois. »
Source : « Reportage consacré à Vibration (Orléans) », Radio Mag, MCM, 1993.
Très onéreux, ces outils ont longtemps été réservés aux stations appartenant à des grands groupes médias qui pouvaient ainsi réaliser des économies d’échelles (Ahlkvist et Faulkner, 2002). Comme le relate Tristan Jurgensen, directeur de Médiapanel sur le site d’information professionnelle « RadioActu », certains d’entre eux ont d’ailleurs fait le choix de réaliser ces enquêtes en interne. C’est par exemple le cas du pôle radio France du groupe RTL.
184 Deuxième partie : Méthodologie et résultats
« Mediapanel a été créée dès 1997 par Axel Duroux, alors patron de RTL2, pour réaliser premières études musicales de cette radio. En 1998, les équipes de Fun Radio et RTL2 ont été rapprochées et les services de Mediapanel ont été étendus à l’antenne de Fun Radio, avec – en plus des activités de recherche initiales – la création d’une unité d’études qualitatives pour travailler sur le contenu des matinales et des libre antennes. Forte de cette expérience sur les deux radios musicales du groupe, Médiapanel est devenue à partir de 2001, une filiale étude à part entière : l’élargissement de ses services à RTL et la construction d’un terrain d’appels interne d’une vingtaine de positions lui ont permis d’acquérir l’autonomie, l’expérience et la réactivité nécessaire à son développement. »
Source : « Mediapanel – Entretien avec Tristan Jurgensen, directeur exécutif », RadioActu, 25 juillet 2006
En France, ces outils deviennent de plus en plus utilisés par les stations locales qui n’hésitent plus à s’associer afin de mutualiser les coûts.
Une information partagée Si les programmateurs des réseaux nationaux les plus importants peuvent parfois être associés au développement de certains artistes, l’essentiel des disques est envoyé par les attachés de presse des labels. Chaque jour, les programmateurs reçoivent ainsi des envois promotionnels émanant des maisons de disques. Ces colis contiennent des disques qui, souvent, ne sont pas encore sortis dans le commerce (certains d’entre eux ne sortiront jamais).
« C’est les maisons de disques qui envoient les disques. Elles signent les disques, les envoient aux radios, et si le titre marche, elles le mettent en vente… si le titre ne marche pas, elles le mettent à la poubelle. »
Entretien réalisé auprès du programmateur d’une radio musicale indépendante
Les radios locales se sont souvent plaintes de ne pas avoir accès aux mêmes titres que les grands réseaux nationaux. Depuis 2004, le syndicat national des éditeurs phonographiques (SNEP) a mis en place le dispositif Tite-Live (également connu sous le nom de « Music Center ») qui permet aux médias d’avoir accès à la quasi-totalité des catalogues via Internet. Les radios, nationales comme locales, peuvent ainsi avoir accès à un vaste catalogue en version numérique.
Pour construire leur « playlist », les programmateurs musicaux des radios ont souvent les yeux rivés sur le classement des meilleures ventes de disques. Cette information est partagée par l’ensemble des acteurs du secteur (Anand et Peterson, 2000). Etablis en France par l’institut Ifop, les classements de ventes d’albums, de singles et de compilations sont mis en ligne le mardi soir sur Internet. Ils sont repris par l’hebdomadaire « Musique Info Hebdo »,
185 Chapitre 4 : Les programmateurs radio, praticiens de l’imitation concurrentielle principal titre de la presse professionnelle, tous les vendredis. Les classements des meilleures ventes ne constituent cependant par l’unique source d’information utilisée par les programmateurs. Ceux-ci peuvent en effet consulter le classement des titres les plus diffusés en radio ( « Airplay ») réalisé en France par la société Yacast, les critiques de la presse musicale nationale et internationale, les argumentaires émanant des attachés de presse, etc.
Encadré 5 Yacast : Un partenaire incontournable de l’industrie radiophonique
Créée en 2000, la société Yacast est aujourd’hui un partenaire incontournable des acteurs de l’industrie radiophonique. Spécialisée dans la fourniture d’études musicales et publicitaires, elle a développé une technologie de reconnaissance informatique d’extraits sonores et visuels. 36 radios ont donc été « mises sur écoute » par l’entreprise qui réalise la « pige » musicale et publicitaire (annexe 3). Le panel comprend également les principales chaînes de télévision généralistes et musicales. Les services de l’entreprise sont utilisés par l’autorité de régulation pour veiller au strict respect des obligations de diffusion de quotas de chansons francophones et de nouveaux talents par les radios ou par les annonceurs qui souhaitent obtenir des informations relatives aux investissement publicitaires réalisés sur chaque média. Ils sont également utilisés par l’industrie musicale pour suivre les diffusions musicales sur les radios et télévisions. Depuis 2001, le classement Muzicast est réalisé sur la base des diffusions musicales en radio pour le compte du Syndicat National des Editeurs Phonographiques (SNEP). Il tient compte de l’audience des stations du panel. Les radios abonnées au service Yacast peuvent également consulter la liste des titres diffusés sur les radios concurrentes. Dans le cadre d’une diversification de ses activités, l’entreprise propose aujourd’hui aux radios de diffuser leurs programmes sur Internet. La technologie de reconnaissance musicale est, par ailleurs, au cœur d’un service permettant aux utilisateurs de téléphones mobiles de télécharger en direct la sonnerie correspondant au titre diffusé sur leur radio préférée.
Source : « Les écrans inspirent encore les Start up », L’Expansion, mars 2006.
Des contraintes légales Enjeu culturel, la programmation musicale a souvent été au cœur du débat politique. Dès les années soixante, les producteurs s’inquiètent du recul de la chanson française dans les programmes radiophoniques et appellent les pouvoir publiques à engager une réflexion afin de garantir la diversité musicale (Brochand, 2006). Le 1 er février 1994, l’amendement Pelchat,
186 Deuxième partie : Méthodologie et résultats voté par l’assemblée nationale dans le cadre de la discussion autour de la loi Carignon, impose un quota de 40% de chansons françaises entre 6h30 et 22h30. La moitié des diffusions doit alors être réservée à de jeunes talents 79 . Appliquée dès le 1 er janvier 1996, cette loi est dans un premier temps dénoncée par les grandes radios musicales dont le succès est avant tout fondé sur la diffusion de disques anglo-saxons. Des aménagements sont ensuite prévus par le législateur (loi du premier août 2000) afin de permettre à certaines stations de déroger au régime général. Les radios jeunes peuvent ainsi diffuser 35% de titres francophones dont 25% de nouveaux talents ; les radios spécialisées dans la « mise en valeur du patrimoine musical » peuvent quant à elle diffuser 60% de titres francophones dont 10% de nouvelles productions avec au minimum un titre par heure en moyenne. Depuis 1996, le CSA adresse régulièrement des mises en demeure pouvant déboucher sur des sanctions financières aux radios ne respectant pas les quotas de diffusion d’œuvres francophones 80 .
Les développements qui précèdent permettent de dresser un panorama relativement complet du champ d’étude retenu. Nous allons voir qu’il constitue un bon point d’observation pour une étude qui, comme la nôtre, est consacrée aux phénomènes d’imitation concurrentielle.
d) Moutonnières les radios musicales ? La porosité des formats musicaux a été évoquée plus haut : en 2003, 19 des 31 radios étudiées par l’Observatoire de la Musique avaient en commun au moins 50% de leur playlist. Pour expliquer cette convergence, on pourra se référer aux travaux de chercheurs américains qui empruntent aux néo-institutionnalistes DiMaggio et Powell (1983, 1991) le concept d’isomorphisme institutionnel. Il s’agit alors de montrer qu’en situation de forte incertitude, l’utilisation des mêmes outils (la recherche musicale par exemple), la mobilisation des mêmes consultants et des mêmes sources d’information (la presse professionnelle et « l’ Airplay » notamment) constituent des sources d’isomorphisme (Berland, 1993 ; Rothenbuhler, 1985 ; Turner, 1993). Les contraintes environnementales, la réglementation en matière de diffusion de quotas de chansons françaises ou l’effort de promotion entrepris par les maisons de disques, constituent également des éléments d’explication possibles des similitudes de programmation entre les radios.
79 Loi du 30 septembre 1986 modifiée. Lettre du Conseil Supérieur de l’Audiovisuel n°113, 1999. Un « nouveau talent » est un artiste ayant entamé sa carrière après 1974 et n’ayant pas encore obtenu deux disques d’or sur deux albums distincts. 80 Ces décisions sont publiées au Journal Officiel et sur le site Internet du Conseil Supérieur de l’Audiovisuel (www.csa.fr).
187 Chapitre 4 : Les programmateurs radio, praticiens de l’imitation concurrentielle
Les professionnels français de la radio ont souvent invoqué une autre raison, plus proche de la thématique de la recherche, en dénonçant les tendances mimétiques de leurs concurrents. Cette controverse prend d’autant plus de sens que des phénomènes d’imitation ont déjà été notifiés chez les radios américaines (Greve, 1995, 1996, 1998 ; Schnaars, 1994). Comme le relèvent Ahlkvist et Fisher (2000), l’imitation est extrêmement courante dans l’industrie des médias. Sous couvert de « nothing succeeds like success » (Ahlkvist et Fisher, 2000, p.304), les programmateurs de télévision, eux aussi, s’inspirent souvent de ce qui a été expérimenté par les concurrents (Bielby et Bielby, 1994). Des comportements similaires ont été observés chez les journalistes (Gans, 1979 [2004 ; Sigal, 1973). Interrogeant des reporters sur leur manière de décider des sujets à couvrir, le chercheur Thimothy Cook (2005, p.79) s’était ainsi vu répondre : « Tu commences avec une idée d’histoire pour la journée… en regardant dans le Washington Post, dans le ew York Times, dans le Washington Times, ou dans USA Today. Je dois lire cinq journaux par jour. Je reçois le Post à la maison et c’est la première chose que je lis… donc ça me permet de savoir ce qui fera la une du jour. »81
Une polémique Le service proposé par la société Yacast, qui permet aux managers de connaître la liste exhaustive des disques diffusés sur l’antenne de leurs concurrents, a souvent été désigné par les grandes radios musicales comme un instrument facilitant le parasitisme. Ainsi, en février 2004, NRJ (alors première radio musicale de France en nombre d’auditeurs quotidiens) dénonçait dans un communiqué de presse « le clônage de sa programmation » opéré par certaines radios locales et appelait les pouvoirs publics à engager une réflexion « afin que les instruments mis en place pour mesurer la diversité musicale ne deviennent pas, par la livraison à tout le marché de données qui relèvent du secret de fabrication, un instrument d’appauvrissement du pluralisme musical. »
Des affirmations dénoncées par les stations locales qui expliquaient, chiffres à l’appui que « les deux tiers des 18 radios indépendantes du panel Yacast présentent une programmation musicale originale par rapport à RJ, pour la moitié ou plus de leurs diffusions musicales du semestre » avant de conclure de façon laconique : « Les accusations de RJ sont pour le
81 “You start out with an idea of the story of the day… by looking at the Washington Post, the ew York Times, the Wall Street Journal, the Washington Times, USA Today. I guess I read five papers every day. I get the Post at home and it’s the first thing I see, soi t shapes my impressions of what might be the flow of news today.” (Cook, 2005, p.79)
188 Deuxième partie : Méthodologie et résultats moins affectées d’une sérieuse « marge d’erreur » 82 . Plus récemment 83 , Frédéric Pau, alors directeur des programmes de NRJ revendiquait sa posture d’innovateur en affirmant « démarrer de nombreux jeunes artistes » .
Quelques éléments explicatifs Plusieurs caractéristiques propres aux décisions de programmation musicale permettent d’expliquer la récurrence de l’imitation concurrentielle dans le champ opératoire étudié : la réversibilité des actions, leur faible intensité et leur spécificité.
Nous allons utiliser la grille proposée par Bensebaa (2000) dans le cadre d’un article consacré aux concepts d’actions et de réactions stratégiques pour les mettre en évidence. Le chercheur attire notre attention sur quatre caractéristiques des actions stratégiques influant sur une possible imitation par des concurrents : irréversibilité, spécificité, innovation, et intensité. Ces quatre caractéristiques et leurs effets sur l’imitation concurrentielle sont détaillés dans le tableau suivant.
Tableau 5 Caractéristiques des actions stratégiques et imitation
Définition Impact sur l’imitation
Irréversibilité de l’action Les actions engagées ont un coût Imitation faible élevé et sont irréversibles.
Intensité de l’action Les actions sont perçues par les Imitation faible concurrents comme menaçantes.
Spécificité de l’action Les actions font partie du Imitation forte « répertoire habituel » des firmes présentes dans le secteur. Les concurrents peuvent les comprendre facilement.
Caractère innovant L’action exploite l’incertitude en Imitation forte de l’action introduisant une nouvelle variable dans le jeu de la concurrence. D’après Bensebaa (2000)
De par leur coût minime, les décisions de programmation musicale peuvent être considérées comme réversibles. Elles font, par ailleurs, partie de l’activité habituelle d’une radio musicale et pourront être facilement comprises et interprétées par les concurrents. En ce sens, elles pourront être considérées comme fortement spécifiques.
82 12 février 2004, Communiqué de Presse du SIRTI, « Les chiffres démentent les accusations de NRJ » 83 Musique Info Hebdo daté du 21 septembre 2007.
189 Chapitre 4 : Les programmateurs radio, praticiens de l’imitation concurrentielle
Prise de façon isolée, il est peu probable qu’une décision d’entrée en « playlist » puisse se traduire par une remise en cause significative des positions concurrentielles dans le secteur. L’intensité des décisions de programmation étudiées dans cette recherche peut donc être présumée faible. Sans trancher, a priori , sur le caractère innovant d’une décision de programmation, il semble raisonnable d’avancer que la réversibilité, la spécificité et la faible intensité des actions étudiées seront de nature à faciliter leur imitation. Une autre caractéristique, propre à toutes les activités de médias peut également expliquer la fréquence de l’imitation concurrentielle dans les décisions de programmation musicale : l’activité d’un média rend particulièrement observable les choix réalisés dans l’organisation par ses concurrents ce qui facilite l’imitation (Greve, 1998).
La première partie de ce chapitre nous a permis de présenter notre champ d’étude : les radios musicales françaises et leurs programmateurs. Comme nous allons le voir, ce champ d’étude a fortement influencé les choix méthodologiques qui ont été réalisés pour mener à bien notre étude empirique. La section qui va suivre leur est consacrée.
2. METHODES DE RECHERCHE
En dépit de son faible poids économique, le secteur étudié semble être particulièrement pertinent dans la perspective d’une recherche consacrée à l’imitation concurrentielle. Afin d’étudier les pratiques d’imitation concurrentielle des programmateurs et d’analyser la façon dont elles contribuent à la stratégie des radios musicales, nous avons déployé une méthodologie qualitative. Cette section nous permettra de faire le point sur les orientations méthodologiques de la recherche. Avant de les présenter dans le détail, les quelques éléments qui vont suivre nous permettrons de préciser l’unité d’analyse retenue dans cette recherche.
Unité d’analyse de la recherche Nous avons ici décidé de nous focaliser sur un aspect de la stratégie des radios musicales : les décisions d’entrées en « playlist » réalisées par les programmateurs. Intimement liées au format, les décisions de programmation constituent le principal élément qui influe sur le positionnement concurrentiel des radios musicales. Certains pourraient s’étonner de voir abordée la thématique de l’imitation concurrentielle au travers de « si petites décisions ». Si, prises isolément, les décisions de programmation musicale ne peuvent prétendre au qualificatif de stratégique, ces dernières, lorsqu’elles sont appréhendées de façon globale,
190 Deuxième partie : Méthodologie et résultats concourent à la définition du format musical et donc du positionnement concurrentiel de chaque station. Elles entrent donc, à notre sens, dans le champ du management stratégique.
Les décisions d’entrées en « playlist », de par leur observabilité, leur fréquence et leur réversibilité, sont facilement imitables (et comme nous le verrons, souvent imitées) par les concurrents. Deux éléments supplémentaires nous ont conduits à nous intéresser à ces décisions. D’une part, elles sont facilement comparables d’une organisation à une autre et permettent à un observateur extérieur d’identifier assez facilement les comportements mimétiques (à la différence des autres éléments du programme qui peuvent être partiellement imités et partiellement adaptés). Elles sont, d’autre part, directement imputables à un acteur, le programmateur.
Organisation de la section méthodologique Cette section, qui précède les chapitres de restitution des résultats, permettra de présenter et de justifier les orientations méthodologiques de la recherche. Nous insisterons sur la cohérence méthodologique que nous avons essayé de donner à ce travail.
Définie par Richard et Morse (2007) comme l’alignement entre la stratégie de recherche, les orientations guidant la collecte des données et celles qui guident leur analyse, la notion de cohérence méthodologique invite le chercheur à penser globalement son projet de recherche. « Les mêmes données – nous expliquent les deux auteurs (Richards et Morse, 2007, p.35) – pourront être interprétées différemment par des chercheurs n’utilisant pas les mêmes méthodes, et des techniques d’analyses similaires (le codage par exemple) employées par des chercheurs ne s’inscrivant pas dans la même perspective pourront aboutir à des résultats très différents parce que chaque chercheur a sa propre manière de penser. »84
84 “The same sorts of data will be interpreted differently by researchers using different methods, and similar data analysis techniques (e.g. coding) employed by researchers using different methods will have quite different analytic results, because each researcher is thinking a different way.”
191 Chapitre 4 : Les programmateurs radio, praticiens de l’imitation concurrentielle
Schéma 11 Cohérence méthodologique
Stratégie de recherche (section 2.1) Collecte des données (section 2.2)
Analyse des données (section 2.3)
La section 2.1 nous permettra de présenter notre stratégie de recherche : celle-ci consiste en une démarche abductive s’inscrivant, d’une part dans le courant de la stratégie en pratiques (Chanal, 2009 ; Golsorkhi, 2006a ; Jarzabkowski, 2004, 2005 ; Jarzabkowski et Spee, 2009 ; Jarzabkowski et al. , 2007 ; Johnson et al. , 2003 ; Johnson et al. , 2007 ; Whittington, 2002, 2006) et mobilisant, d’autre part, les techniques et les procédures de la théorie enracinée (Richards, 2005 ; Strauss et Corbin, 2004).
La section 2.2 reviendra sur la collecte des données. Comme nous le verrons, plusieurs types de sources ont constitué le corpus de la recherche. Au-delà des entretiens semi directifs (Demers, 2003 ; Romelaer, 2005) que nous avons réalisés auprès des programmateurs, des interviews ont été menées avec des observateurs privilégiés du secteur. Pour collecter ces données, nous avons essayé de tenir compte des spécificités du champ étudié. Ces données déclaratives sont complétées par l’utilisation de données secondaires et par des contacts plus informels avec les professionnels du secteur.
La section 2.3 sera, quant à elle, consacrée au processus d’analyse des données. Une analyse thématique du corpus a été pratiquée à l’aide du logiciel NVivo 8. Le codage que nous avons réalisé s’est déroulé en plusieurs phases (codage signalétique, codage descriptif, codage analytique) qui marquent une progression dans l’abstraction et la conceptualisation. Une fois l’analyse achevée, un double codage a été réalisé afin de garantir la fiabilité du processus.
192 Deuxième partie : Méthodologie et résultats
2.1. STRATEGIE DE RECHERCHE
Notre stratégie de recherche se caractérise par son positionnement dans le courant de la stratégie en pratiques (Chanal, 2009 ; Golsorkhi, 2006a ; Jarzabkowski, 2004, 2005 ; Jarzabkowski et Spee, 2009 ; Jarzabkowski et al. , 2007 ; Johnson et al. , 2003 ; Johnson et al. , 2007 ; Whittington, 2002, 2006). Cette orientation n’est pas sans conséquences sur les fondements épistémologiques de notre projet. Nous partageons l’idée, développée par Johnson, Langley, Melin et Whittington (2007) que les méthodologies qualitatives sont plus adaptées que des approches quantitatives fondées sur l’utilisation de bases de données ou l’envoi de questionnaires pour capter l’essence des pratiques stratégiques et comprendre les raisons individuelles qui les sous-tendent.
Si la thématique générale de notre recherche, l’imitation concurrentielle, n’est pas un sujet inexploré en Sciences de Gestion, l’orientation « par la pratique » que nous avons souhaité donner à ce travail marque une rupture importante par rapport à la littérature existante. Sans nous couper des travaux antérieurs (nous avons fait le choix d’une démarche abductive), il nous a donc semblé indispensable de nous ouvrir très largement aux préoccupations quotidiennes des programmateurs radio afin de comprendre leurs pratiques d’imitation concurrentielle. Notre volonté de laisser émerger des idées et des concepts du terrain nous a amenés à faire le choix d’une démarche de recherche inspirée de la théorie enracinée.
La théorie enracinée nécessite la mise en œuvre d’un très long processus de collecte des données et conduit à réaliser une analyse minutieuse de ces dernières. Malgré sa lourdeur, cette démarche nous a semblé constituer un passage obligé dans notre étude des pratiques d’imitation concurrentielle.
a) Une approche tournée vers les pratiques Les raisons qui nous ont amené à étudier les phénomènes d’imitation concurrentielle sous l’angle des pratiques et des raisons individuelles qui les sous-tendent ont largement été développées dans les chapitres qui précèdent. Cette démarche qui consiste à étudier la stratégie au travers de ce que « les gens font » (Whittington, 2006, p.627) et ambitionne d’apporter des micro fondations à des théories plus agrégées (Golsorkhi, 2006b) est celle du courant de la stratégie en pratiques.
193 Chapitre 4 : Les programmateurs radio, praticiens de l’imitation concurrentielle
Les fondements épistémologiques de la stratégie en pratiques Les présupposés épistémologiques de l’approche par les pratiques ont longtemps été occultés par l’objet d’étude original qu’elle proposait. Selon Chia et MacKay (2007), ce courant de recherche obéit pourtant à quatre grands piliers. (1) La stratégie en pratiques considère d’abord que toutes les pratiques sont réductibles aux actions des acteurs stratégiques dont ils sont supposés être les initiateurs. Le choix d’un niveau d’analyse « microscopique » constitue un des traits caractéristiques de cette approche, par opposition aux niveaux d’analyses plus agrégés adoptés dans des recherches centrées sur des populations d’organisations (niveau méso-économique) ou dans des recherches consacrées au contenu de la stratégie. Chia et MacKay (2007), voient dans l’emphase donnée aux individus, à leurs pratiques et aux régularités qui en découlent l’héritage de l’individualisme méthodologique. (2) Le niveau microscopique qui est adopté ne doit pas conduire à un traitement asocialisé et décontextualisé des pratiques d’imitation concurrentielle. Il s’agira ainsi de valoriser aussi bien l’individu qui pratique, que l’environnement social, organisationnel et inter-organisationnel, de cette pratique (Gomez, 2006) : les praticiens de la stratégie seront alors observés comme des individus sociaux, interagissant dans un contexte où se fabrique la stratégie. Si les pratiques sont le produit des individus, elles les dépassent car elles sont socialement, culturellement et institutionnellement enracinées (idée de trans-individualité). (3) On trouve également dans l’orientation « stratégie en pratiques » l'idée que le monde social est explicite et peut être décrit, de façon relativement stable, par des catégories, des concepts, des représentations s'appuyant souvent sur des données qualitatives. (4) Les chercheurs se revendiquant de ce courant de recherche ont, enfin, tendance à considérer que l’action humaine (et donc la stratégie) procède d’une intentionnalité (même si certains éléments de la stratégie peuvent échapper aux acteurs). Une conception « cartésienne » qui n’implique pas que les décisions stratégiques soient forcément rationnelles, au sens de la théorie néo-classique, mais qui postule que des rationalités sont à l’œuvre dans la formulation de la stratégie.
Une mise en pratique… de la stratégie en pratiques Le tableau suivant montre comment ces quatre principes, identifiés par Chia et MacKay mais imprégnant l’ensemble des travaux s’inscrivant dans l’école de la « stratégie en pratiques », ont été intégrés à la présente recherche.
194 Deuxième partie : Méthodologie et résultats
Tableau 6 Les fondements de la stratégie en pratiques dans la recherche
Principe Application à la recherche