le blog de Jean-Florent Rérolle

Aller au contenu | Aller au menu | Aller à la recherche

dimanche 23 août 2015

L'information non financière est vitale pour l'investisseur

Les investisseurs sont souvent considérés comme des monstres froids uniquement intéressés par les performances financières à court terme des entreprises. Il s’agit naturellement d’une caricature et de nombreuses études ont montré que la part des informations qualitatives qu’ils utilisent dans leurs décisions d’investissement est loin d’être négligeable. On peut même penser que cette part s’est accrue avec l’avènement de l’économie digitale dont la propension à perturber les équilibres concurrentiels a rendu moins pertinente l’information purement financière.

La dernière étude en date est celle du cabinet Ederman (Qualitative Information Study) dont les observations confirment celles qui ont été faites il y a un an par KPMG et l’AFG à l’occasion d’une enquête sur la prise en compte du long terme par les gérants d’actifs. Ces études montrent que :

  • Les gérants ont besoin d’informations qualitatives pour construire leurs modèles et valider leurs décisions d’investissement. Leur perception de la trajectoire stratégique de l'entreprise constitue le socle de leur évaluation.
  • Ils ont besoin d’avoir des informations de nature stratégique : opportunités et risques du modèle de business, durée et ampleur des avantages concurrentiels, vision du management, stratégie d’allocation du capital, etc.
  • Leur source d’information privilégiée est le top management de l’entreprise (CEO et CFO) et non la communauté des analystes sell-side dont la crédibilité a fortement diminuée. Le dialogue direct avec les directions générales permet aux gérants d’apprécier la vision stratégique, la qualité et la détermination du management.

Ces constats ne sont pas surprenants lorsque l’on se met un instant à la place d’un gérant actif fondamental (value ou growth) et que l’on cherche à comprendre les défis auxquels il est confronté pour effectuer ses choix d’investissement.

On sait que la valeur d’une entreprise est l’addition de sa valeur pré-stratégique et de la valeur des opportunités de croissance. Techniquement, et en prenant comme référence le modèle simplifié de Modigliani Miller, les paramètres les plus importants de la valeur sont la rentabilité de l’actif économique en place, le coût du capital, le taux d’investissement, la rentabilité économique des nouveaux investissements et la durée de l’avantage concurrentiel. La valeur de l’entreprise réside pour une grande part dans ce que l’on appelle la valeur terminale, c’est à dire la valeur des flux de liquidités disponibles au-delà de l’horizon du plan retenu.

D’apparence simples, ces indicateurs sont en réalité très complexe à évaluer car ils expriment avant tout une réalité stratégique mouvante qu’il appartient à l’observateur d’apprécier le plus objectivement possible.

Jusqu’à l’avènement de l’économie digitale, le cadre stratégique dans lequel évoluaient les entreprises était assez stable. Leurs frontières étaient claires et les échanges qu’elles réalisaient avec leur environnement étaient faciles à comprendre et à évaluer : des services ou des produits contre une rémunération pécuniaire. L’avantage concurrentiel qui est le fondement de la création de valeur (ce que Warren Buffet appelle « the moat », c'est-à-dire les douves du chateau) était, pour reprendre l’expression de Michael Porter, « décisif, durable et défendable ».

Aujourd’hui, la situation est autrement plus complexe. Les entreprises doivent souvent créer -ou participer à- un écosystème en acceptant temporairement de le nourrir « gratuitement ». Cet impératif se traduit par un transfert de valeur qui peut être de nature monétaire mais aussi intangible (transfert d’information, d’idées, de réputation…). Elles espèrent en retour bénéficier de la valeur créée par cet écosystème. La nature souvent intangible des échanges et des actifs en place, l’incertitude du solde de cet échange, la rapidité avec laquelle les positions concurrentielles se bâtissent et s’effritent sont autant de facteurs qui rendent les paris sur l’avenir toujours plus complexes et incertains. Si le concept d’avantage concurrentiel reste pleinement d’actualité, il est patent que sa nature est de plus en plus transitoire comme l’écrit Rita McGrath.

La détermination de la valeur dépend donc largement de l’appréciation portée sur la vision stratégique du management, sa capacité à saisir les opportunités autant (voire plus) qu’à améliorer l’existant, à protéger ou plutôt renouveler constamment ses avantages concurrentiels et à mettre en place un business model gagnant. La performance financière actuelle est de moins en moins indicative de la performance future. L’évaluation d’une opportunité d’investissement doit nécessairement s’appuyer sur une information non financière de nature stratégique et opérationnelle. L’analyse stratégique prend le pas sur l’analyse financière.

Or, force est de constater que les entreprises ont du mal à répondre à ce besoin d’information. Les raisons de cette difficulté sont multiples.

  1. Il y a tout d’abord le cas de celles qui n’ont pas vraiment de plan pour créer de la valeur sur le long terme. Satisfaites d’une position concurrentielle qui semble ne pas évoluer, elles ne se sentent pas vraiment menacées et se sont installées dans un certain confort stratégique. Autre situation, celles qui n’ont pas suffisamment d’imagination pour se projeter et concevoir une nouvelle phase de développement ou des projets de diversification et se sont enfermées dans un immobilisme stratégique. Il y a enfin celles qui sont tétanisées devant l’ampleur des révisions stratégiques auxquelles il faudrait procéder et qui, devant les risques commerciaux, humains ou financiers encourus, préfèrent temporiser en espérant que la situation se retourne en leur faveur. Toutes ces attitudes sont souvent encouragées par des systèmes de rémunération privilégiant les performances à court terme. Ces postures sont rapidement percées à jour par les investisseurs lors de leurs discussions avec les dirigeants.
  2. Il y a ensuite celles qui refusent de s’exprimer pour des raisons de confidentialité. Elles craignent de porter à la connaissance de leurs concurrents des informations critiques dont l’exploitation pourrait avoir des conséquences négatives pour leur position concurrentielle. Il s’agit d’une objection classique à la transparence de l’information (financière et non financière). Pour compréhensible qu’elle soit, cette attitude est critiquable. Nous vivons dans un monde ouvert où l’information circule nécessairement que l’entreprise le veuille ou non. En outre, si les avantages concurrentiels sont faciles à répliquer, il est probable qu’ils n’en sont pas ! Enfin, le dialogue requis n’est pas à sens unique. Les entreprises qui le pratiquent savent tout l’intérêt que recèlent les discussions avec leurs investisseurs. Ces derniers ont souvent une vue plus complète de l’industrie grâce aux multiples interactions qu’ils organisent avec ses acteurs. Ils peuvent aussi apporter des idées nouvelles tirées de leur connaissance d’autres secteurs. Cet échange permet aux managers de mieux comprendre les modèles mentaux de leurs interlocuteurs et de bénéficier de leur analyse pour nourrir leur propre réflexion stratégique et financière.
  3. Enfin, il y a toutes les entreprises qui pensent (et disent) avoir un plan de création de valeur à long terme, mais qui éprouvent des difficultés pour l’exprimer clairement dans un langage compréhensible par les investisseurs. Ces difficultés peuvent provenir d’une réflexion stratégique insuffisamment aboutie en termes de création de valeur. En effet, trop souvent l’exercice de planification néglige des paramètres essentiels à la pleine compréhension de la valeur créée : la génération de cash-flows, le coût du capital ou les options réelles. Cette situation reflète la séparation traditionnelle entre le monde de la stratégie et celui de la finance, deux disciplines qui se parlent rarement. Elle peut aussi traduire une certaine incompréhension de la notion même de valeur et un manque d’empathie à l’égard des investisseurs. On en veut pour preuve les maladresses de communication régulièrement commises par des entreprises ou les accusations stériles sur l’irrationalité ou le soi-disant court-termisme des marchés.

Dès lors quelles sont les conditions à remplir pour l’élaboration d’une communication non financière digne de ce nom, c’est-à-dire capable d’aider les investisseurs à mieux déchiffrer l’avenir de l’entreprise ?

Tout d'abord, les informations non-financières doivent être pertinentes afin de permettre à leurs destinataires de comprendre et de suivre dans le temps le projet stratégique de l’entreprise, son impact en termes de valeur financière et les risques associés à cette rentabilité espérée. De nature avant tout prospective, ces éléments découlent directement du processus de planification stratégique qui met en évidence les éléments clés de la valeur sur l’ensemble des dimensions de l’entreprise. Une approche de type Balanced Scorecard peut être particulièrement utile à cet égard. Elle consiste à établir des liens logiques entre plusieurs dimensions clés de l’entreprise (clients, organisation et processus internes, innovation, capital humain et finance) et, pour chacune d’entre elles, à déterminer les objectifs et les mesures opérationnelles les plus critiques pour les atteindre. Cette démarche est, dans sa philosophie, très proche du rapport intégré.

La seconde qualité attendue est d’être pédagogique. La création de valeur est par définition complexe. Elle résulte de l’interaction entre de multiple facteurs (l’IIRC parle des « capitaux » : physique, humain, intellectuel, financier, naturel, social...)au sein d’un modèle de développement (business model). Ce processus se transforme au cours du temps car il doit s’adapter à un environnement économique et concurrentiel mouvant, porteur de risques et d’opportunités. Le management doit expliquer clairement quelle est sa vision (ou au minimum sa théorie) sur la façon dont l’entreprise va créer, amplifier ou renouveler ses avantages compétitifs. Cette présentation holistique, intégrée et pédagogique est loin d’être évidente à concevoir. Elle suppose que le management ait bien intégré dans sa réflexion (et son action) la logique de la valeur du point de vue des investisseurs. Elle requiert également une certaine concision car le message s’adresse à une communauté d’individus dont la capacité d’analyse est limitée par le temps.

La troisième qualité est d’être équilibrée. Les investisseurs savent bien qu’une aventure industrielle n’est pas un long fleuve tranquille. Les entreprises qui essayent de masquer les mauvaises nouvelles ou leurs difficultés en les noyant sous un flots de bonnes nouvelles, en minorant leur importance ou leur conséquences ou, encore pire en les dissimulant ou en les niant risquent leur réputation. Ce type de comportement ne trompe pas l’investisseur professionnel. Il peut même s’agacer qu’on le prenne pour un imbécile. L’entreprise gagne la confiance des marchés en adoptant une communication honnête.

Enfin, la dernière qualité est d'être contrôlable. Les informations non-financières sont souvent des informations « soft » qui se distinguent des informations financières la plupart du temps « hard ». Les premières sont généralement narratives, hétérogènes, multivoques et invérifiables alors que les secondes sont numériques, uniformes, univoques et vérifiables. La « soft » information semble jouer un rôle clé dans la perception des investisseurs. Ainsi, Baruch Lev note dans son livre "Winning investors over" que la « hard » information (résultats et actif comptable) ne compte que pour 10% de la variation du cours observée à l’occasion des annonces de résultats. Cela dit, les investisseurs préfèrent clairement les données chiffrées. L’un des enjeux est donc de « durcir » autant que faire se peut les informations « soft ». Les investisseurs sont prêts à accepter de parier sur une trajectoire stratégique pour autant que des étapes soient définies afin de s’assurer des progrès réalisés. Il appartient donc au management d’identifier quelques indicateurs clés opérationnels (et non-financiers) mesurant le succès obtenu dans les différentes dimensions clés de la stratégie de la valeur.

Si les investisseurs ont tout à gagner d’une information plus riche et pertinente, l’entreprise y trouve largement son compte. Au-delà d’un meilleur alignement entre son cours et sa valeur intrinsèque, le processus d’élaboration de cette information permet au management et à son conseil d’administration de clarifier les enjeux et de bâtir un consensus clair sur la vision et la strategie de l’entreprise. Cet objectif n’est pas anodin lorsque l’on sait que seul 34% des administrateurs considèrent avoir une compréhension parfaite de la stratégie de leur entreprise et que 29% déclarent ne pas comprendre pleinement les risques auxquels celle-ci doit faire face...

lundi 22 juin 2015

Integrated reporting is taking off in France

Here we are! The idea of integrated reporting is significantly growing in France. It does not mean that numerous integrated reports will be published next year, but that most major French companies have now assimilated the idea. Most are at least pondering what it could mean for them over the next few years.

It was about time. According to the IIRC, 3,000 companies worldwide have published a report qualified "integrated". Even though the practices remain heterogeneous and are sometimes far from the original philosophy, this number illustrates a growing interest for this new approach. Integrated reporting has already become a reality for some years in South Africa where it is recommended in the governance code. It also won its nobility title in the UK where, since October 2013, boards are requested to publish an annual "Strategic report " which guidelines are largely inspired by the IIRC framework. And many other countries have expressed a strong interest in the concept.

The International Corporate Governance Network (formed by the world’s largest investment funds which collectively represent $26 trillion of AUM) has been interested for several years in providing shareholders with non-financial information. It clearly states in its 2014 General Governance Principles that: "The Board should provide an integrated report that puts historical performance into context and portrays the risks, opportunities and prospects for the company in the future, helping shareholders understand a company’s strategic objectives and its progress toward meeting them."

France is still lagging behind with only a handful of so-called integrated reports published in 2015 (like Engie, Vivendi or Eurazeo PME whose reports reflect the diversity of the possible approaches). Given the importance of the non-resident shareholders in the share capital of French listed companies and especially the Anglo-Saxon funds, it is urgent to accelerate the renovation of shareholder information, catch up with the international evolution and capitalize on our companies’ growing interest in this idea.

The starting point is a very mundane and old observation: the information currently provided to investors is not always sufficient to help them take their investment decisions properly (see The KPMG Survey of business reporting, 2014). The information is too complex, accounting focused, huge, historical and technical to allow investors to answer the only critical question they have: Will the company’s management strategy contribute to creating extra value over time beyond that already embedded in the share price?

Answering this question is particularly challenging in a digital economy where value creation relies on the company's ability to extract the greatest possible economic benefits from its ecosystem and constantly recreate an increasingly transient competitive advantage. Boundaries of companies are becoming porous and value migration from and to the environment must be identified and ideally quantified.

That is the reason why major active investors meet at least once a year with the management board of companies in which they have invested. This direct dialogue primarily focuses on medium and long-term corporate strategy and the risks and opportunities in their business models, while the review of financial results comes later, as recently identified in a KPMG / AFG study.

Listed companies must realize that aligning their share price on their intrinsic value depends on their ability to provide investors with relevant information about their short, medium and long term value creation strategy.

This is why integrated reporting (<IR>) is an important source of inspiration for CFOs and IROs. This initiative is in line with the reports and reflections of many professional organizations (ICAEW, ICAS) and institutions (IASB, FASB, FRC) about the necessary adaptation of financial information (see for example: Towards clear and concise reporting, FRC, 2014). Adopted by the IIRC in 2013, <IR> is probably the best synthesis of what should be a real strategic communication when it comes to value creation. The reason why France remains behind is because the debate has been continuously conducted on the basis of three mistakes.

The first one concerns the objective of <IR>. The subtitle of the original framework was "Communicating value in the 21st century". The word "value" is particularly ambiguous and misleading. Some ideologists see in integrated reporting yet another argument to denounce “shareholder value”, which they depict as antithetical to the "true" value supposed to be delivered to the other stakeholders of the company. According to this black an white story, there would be on one side the good guys, concerned with the long-term viability of the company, and on the other side, the greedy short-term shareholders.

Actually, if we look at facts, we realize that this is a highly prejudiced view. Contrary to common belief, share price is indicative of the long-term value of the company. It is true that traders are primarily interested in short-term performance and influence daily prices. They constantly monitor the news flow and bet on how the market could react on short-term issues. When share prices depart too significantly from the company’s fundamental value, long-term investors show up. They invest less frequently than traders do, but when they decide to build a position after a careful due diligence review, their daily investment is 7-30 times higher than traders, and this occurs over a period of 10 to 15 days. Therefore, these sophisticated investors, whose decisions are based on long-term expectations of the quality of a company’s management and the strength of its business model, are the main driver of share prices over time.

In a liberal economy where real and financial markets perform reasonably well, shareholder value is not contradictory with "stakeholder value". How can one think that long-term shareholder value could be maximized with unhappy clients, demotivated staff, strangled suppliers and rebelled communities? It is in the shareholders’ best interest to satisfy these stakeholders enough to get their by-in and ensure future expected returns.

The second mistake, less ideological but equally pernicious, is to conceive <IR> as a merger between the sustainability report and the financial report. For sustainability proponents it is a long time awaited legitimization of the CSR function that has always struggled to find its place within the company. This idea of merged document builds on the previously mentioned idea that the "true" value is not shareholder value and that more relevant indicators of essentially non-financial nature should be developed and communicated. This approach reflects a misunderstanding of the mechanisms of value creation. Long-term financial value is based on a complex mix of tangible and intangible resources of the company properly allocated to support its strategic vision. It depends on the positioning of the company in a moving and easily disrupted business web, with risks as well as opportunities. It is this complex mechanism that should be presented to the market in a synthetic and convincing manner and with an understandable language. The question is not to promote classical CSR’s indicators, which for the most part have no real relationship with shareholder value, but to identify soft information representative of financial value creation, alongside hard information.

The third misconception is based on the belief that a standardized approach should be put into place. It is an illusion. Indeed, value creation comes from the company’s transient competitive advantages, which are by definition unique. How can uniqueness be standardized? An assurance given by an independent auditor could be considered, but it would remain limited to the few key indicators that the company decides to reveal to the market. The IIRC framework is an inspiration for companies. It should not be a corset. At most, a "comply or explain" logic could be implemented.

These three misunderstandings must be dissipated in order to give way to a more positive and realistic view of the integrated report. Companies must realize that this report is intended primarily for investors and meets an essential need in terms of financial market information. They must understand that this is a matter of investors relations, not sustainable development. The objective is to create and promote a more rigorous "equity story".

Still skeptical? Consider the benefits of integrated reporting which are beginning to be fairly well documented.

First, it favors the alignment of the fundamental value and the share price. The first studies carried out show that its adoption by a company changes its shareholders’ ecology: a growing number of long-term investors replacing short-term investors. Hence, a greater influence is given to the fundamental component of the share price. It does not necessarily mean that its short-term volatility is reduced, but in the medium and long term, the likelihood of a gap between fundamental value and the share price is lower.

In addition, and this is a well-documented fact, information asymmetry is reduced when the weight of "soft information" is increased relative to that of the "hard information" (the latter explains only 10% of the price changes after the announcement of results). This leads to more reliable analysts’ forecasts, a reduction of opacity discount, a positive effect on the cost of capital, etc. However, a balance must be maintained between the two categories of information to give credibility to the process. Replacing hard information by soft information could create a distrust reaction in a financial community who wants to ensure that the company meets its anticipated milestones regularly.

The second category of benefits affects the business itself. Experience shows that integrated thinking (a necessary preliminary step towards integrated reporting) is not trivial. It changes the culture of a company by building bridges between the organization’s silos, identifying the relationship between non-financial performance and shareholder value and instilling the perspective of the investor in key decisions of the company. In the logic of Shared Value developed by Michael Porter, companies can also rationalize financial decisions related to their ESG strategy.

Overall, the process of strategic thinking and rigorous capital allocation decisions can be improved. This cultural change has a positive impact on shareholder value, and if properly explained to the markets, it will be increasingly integrated into the investors’ expectations.

But be careful! This approach is not as simple as it seems. First, it requires having a clear plan of how the company will create value over short, medium and long term, identifying key parameters to measure the execution progress, and setting up an organization and tools to integrate shareholder perspective in major capital allocation decisions and risk management. The aphorism created by the French poet Nicolas Boileau: "What is well understood is expressed clearly and the words to say it come easily" applies perfectly. Before communicating, companies must reach a clear consensus on their value creation strategy.

But a clear value creation project is not sufficient. The company must also develop a strong empathy towards investors who are the main targets of this communication. They must understand the mental models of their investors, which, contrary to the belief of many leaders, are not reducible to financial analysts’ views. It is through a genuine dialogue with fundamental investors that a company can understand their expectations, check its ability to meet them and decide what to do in case those expectations are far off what the company can reasonably do.

The integrated report is not an additional standard or fashion. The success of this approach requires a discipline and a mobilization of all the organization around long-term value creation. Led by the CFO, it requires the full support of the top management and should be put under the control of the Board of Directors that is ultimately responsible for the quality of information given to the market.

jeudi 4 juin 2015

Le décollage du rapport intégré

Cà y est ! L’idée du rapport intégré semble bien installée dans les entreprises françaises. Cela ne veut pas dire que nous allons assister à une publication massive l’année prochaine, mais il est à présent rare de trouver une entreprise qui n’en ait jamais entendu parler et qui ne réfléchisse pas à ce qu’elle doit faire dans les années qui viennent.

Il était temps. Si l’on en croit les représentants de l’IIRC, 3000 entreprises dans le monde publieraient un rapport qualifié d’« intégré » . Même si les pratiques sont très hétérogènes et quelquefois très éloignées de la philosophie originelle, ce nombre illustre l’intérêt grandissant pour cette approche. Le reporting intégré est déjà une réalité depuis quelques années en Afrique du Sud où le principe de son élaboration figure dans le code de gouvernance. Il a acquis ses titres de noblesse au Royaume-Uni où, depuis octobre 2013, les conseils d’administration doivent publier un « Strategic report» dont les lignes directrices sont largement inspirées du référentiel de l’IIRC. Et bien d’autres pays ont manifesté un intérêt marqué pour ce concept.

L’international Corporate Governance Network qui est formé par les plus grands fonds d’investissement au monde (et qui représente collectivement 26.000 milliards de dollars de capitaux) s’intéresse depuis plusieurs années à la dimension non financière de l’information donnée aux actionnaires. Il indique clairement dans ses principes généraux de gouvernance que

« le Conseil d’Administration devrait fournir un rapport intégré qui replace les performances historiques dans leur contexte et qui présente les risques, les opportunités et les perspectives de la société, afin d’aider les actionnaires à comprendre les objectifs stratégiques de l'entreprise et les progrès réalisés dans leur atteinte ».

La France est encore en retard avec seulement une poignée de rapports intégrés publiés en 2015 (dont Engie et Vivendi qui représentent bien la diversité des approches possibles). Compte tenu de l’importance des capitaux étrangers sur le marché français et singulièrement des anglo-saxons dans le capital de nos entreprises (voir le Bulletin de la Banque de France sur la détention par les non-résidents des actions des sociétés françaises du CAC 40 à fin 2013 ), il est urgent d’accélérer cette rénovation de l’information actionnariale et de capitaliser sur l’intérêt naissant de nos entreprises pour cette idée.

Tout part d’un constat banal et ancien: les informations habituellement communiquées aux investisseurs ne sont pas toujours suffisantes pour leur permettre de prendre leurs décisions d’investissement en toute connaissance de cause (voir The KPMG Survey of business reporting, 2014). L’information qui leur est donnée est trop complexe, comptable, volumineuse, jargonnesque et rétrospective pour qu’ils puissent aisément répondre aux deux questions qui les intéressent avant tout :

  1. Le projet stratégique de l’entreprise est-il intrinsèquement créateur de valeur ? et,
  2. Cette création de valeur sera-t-elle, à terme, anticipée correctement par la communauté financière ?

Cette difficulté s’est renforcée avec l’avènement de l’économie digitale. La création de valeur repose désormais sur la capacité de l’entreprise à extraire le plus possible d’avantages économiques de son écosystème et à renouveler sans cesse ses avantages concurrentiels toujours plus éphémères. Les frontières de l’entreprises sont de plus en plus poreuses et les échanges de valeur avec son environnement doivent être identifiées et, idéalement, quantifiées.

C’est la raison pour laquelle la plupart des fonds qui pratiquent une gestion active rencontrent au moins une fois par an le management des entreprises dans lesquelles ils investissent. Ce dialogue direct porte prioritairement sur la stratégie à moyen et long terme des entreprises et sur les risques et les opportunités de leurs modèles d’affaires, bien avant la revue des résultats financiers comme l’a récemment identifié une étude KPMG/AFG.

Les entreprises cotées doivent réaliser que l’alignement de leur cours de bourse sur leur valeur intrinsèque passe par leur capacité à donner aux investisseurs une information pertinente sur leur stratégie de création de valeur.

Dans cette perspective, le rapport intégré est une source d’inspiration importante pour les directions financières. Cette initiative s’inscrit dans la lignée des rapports et réflexions menées par de nombreuses organisations professionnelles (ICAEW, ICAS) et institutions (IASB, FASB, FRC) sur la nécessaire adaptation de l’information financière (Voir par exemple : Towards clear and concise reporting, FRC, 2014). Adoptée par l’IIRC en 2013, elle est probablement la meilleure synthèse sur ce que pourrait être demain une communication stratégique autour de la valeur.

Si la France est en retard dans cette prise de conscience, c’est parce que le débat a été constamment mené sur la base de trois méprises.

La première concerne l’objectif du rapport intégré. Dans la version originelle du cadre de référence, le sous-titre du document était « Communicating value in the 21st century ». Le terme « valeur » est particulièrement ambigu et peut facilement être interprété de manière spécieuse. Certains idéologues (anticapitalistes ?) ont vu dans le rapport intégré un argument supplémentaire pour dénoncer la valeur actionnariale qui serait antinomique de la « vraie » valeur, celle qui reviendrait aux autres parties prenantes de l’entreprise. Il y aurait d’un coté la bonne valeur, celle des partenaires de l’entreprise, celle du long terme, et de l’autre, la mauvaise valeur, la valeur actionnariale, la valeur du court terme.

Les lecteurs de ce blog savent que ce n’est pas vraiment la conception de l’auteur de ces lignes… (mais je suis d’accord pour reconnaître que ma position a des aspects un peu idéologiques… !). Contrairement à ce que l’on dit ou l’on pense, le cours de bourse est révélateur de la valeur à long terme de l’entreprise car il exprime avant tout les anticipations des actionnaires fondamentaux.

Les cours sont certes largement influencés quotidiennement par les traders intéressés avant tout par les performances à court terme des entreprises. Ils peuvent s’écarter temporairement de la valeur intrinsèque car les gérants qui mettent en œuvre des stratégies fondamentales investissent moins souvent que les traders. Mais, lorsqu’ils décident de bâtir une position, leur investissement quotidien est 7 à 30 fois plus important que les traders, et ce, sur une période de 10 à 15 jours . Ce sont ces investisseurs longs qui redressent ou font plonger les cours. Leurs décisions reposent sur des anticipations à long terme largement déterminées par leur analyse de la qualité du management ou la pérennité du modèle d’affaires.

L’étude de leurs critères de décision permet de soutenir que valeur actionnariale n’est nullement contradictoire avec la «valeur partenariale ». Comment peut-on penser que la valeur à long terme pour l’actionnaire pourrait être maximisée avec des clients lésés, des collaborateurs démotivés, des fournisseurs étranglés et des communautés révoltées ? Il est de l’intérêt bien compris des actionnaires de favoriser le développement de ces parties prenantes pour s’assurer les rendements attendus à terme.

La deuxième méprise, moins idéologique mais tout aussi pernicieuse, consiste à voir le rapport intégré comme la fusion du rapport de développement durable au sein du rapport financier. Pour certains, il s’agit d’une légitimation de la fonction RSE qui a toujours éprouvé des difficultés à trouver sa place dans l’entreprise. Cette idée de fusion s’appuie sur l’idée précédente que la « vraie » valeur n’est pas la valeur actionnariale. Il faudrait ainsi mettre en place des indicateurs plus pertinents de nature essentiellement non financière.

Cette approche repose sur une incompréhension de ce qu’est la création de valeur. La création de valeur financière à long terme s’appuie nécessairement sur une allocation des ressources tangibles et intangibles de l’entreprise au service d’une vision ou d’une stratégie. Elle dépend du positionnement de l’entreprise dans un réseau d’affaire mouvant, porteur de risques autant que d’opportunités. C’est cette mécanique complexe qu’il convient de présenter au marché d’une manière synthétique et convaincante dans un langage qui soit compréhensible.

Il s’agit donc moins de privilégier la RSE et ses indicateurs dont la plupart n’ont pas vraiment de relation avec la valeur actionnariale que de promouvoir la « soft information » aux cotés de la « hard information ».

Troisième méprise : celle qui consiste à imaginer qu’il soit possible un jour de standardiser l’approche. C’est une illusion. Il s’agit de décrire les avantages concurrentiels de l’entreprise qui sont à l’origine de la création de valeur. Même transitoire, l’avantage concurrentiel est, par définition, unique. Chaque entreprise doit donc s’exprimer selon sa sensibilité, ses caractéristiques propres et ses contraintes de confidentialité.

Une assurance donnée par un auditeur indépendant pourrait être envisagée, mais elle resterait limitée aux quelques indicateurs clés que l’entreprise déciderait de dévoiler au marché. Le cadre de référence de l’IIRC est un guide destiné à inspirer les entreprises et non un standard destiné à les corseter. Tout au plus pourrait-il obéir un jour à une logique du « comply or explain ».

Ces trois malentendus doivent donc être dissipés pour laisser la place à une vision plus positive et réaliste du rapport intégré. Les entreprises doivent réaliser que ce rapport est destiné avant tout aux investisseurs et qu’il répond à un besoin essentiel d’information du marché financier. Elles doivent comprendre qu’il s’agit d’une question de relation investisseurs et non pas de développement durable. Que la problématique est avant tout financière, ceci n’étant pas contradictoire avec une expression non quantitative. Il s’agit de présenter une « equity story » plus rigoureuse.

Les entreprises encore sceptiques doivent également prendre en considération les bénéfices du rapport intégré qui commencent à être assez bien documentés.

Tout d’abord, cette démarche favorise l’alignement de la valeur fondamentale et du cours de bourse. Les premières études réalisées montrent que son adoption se traduit par une augmentation du nombre d’investisseurs de long terme au détriment des investisseurs de court terme, ce qui donne une influence plus importante à la composante fondamentale des cours. Cela ne veut pas forcément dire que leur volatilité à court terme soit réduite, mais, à moyen et long terme, cela réduit la probabilité de création d’écarts importants entre valeur fondamentale et cours.

A cet impact positif vient s’ajouter celui déjà largement documenté de la réduction de l’asymétrie d’information lorsque le poids de la « soft information» est accru par rapport à celui de la « hard information » (cette dernière n’explique que 10% des variations du cours qui suivent l’annonce des résultats) : prévisions plus fiables des analystes, réduction des décotes d’opacité, effet positif sur le coût du capital, etc. Cependant, un équilibre doit être maintenu entre les deux catégories d’informations pour crédibiliser la démarche. Il ne saurait être question de remplacer les secondes par les premières sous peine de susciter la méfiance des investisseurs qui veulent pouvoir s’assurer régulièrement que l’entreprise respecte le plan de marche annoncé.

La seconde catégorie de bénéfices touche l’entreprise elle-même. L’expérience montre que la mise en place d’un rapport intégré n’est pas anodine. Elle permet de changer la culture d’une entreprise en jetant des ponts entre les silos de l’organisation, en identifiant les liens qui existent entre les performances non financières et la valeur actionnariale et en instillant la perspective de l’investisseur dans les décisions clés de l’entreprise. Dans la logique de la Shared Value développée par Michael Porter, les entreprises peuvent également rationaliser financièrement les décisions liées à leur stratégie ESG.

Au total, le processus de réflexion stratégique et la rigueur des décisions d’allocation du capital peuvent être améliorées. Ce changement culturel a un impact positif sur la valeur actionnariale et, correctement expliqué aux marchés, il ne manquera d’être intégré dans les anticipations des investisseurs.

Mais attention ! Cette démarche n’est pas aussi simple qu’elle parait. Elle nécessite tout d’abord d’avoir un projet clair, de savoir quelle est la valeur fondamentale que ce projet peut permettre de créer à court, moyen et long terme, d’identifier les paramètres clés qui en permettront l’exécution, de mettre en place une organisation et des processus qui permettent d’intégrer la perspective actionnariale dans les grandes décisions d’allocation du capital, et de gestion des risques.

L’aphorisme de Boileau « ce qui se conçoit bien s’énonce clairement et les mots pour le dire arrivent aisément » s’applique parfaitement. Avant de communiquer, les entreprises doivent parvenir à un consensus clair sur leur stratégie de création de valeur.

Un projet de création de valeur clair est insuffisant. L’entreprise doit également développer une forte empathie à l’égard des investisseurs qui sont les cibles prioritaires de cette rénovation. Elles doivent comprendre les modèles mentaux de leurs investisseurs qui, contrairement à ce que pensent beaucoup de dirigeants ne sont pas réductibles aux commentaires des analystes financiers. C’est en dialoguant avec les investisseurs longs et en les faisant interroger par des intervenants externes garantissant l’anonymat de leurs réponses que l’on peut comprendre leurs attentes afin de voir si l’on est capable d’y répondre et à défaut de décider de ce qu’il convient de faire.

Le rapport intégré est donc tout sauf un standard supplémentaire ou une mode. Le succès de la démarche nécessite une discipline et une mobilisation de tous en faveur de la création de valeur à long terme. Impliquant l’ensemble des directions de l’organisation, son élaboration en vue d’une communication auprès des investisseurs sera naturellement pilotée par le Directeur financier. Elle se fera avec le support de la direction générale et sous le contrôle du Conseil d’Administration responsable en dernier ressort de la qualité de l’information donnée aux marchés. Elle ne sera pas forcément évidente pour tous, mais ses bénéfices à la fois internes et externes en valent la peine.

samedi 6 décembre 2014

L'évaluation financière d'une société : une subjectivité à encadrer

Les deux dernières lettres Vernimmen (#126 et 127) traitent de la pratique de l'expertise independante en France. Tous ceux qui s'intéressent aux opérations financières de marché et aux attestations d'équité doivent impérativement les lire !

Les critiques qui sont faites aux experts indépendants dans le cadre de la réglementation AMF peuvent assez facilement être étendus à bien d'autres types d'évaluation. En effet, evaluer une entreprise est nécessairement subjectif.

Il faut dire que les définitions classiques de la valeur constituent un alibi bien commode. Par exemple, la juste valeur est définie par les normes lAS / IFRS comme

« le montant pour lequel un actif pourrait être échangé, ou un passif éteint, entre des parties bien informées et consentantes dans le cadre d'une transaction effectuée dans des conditions de concurrences normales ».

Il s’agit donc du résultat d’une négociation totalement conjecturale entre des parties hypothétiques. Le travail de l’expert consiste à se mettre à la place du marché, à imaginer le résultat d’une confrontation entre une offre et une demande. Il doit comprendre le fonctionnement du marché pour l’incarner ou le remplacer !

La complexité de cette tâche ne semble pas le dérouter ou l'intimider. Le marché financier est pourtant très efficient. C'est une gigantesque machine à assimiler à une vitesse considérable les informations les plus diverses pour leur donner le sens qui permettra au prix de se former. Le cours d'une entreprise est le résultat des anticipations d’une multitude d’intervenants sur l’avenir de l’entreprise. La reproduction en chambre du fonctionnement du marché est donc particulièrement ardue!

Le risque pour l'expert est évident : c’est celui de voir son jugement professionnel vicié par la subjectivité. Pour éviter ce risque, il existe trois garde-fous :

  1. La théorie financière : les techniques d’évaluation s’appuient sur des approches théoriques rigoureuses. La recherche financière donne des grilles de lectures puissantes pour l’analyse de la valeur des sociétés.
  2. L’observation des acteurs : les investisseurs qui comptent, c’est-à-dire ceux qui ont une véritable influence sur les cours, ont une conception de la création de valeur qui doit inspirer le travail de l’expert.
  3. L’ADN de l’expert financier : au-delà de ses compétences techniques et de la rigueur avec laquelle il applique les méthodes disponibles, ses modèles mentaux doivent être compatibles avec les problématiques traitées.

L’évaluation des sociétés s’appuie sur une théorie financière très riche. Pour s’en rendre compte, il suffit d’aller sur le site SSRN qui recense la majeure partie des travaux académiques. On peut y trouver plusieurs dizaines de milliers de papiers de travail qui traitent des marchés financiers et de la finance d’entreprise. Il faut dire que les chercheurs peuvent s’appuyer sur un nombre extraordinaire de données (les milliards de transactions effectuées quotidiennement sur les cours), richesse que l’on ne trouve nulle part ailleurs.

On peut citer rapidement les grands concepts qui structurent la théorie financière et qui façonnent les techniques d’évaluation que nous utilisons quotidiennement :

- la règle de la valeur actuelle nette qui consiste à n’entreprendre un projet que si ses flux de liquidité futurs actualisés sont supérieurs à l’investissement initial ;

- l’efficience des marchés qui ne prétend pas que les marchés sont omniscients ou parfaits, mais simplement que les cours reflètent correctement les performances intrinsèques des sociétés telles qu'on peut les connaitre au mieux aujourd'hui ;

- Le Modèle d’évaluation des actifs financiers qui nous permet de calculer le taux d’actualisation applicable en fonction du risque systématique des sociétés ;

- La neutralité de structure financière sur la valeur de l’entreprise. Certes l'endettement permet à l'entreprise de payer moins d'impôts, mais cet impact fiscal positif est probablement compensé par le risque de faillite provoqué par une dette trop importante ;

- La théorie des options qui permet non seulement d’évaluer des instruments financiers complexes, mais qui donne également une grille de lecture très puissante pour analyser la flexibilité stratégique d’une entreprise ;

- La théorie de l’agence qui étend l’analyse financière à l’organisation et aux conflits d’intérêts qui peuvent exister entre les actionnaires et les dirigeants ou les actionnaires et les créanciers.

Il existe certes encore des divergences parmi les économistes ou les financiers qui observent le fonctionnement des marchés et le jeu de ses acteurs, mais les grilles de lecture qui ont été mises en place au cours de ces cinquante dernières années sont essentielles pour l’évaluation des sociétés.

Les méthodes d’évaluation qui ont été mises au point s’appuient sur ces théories. Elles privilégient la dimension économique à la dimension comptable. La méthode des cash flows actualisés a même été imaginée en opposition à une vision comptable de l’entreprise. Elle raisonne à partir des cash flows futurs, mesure qui d'une part ne dépend pas des politiques comptables et qui, d'autre part, a une nature prospective à l’inverse de la comptabilité qui s’enracine dans le passé.

Le second garde-fou de la subjectivité de l'expert est l’observation des acteurs. Au-delà de la théorie, comment les actionnaires ou plutôt leurs gérants agissent-ils concrètement? Il s'agit d'une question clé pour l'expert puisqu'il s'agit d'imiter leur comportement le plus fidèlement possible.

Cette question se heurte à une difficulté : la diversité des stratégies d’investissement et l’hétérogénéité des investisseurs. Si on laisse de coté les petits actionnaires, il existe trois intervenants de poids sur les marchés. Ils interviennent suivant des modalités très différentes :

  • Les investisseurs mécaniques comme les fonds indiciels qui cherchent à reproduire l’indice. Ils représentent 30% des fonds investis et sont de plus en plus nombreux. Ils ne sont pas préoccupés par les fondamentaux de l’entreprise. Leur stratégie d’investissement consiste à reproduire les performances du marché.
  • Les traders qui représentent 55% des fonds. Ils ne s’intéressent pas vraiment aux fondamentaux des entreprises, mais à l’évolution possible de leurs cours. Ils font des paris à très court terme sur l’impact que pourrait avoir telle nouvelle ou tel événement sur la psychologie des investisseurs et donc sur les cours.
  • Les investisseurs fondamentaux ou investisseurs longs qui représentent seulement 15% des fonds investis. Les gérants qui placent leurs fonds prennent leur temps avant d'investir. Ils étudient de manière approfondie les entreprises cibles, leur stratégie, leurs perspectives, les dynamiques du secteur, et n'investissent que s'ils considèrent que la société est largement sous évaluée.

Malgré leur place minoritaire dans les fonds investis, c’est cette dernière catégorie d’investisseurs qui a le plus d’impact sur le cours. En effet, lorsque leurs gérants décident de s’engager sur une action, ils vont investir un montant 7 à 30 fois plus important par jour qu’un trader et cela pendant 10 à 15 jours, période pendant laquelle ils vont construire leur position. Ce sont eux qui décalent de manière significative les cours à la hausse comme à la baisse.

KPMG et l’Association Française de Gestion ont récemment fait une étude pour comprendre leurs mécanismes de décision. Il est intéressant de noter que ces gérants fondamentaux n’investissent jamais dans une entreprise sans rencontrer préalablement les dirigeants. Les thèmes abordés sont en priorité :

  • la stratégie à long terme (avec une note d’intensité de 10), puis
  • les risques qui pèsent sur le modèle de développement de la société (avec une intensité de 6), et enfin,
  • La revue des résultats financiers ne vient qu'en troisième position avec une intensité de 4.

Les investisseurs fondamentaux s'intéressent donc au long terme des sociétés dans lesquelles ils investissent. Ce n'est pas étonnant car leurs méthodes sont elles aussi des méthodes fondamentales. Plus de 70% des gérants utilisent la méthode des flux de liquidités disponibles, approche dans laquelle la valeur attribuée à la société à l'issue de son business plan (la valeur dite terminale) peut avoir un poids important lorsque l'horizon est court. Cette approche de long terme qui est à la base de la formation des cours de bourse est corroborée par une autre étude de KPMG sur les décrochages boursiers. Sur les cinq dernières années, 75% des 600 plus grosses sociétés européennes ont connu au moins une fois une chute de leur cours de plus de 20% par rapport à l'indice Eurostoxx 600 en l'espace de 20 jours. 30% de ces chutes n'ont pas été effacées, et il a fallu près d'un an en moyenne pour que celles qui l'ont été rejoignent le niveau de l'indice.

Sur 120 chutes de plus de 30%, 37% des causes de décrochage sont liées à des problématiques stratégiques, 19% à des dysfonctionnements apparents dans l'exécution stratégique et 44% à des politiques financières anxiogènes. Enfin, ces investisseurs s'inscrivent dans la durée. Ils vont conserver leurs actions pendant plusieurs années : 62% des gérants les gardent de 1 à 3 ans et 33% plus de 3 ans. Ils doivent faire un pari sur la trajectoire stratégique de l'entreprise, sur la capacité du management à créer et à défendre un avantage concurrentiel. Leur approche est donc avant tout stratégique et très peu comptable. Leur savoir faire est d'anticiper une position stratégique et d'en déduire une valeur financière à long terme.

C'est donc les modèles mentaux et le processus analytique de ces investisseurs fondamentaux que l'expert doit répliquer dans son évaluation.

Le troisième garde-fou est l'ADN professionnel de l'expert. Celui-ci doit être conscient de la difficulté de sa tâche. Il doit être conscient des biais qui peuvent vicier son jugement professionnel. Il doit développer une véritable empathie à l'égard des marchés.

Pour réaliser des évaluations de qualité, il faut tout d'abord développer un prisme financier. C'est une question culturelle. Il faut savoir se mettre à la place d'un investisseur fondamental :

  • L'évaluateur doit privilégier une vision économique et stratégique sur une conception comptable de la société, d'autant que la complexité des normes comptables a rendu la lecture des états comptables particulièrement difficile!
  • Il doit se projeter dans l'avenir même si "la prévision est difficile en particulier lorsqu'elle concerne l'avenir" pour reprendre la formule de Pierre Dac. Il doit passer autant sinon plus de temps à explorer l'avenir, à imaginer les trajectoires stratégiques possible de la société qu'à analyser ses performances passées.
  • Il doit se garder d'appliquer des procédures ou des approches standardisées. On voit trop souvent des copiés-collés dans les évaluations. Chaque situation à ses particularités. La valeur d'une entreprise réside justement dans son unicité.
  • Il doit avoir le courage de travailler dans l'incertitude car c'est une dimension essentielle de la finance. Les facteurs de risque doivent être intégrés dans l'analyse et non évacués par des lettres d'affirmation demandées au client ou par des décotes d'inconfort.

Des compétences spécifiques sont nécessaires :

  • Faire une évaluation, c'est utiliser des grilles d'interprétation créées par des économistes. La théorie financière fait partie de la boîte à outils de l'évaluateur. Une connaissance purement comptable est insuffisante pour répondre au problème posé.
  • Faire une évaluation, c'est avant tout être capable de traduire une complexité stratégique et opérationnelle en termes de cash flows et de risque. L'évaluateur doit développer des compétences de gestion généralistes. Il doit être un bon businessman, capable d'intégrer de multiples dimensions dans son analyse. On pense tout particulièrement à l'aspect humain ou aux actifs intangibles de l'entreprise.
  • L'évaluation ne doit pas être une boîte noire. La façon dont on arrive à une conclusion doit être étayée précisément. Les hypothèses et le raisonnement sont aussi importants que le résultat final. L'évaluateur doit donc développer des compétences pédagogiques afin que tous les lecteurs de son rapport comprennent ce qui a été fait. Cette transparence rebute trop souvent les évaluateurs car elle les met en risque. Elle est pourtant une condition fondamentale de leur crédibilité professionnelle.

Enfin, la mise en œuvre des méthodes classiques est moins facile qu'il n'y paraît. Force est de constater que les méthodes d'évaluation se sont démocratisées. Elles sont enseignées dans les meilleures écoles. Elles ont fait l'objet d'innombrables ouvrages. Elles ont suscité l'intérêt professionnel de nombreux conseils qui se sont lancés dans ces activités profitant de l'inexistence d'une profession organisée.
Mais il y a un fossé très important entre l'application mécanique des recettes trouvées dans les livres et la réalité pratiquée par les marchés.

  Deux exemples sont révélateurs :

  • L'utilisation de la méthode des comparaisons qui consiste à calculer les multiples de sociétés réputées similaires pour les utiliser dans l'appréciation de la valeur d'une société. Certes, l'approche a la vertu de la simplicité, est mais appliquée mécaniquement, elle peut se révéler fausse car elle ne prend pas en compte les spécificités à moyen et long terme de l'entreprise.
  • Le calcul sommaire d'une valeur terminale dans la méthode des cash-flow actualisés qui fait reposer une partie importante de la valeur totale sur l'application d'une formule simplifiée à peine plus sophistiquée qu'un multiple. Un rapport qui ne consacre que quelques lignes à la question n'est pas sérieux.

Une évaluation suppose de reproduire un processus d'analyse économique et financière très complexe et de mettre en œuvre des techniques qui évoluent dans le temps. Ceci ne s'improvise pas. L'expérience professionnelle acquise par la spécialisation et les compétences financières sont les garants d'une évaluation de société de qualité.

dimanche 5 janvier 2014

Le reporting intégré : mode ou modèle ?

Le 5 décembre dernier, l’International Integrated Reporting Council (IIRC) a approuvé formellement le référentiel du « reporting intégré ». Derrière cette expression simple se cache une réelle opportunité pour les entreprises cotées.

Le sujet est en effet beaucoup plus vaste et ambitieux que ne le suggère la simplicité de la terminologie : il s’agit de (re)donner confiance aux investisseurs en communiquant plus et mieux sur la création de valeur à long terme de l’entreprise.

Le constat est banal et ancien: les investisseurs sont frustrés par la complexité, le volume, le jargon et le caractère historique des informations qui leur sont communiquées et qui ne sont pas forcément utiles aux décisions de la communauté financière. Au nom de la transparence, on a assisté à une profusion de rapports qui peuvent être même parfois une source de confusion. Cette situation a été particulièrement analysée en Grande Bretagne où de nombreuses institutions ont publié des recommandations encourageant les entreprises (et les auditeurs) à faire des efforts de pédagogie à l'égard de la communauté financière (voir par exemple: "Cutting Clutter", "Louder than words" ou "Raising to the challenge" du FRC, "Development in new reporting models" de l'ICAEW ou "Making corporate report readable" de l'ICAS).

Les investisseurs fondamentaux (ceux qui sont les seuls à avoir une influence sur la dynamique boursière à long terme d’une société) ont besoin de comprendre la trajectoire stratégique et le modèle de développement de l’entreprise car l’essentiel de la valeur réside dans les perspectives futures de celle-ci (les évaluateurs parlent de valeur terminale). Une rénovation profonde du dialogue avec les marchés est donc nécessaire pour leur permettre de mieux anticiper la position concurrentielle et les performances de l’entreprise à terme.

C’est tout l’objet du reporting intégré qui est défini comme:

« le processus qui donne lieu à une communication sur la création de valeur au fil du temps, notamment par la production d’un rapport intégré ».

Concis, pertinent, prospectif, ce rapport doit porter sur les conditions dans lesquelles la stratégie, la gouvernance, la performance et les perspectives de l’organisation lui permettront de « créer de la valeur à court, moyen et long terme ».

L’entreprise est invitée à expliquer son business model, moteur de la création de valeur, à identifier ses actifs tangibles et intangibles clés (qu’elle en soit ou non propriétaire), à identifier les liens qu’elle tisse avec son écosystème, à présenter les risques essentiels auxquels elle est confrontée et la façon dont elle prévoit de les éviter ou de les atténuer. L’entreprise doit montrer quelles sont les connections entre tous les éléments du système.

Les indicateurs de performance financière et non financière doivent être peu nombreux et liés entre eux. Ils doivent être rigoureusement choisis pour s’assurer de leur pertinence à l’aune de la création de valeur et de la capacité de l’entreprise à les produire de manière fiable et pérenne pour expliquer aux investisseurs les progrès réalisés au cours du temps.

Toutes ces informations sont spécifiques à l’entreprise : c’est la raison pour laquelle l’IIRC ne propose pas un standard ou une liste des indicateurs clés à mettre en avant, mais se présente plutôt sous la forme d’un guide d’analyse pour aider les directions générales dans leur réflexion sur leur système de création de valeur, par définition unique.

Enfin, le rapport intégré vise prioritairement un public spécifique, celui des investisseurs dans un but précis : les guider dans leurs décisions. Ce n’est pas un rapport de développement durable, même si les autres partenaires de l’entreprise y trouveront certainement un intérêt. Seules les initiatives RSE contribuant à la valeur financière future de l’entreprise méritent de figurer dans ce rapport. La philosophie est donc très proche de celle de la « shared value » de Porter.

Les premières réactions des investisseurs sont très positives car non seulement le reporting intégré répond à leurs besoins d’information, mais il incite aussi les entreprises à être plus à leur écoute.

Concentré pratique de la vision de l’entreprise, le rapport intégré nécessitera un travail préalable de synthèse et surtout de mise en cohérence : l’« integrated thinking », que l’on peut traduire par la maxime de Boileau : « ce qui se conçoit bien s’énonce clairement, et les mots pour le dire viennent aisément » (la relecture intégrale du poème est toujours instructive !). Inutile d’espérer communiquer efficacement sans avoir une idée précise de ce que l'on va pouvoir dire et maintenir sur la durée !

Le reporting intégré est déjà une réalité depuis quelques années en Afrique du Sud et en Australie (voir ici et ici). Depuis début octobre, les conseils anglais doivent donner à leurs actionnaires un « strategic report », en bien des points très comparable à un rapport intégré. Plus d'une centaine d'entreprises ont participé au programme pilote de l'IIRC et ont testé l'approche recommandée. Cette tendance de fond est bien comprise par un certain nombre d’entreprises françaises (Danone, GDF Suez en autres) qui se sont déjà lancées dans l’aventure et ont ainsi découvert les vertus de cette démarche.

Véritable projet mobilisateur au sein de l’entreprise, idéalement animée par la direction financière et menée sous la responsabilité de la Direction générale, il permet d’engager un dialogue stratégique entre des fonctions qui travaillent habituellement en silos. L’objectif simple et ambitieux à la fois est de bâtir un véritable consensus stratégique et de cerner quels sont les chantiers opérationnels prioritaires du point de vue de la valeur actionnariale.

Une meilleure articulation entre la stratégie et le modèle de création de valeur conduit enfin à des mesures de performances financière et non financière plus pertinentes et opérationnelles. La qualité de l’exécution stratégique en sort renforcée. Le reporting intégré est donc tout sauf un standard supplémentaire ou une mode. Le succès de la démarche nécessite une discipline et une mobilisation en faveur de la création de valeur à long terme. Elle ne sera pas forcément évidente pour tous, mais ses bénéfices à la fois internes et externes en valent la peine.


Une version plus courte de ce post co-signé avec l'un de mes associés (Laurent Choain) a été publiée dans la revue Option Finance n°1249-1250 du lundi 16 décembre 2013

mardi 1 octobre 2013

Le reporting intégré : une opportunité de créer de la valeur et de renforcer la confiance des actionnaires

Le Reporting intégré s’inscrit dans un mouvement de fond qui vise à repenser la façon dont les entreprises communiquent aux investisseurs sur les leviers de leur création de valeur.

Après deux ans de réflexion et de tests menés par une coalition d’entreprises, d’investisseurs et d’experts, l’IIRC* s’apprête à publier ses recommandations. Elles sont purement facultatives : leur mise en œuvre est laissée à l’appréciation des entreprises qui, chacune, doivent trouver leur propre voie.

KPMG organise un petit-déjeuner table ronde, le mardi 8 octobre à 8h30 pour faire le point sur ce que les Directions Générales peuvent attendre de cette initiative:

  • Comment utiliser cette initiative pour mobiliser son organisation pour une création de valeur à long terme ?
  • Comment prendre en compte les attentes des investisseurs et s’en servir pour renforcer leur confiance ?
  • Quelles sont les difficultés pratiques rencontrées dans sa mise en œuvre et les moyens de les résoudre ?
  • Quelles sont les conditions de succès du Reporting intégré ?

J'interviendrai aux côtés de Marie Gérard, Vice-President Sustainable development chez GDF Suez et Philippe Zaouati, DGA de Natexis Asset Management.

Pour plus de renseignements, cliquer ICI.

dimanche 1 septembre 2013

Repenser la gouvernance des sociétés hors des sentiers battus

La loi a un fondement rationnel très solide lorsqu’elle dispose que le conseil d'administration prend ses décisions sur la base de délibérations collégiales.

L’intérêt majeur du conseil est en effet de contrecarrer les biais cognitifs qui affectent les raisonnements du chef d’entreprise et de conforter ou d’améliorer son intuition en la transformant en décision collective (voir mon post sur ce sujet). Le conseil est une illustration parfaite de la puissance de l’intelligence collective qui veut qu'un groupe soit supérieur à l’individu dans l’analyse et la prise de décision à la condition qu'il s'organise pour éviter les phénomènes de passagers clandestins et de Groupthink.

Cet avantage majeur du conseil est parfois sous-exploité. Si la mise en place de codes de bonnes pratiques a permis d'améliorer considérablement la gouvernance des entreprises, nombre d'entre elles sont tombées dans le piège de la conformité : bien souvent, c'est le politiquement correct qui prévaut au détriment du bon sens ou de l'efficacité.

L'objectif est alors avant tout d'afficher que la composition et le fonctionnement du conseil correspondent aux recommandations de place. Même si tous les codes donnent la possibilité aux entreprises de s'écarter des principes à condition d'en expliquer les raisons en vertu du principe « Appliquer ou Expliquer » (« comply or explain » ), fort peu osent le faire.

Cette solution de facilité est implicitement encouragée par les agences en conseil de vote qui ne souhaitent pas entrer dans des discussions spécifiques avec les entreprises et qui préfèrent privilégier les mêmes règles pour tous pour des raisons économiques et pratiques. Cela facilite leur travail d’analyse des résolutions et l’émission de leurs consignes de votes.

Cette transparence conformiste a gelé l'innovation en matière de gouvernance. Il suffit pour s'en convaincre de comparer les principes actuellement en vigueur avec ceux énoncés par le fameux rapport Cadbury (édictés en 1992) ou d'observer le phénomène de la convergence internationale en matière de gouvernance.

Elle a également pérennisé des solutions dont l'efficacité est souvent douteuse. Dans leur livre "Corporate governance matters", David Larcker et Brian Tayan montrent, études académiques à l'appui, que de nombreuses bonnes pratiques adoptées sans sourciller l'ont été sur la base d'opinions préconçues et non d'études ou d'observations sérieuses.

Compte tenu des dysfonctionnements qui sont régulièrement dénoncés en matière de gouvernance, on ne peut plus se contenter d'adhérer docilement aux principes établis. Il serait sain d'entamer une réflexion iconoclaste pour renouveler une pensée trop souvent ronronnante.

La SAS (Société par Actions Simplifiée) nous offre à cet égard un cadre idéal de réflexion. On rappelle qu'il s'agit d'une forme sociale créée en 1994 et modifiée en 1999 et 2008 dont le nombre dépasse aujourd'hui celui des SA (environ 4% du total des sociétés répertoriées par l'INPI).

Elle se caractérise par une très grande souplesse : ses statuts fixent librement son fonctionnement. Le seul organe obligatoire est le Président qui représente légalement la société. Ce Président peut être une personne morale. Ses conditions de désignation sont totalement libres. Les statuts peuvent créer des organes collégiaux dont la dénomination, les fonctions, les modes de délibération sont également laissés à l’appréciation des associés. Ils déterminent également les décisions qui doivent être prises collectivement par les associés et les conditions dans lesquelles celles-ci sont prises. En matière de contrôle, il est prévu qu’au-delà d’une certaine taille la société nomme un ou plusieurs commissaires aux comptes. Le régime des conventions réglementées est plus léger que celui des SA.

A la différence d’une SA, une SAS peut donc construire sa gouvernance à partir d’une page blanche sans contrainte d’aucune sorte. Elle offre un champ d’expérimentation unique pour de nouvelles approches de gouvernance.

L’une des raisons pour lesquelles les conseils apparaissent souvent inefficaces ou impuissants réside dans leur difficulté d’assumer pleinement des tâches nombreuses et diverses qui leur sont confiées. Les attentes à l’égard des administrateurs croissent à un rythme bien supérieur à leur capacité à les satisfaire (voir Rodrigues, Usha, A Conflict Primacy Model of the Public Board).

Certes, la limitation du nombre des mandats et l’amélioration de l’organisation des travaux des conseils (création de comités spécialisés, rôle croissant du secrétaire du conseil, interactions plus professionnelles avec les directions générales et les directions financières, augmentation du nombre de séances, utilisation de moyens technologiques plus performants) constituent des réponses à ce surcroît de travail (Sur les méthodes de travail et d’organisation des conseils, le lecteur est invité à se reporter au Vade-medum de l’Administrateur, Jean-Florent Rérolle, Anne Outin-Adam, Florian Bressand, IFA, 2013). Mais, il faut bien constater que l’on est encore loin du compte. D’ailleurs, comment pourrait-il en être autrement ? Les administrateurs ne viennent dans l’entreprise que de manière intermittente pour traiter de sujets sur lesquels ils sont nécessairement moins au fait que les dirigeants.

Au risque d’embolie, il faut ajouter celui de schizophrénie. On considère classiquement que le conseil a trois fonctions :

  1. une fonction de gestion ou d’impulsion : il définit ou valide la stratégie en fonction des risques acceptés par l’organisation ; il approuve les décisions les plus importantes (celles qui portent sur le capital ou qui concernent des opérations structurantes comme les acquisitions) ;
  2. une fonction de contrôle : il nomme, évalue, rémunère et révoque les dirigeants en fonction des objectifs de l’entreprise ; il arrête les comptes ; il suit l’efficacité des systèmes de contrôle interne et de gestion des risques ; il contrôle l’exécution de la stratégie ;
  3. une fonction de réseau : l’entreprise peut bénéficier du réseau de ses administrateurs (banques, partenaires industriels ou commerciaux, administrations, hommes politiques) pour développer son activité.

Si dans une SA à directoire et conseil de surveillance les fonctions de gestion et de contrôle sont assez bien séparées , ce n’est pas le cas pour une SA à structure moniste dans laquelle, en théorie, le conseil définit et participe à la mise en œuvre de la politique dont il assure ensuite le contrôle. L’ambiguïté de cette position est évidente lorsqu’il apparait que la stratégie retenue n’était pas la bonne (La difficulté est moindre s’il ne s’agit que d’une question d’exécution de la stratégie) et elle affecte nécessairement la qualité ou l’efficacité de l’une ou de l’autre de ces fonctions (voir A Theory of Friendly Boards, Adams et Ferreira).

Comment l’administrateur pourrait-il sanctionner sans état d’âme une stratégie qu’il a au minimum approuvée auparavant ? Comment peut-il inviter une direction générale à faire preuve d’audace pour créer de la valeur alors que sa fonction de contrôle implique prudence et retenue (Une fonction de contrôle hypertrophiée pèse sur les performances de l’entreprise comme le montrent Faleye, Hoitash and Hoitash dans The Costs of Intense Board Monitoring) ? Comment l’exécutif peut-il être totalement transparent à l’égard des administrateurs sachant que la réduction de l’asymétrie d’information, essentielle à l’exercice de la fonction de conseil, pourrait être aussi exploitée dans la fonction de contrôle et être ainsi retournée contre lui ?

Idéalement, les fonctions du conseil devraient donc être définies ou hiérarchisées en fonction de la nature de l’actionnariat, de la maturité de l’entreprise, de la complexité de son organisation et de ses enjeux stratégiques.

Ainsi, la fonction de contrôle prend toute son importance lorsqu’une séparation entre les actionnaires et les dirigeants est susceptible d’engendrer des conflits d’agence. Mais elle est moins légitime lorsque le dirigeant est lui même l’actionnaire principal voire l’actionnaire unique de la société. Les fonctions de réseau ou de conseil sont plus utiles pour des entreprises jeunes ou pour celles qui sont confrontées à de fortes mutations technologiques ou concurrentielles que pour des entreprises mûres sur des marchés protégés en faible croissance.

Pour éviter l'embolie et la schizophrénie, le conseil devrait se concentrer sur la fonction la plus utile à l'entreprise. Mais, dans une SA classique, le conseil ne peut s’affranchir des rôles qui lui sont confiés par la loi. Tout au plus, peut-il s’organiser pour identifier les tâches prioritaires et s’attacher à les remplir le plus efficacement possible (c'est la philosophie que nous adoptons dans le Vade-mecum de l'administrateur).

Une SAS n’a pas les mêmes contraintes juridiques. Elle peut dès lors façonner l’organe en fonction de ce qu’elle souhaite lui voir jouer comme rôle :

  • Les fonctions qui lui sont attribuées peuvent être définies de manière étroite ou au contraire très large ;
  • Elles peuvent être réparties entre plusieurs organes afin de ne pas mélanger les genres ;
  • Les dénominations utilisées peuvent être très diverses pour bien marquer ce que l’on attend de lui : conseil d’administration, conseil de surveillance, comité des risques, comité d’orientation stratégique, censeur, etc. ;
  • Sa composition peut être soigneusement réalisée pour exprimer la diversité et la richesse de points de vue requise ; elle peut être libérée des contraintes d’indépendance pour favoriser la compétence. A l’instar de ce qui se pratique en Grande Bretagne, on peut imaginer une représentation substantielle des représentants de l’exécutif aux cotés des administrateurs indépendants ;
  • Le processus de sélection, de nomination et de renouvellement peut être géré de manière dynamique et innovante afin de ne pas figer les compétences et les expériences sur lesquelles on souhaite s’appuyer ;
  • Des obligations drastiques en terme d’exclusivité et de disponibilité des administrateurs peuvent être adoptées afin de s’assurer de leur mobilisation en faveur des affaires de la société.

On pourrait même imaginer que la ou les fonctions que l’on souhaite voir jouer par ce ou ces organes soient sous-traitées à une firme professionnelle spécialisée. C’est la proposition faite récemment par Stephen Bainbridge et Todd Henderson dans un papier remarquable (Boards-R-Us: Reconceptualizing Corporate Boards) qui notent que les dysfonctionnements des conseils sont largement dus au fait que les administrateurs sont des personnes physiques, peu disponibles, insuffisamment informées, trop généralistes et mal rémunérés. Sur la base de ce constat, il propose que les fonctions du conseil soient confiées à des personnes morales spécialisées. Une grande partie des défauts des administrateurs seraient alors corrigés : disposant de ressources humaines et techniques considérables, ces firmes pourraient affecter tous les moyens nécessaires à l’accomplissement de leurs obligations contractuelles. En cas de faute, leur responsabilité pourrait être mise en cause plus facilement par la société, les actionnaires ou les tiers.

S. Bainbridge ne décrit pas spécifiquement à quoi ressemblerait cette firme spécialisée qu’il appelle de ses vœux et qui remplacerait intégralement le conseil. Mais en s’appuyant sur cette idée et, sans aller jusqu’à une dévolution complète des fonctions à un tiers, on peut imaginer de multiples approches moins radicales comme la sous-traitance partielle de certaines fonctions de comités, la désignation d’administrateurs professionnels ou la mise à la disposition des administrateurs personnes physiques de moyens techniques plus professionnels.

Les sociétés contrôlées par un fond de Private Equity offre un exemple de professionnalisation des conseils. Les administrateurs sont souvent assistés par les équipes techniques du fond d’investissement. Cela explique en partie leurs performances financières : la gouvernance repose très largement sur un investisseur actif et engagé. Mais cette solution est plus complexe à mettre en œuvre dans une entreprise cotée car elle pose des problèmes d’égalité entre les actionnaires.

Quelle que soit la ou les solutions organisationnelles retenues par la SAS, deux éléments supplémentaires sont essentiels à l'efficacité d'un conseil : la réduction de l’asymétrie d’information et une animation professionnelle des débats.

La qualité de l’analyse ou des décisions d’un conseil dépend de celle de l’information dont il dispose. Le défi est immense car non seulement les questions de gestion sont de plus en plus techniques et complexes mais les dirigeants ne sont pas forcément incités à être totalement transparents avec les administrateurs. Cela s’explique à la fois par des raisons pratiques (efforts nécessaires pour réunir et formater l’information afin de la rendre exploitable pour des personnes moins averties, crainte d’une rupture de la confidentialité …) et politiques (plus les conseils sont dans un mode de contrôle, moins la direction est encline à partager des données qui pourraient la mettre en défaut). Une définition plus nette des fonctions du conseil permettrait de fixer des règles du jeu plus claires. Si, par exemple, il a été constitué pour exercer une fonction de contrôle, on pourrait lui rattacher officiellement l’audit interne et la direction des risques. Si l’objectif est d’en faire un organe de recommandations ou d’inspiration stratégique destiné à enrichir la perspective du dirigeant, ce dernier aura tout intérêt à partager ses informations (Voir l'étude de Renée Adams : The dual role of corporate boards as advisors and monitors of management).

La propension des dirigeants à être transparents dépend en effet de la relation de confiance qu’ils ont tissée avec les administrateurs, celle-ci étant elle même fonction de l’importance respective de leur rôle de conseil par rapport à celui de contrôle. La mise en place d’un conseil « guide» ou « pilote » requière qu’une partie des administrateurs ne soient impliqués que marginalement dans des activités de contrôle afin de créer le climat de confiance propice au partage d’information et à l’échange de points de vue avec les dirigeants (voir l'étude précitée Advisory Directors ).

La seconde condition de l’efficacité d’un conseil réside dans l’animation de ses débats. On a vu précédemment que la qualité de la décision collective est supérieure à celle de la décision individuelle. La délibération d’un conseil est l’occasion de tirer parti de la diversité des points de vue et des compétences de ses membres. Mais encore faut-il que les discussions soient ouvertes et sans préjugé, que la critique constructive soit admise, voire encouragée et que chacun puisse s’exprimer librement dans une atmosphère de respect mutuel. Que le conseil puisse susciter volontairement la controverse en son sein est un signe de bonne gouvernance.

A cet égard, le rôle du Président est absolument essentiel : « Good boards are created by good chairman ». On se reportera avec profit au rapport du Financial Reporting Council intitulé Guidance on board effectiveness (Mars 2011). C’est à lui de créer le climat nécessaire à un débat fécond, de susciter l’intervention de tous les membres du conseil, d’encourager la controverse en évitant d’imposer son avis ou d’influencer ses collègues, de repérer les symptômes de la pensée de groupe et de les corriger. Sa première qualité doit être celle d’un animateur de débats. Inutile de dire que toutes les personnalités ne sont pas faites pour cela. Il faut en particulier s’interroger sur la capacité d’un directeur général à endosser l’habit d’un Président impartial encourageant les controversistes, certes dans une perspective positive, mais potentiellement gênante pour lui-même.

Si l’on accepte l’idée selon laquelle le débat est au cœur de l’activité du conseil et que les conditions pour en assurer un déroulement efficace sont très spécifiques, le Directeur général peut difficilement en être l’animateur. Il doit, au moins pour ce rôle de facilitateur, s’effacer au profit d’un tiers, que ce soit le Président non exécutif, un administrateur référent ou tout autre administrateur plus doué que lui pour ce rôle d'animation. On pourrait imaginer que les débats les plus importants soient animés par cet administrateur impartial.

Les SAS sont donc particulièrement bien placées pour expérimenter les systèmes de gouvernance qui leur conviennent le mieux. Leur flexibilité statutaire leur permet de sortir des sentiers battus, d’évacuer les contraintes que les SA doivent respecter (contraintes dont l’intérêt apparaît souvent faible voire inexistant) pour ne retenir que les pratiques ou structures directement créatrices de valeur.

Au-delà de la situation particulière des SAS, une conception plus organisationnelle ou décisionnelle du conseil d’administration offre des pistes de réflexion pour toutes les entreprises qui souhaitent faire évoluer positivement leur gouvernance :

  • elle affirme que la gouvernance n’est pas une fin en soi, que les bonnes pratiques sont très relatives et que c’est l’efficacité qui doit être recherchée avant toute autre considération ;
  • elle invite les conseils à « penser » la gouvernance au lieu de se complaire dans l’adhésion aveugle à des normes souvent inadaptées ou injustifiées ;
  • elle rappelle que l’efficacité d’un conseil dépend de sa capacité à se focaliser sur l’essentiel, de la qualité de l’information et de la dynamique de groupe instaurée par le Président ;
  • elle reformule le débat de la séparation des fonctions de Président et de Directeur général dans une logique d’efficacité et non dans une logique de pouvoir ;
  • elle souligne que la fonction de conseil est plus créatrice de valeur que la fonction de contrôle et que le conseil d’administration peut être un atout essentiel dans la définition et l’exécution d’une stratégie.

La rigidité des statuts des SA et les pressions des agences de rating de gouvernance ne leur permettent pas d’exploiter ces pistes dans toute leur plénitude. Mais il faut insister sur le fait que, au delà des structures et des règles, la réalité de la gouvernance réside dans les comportements et les actes. Mettre en place une gouvernance utile et efficace est avant tout une question d’état d’esprit et de pratique. Elle est à la portée de tout responsable pour peu qu’il face preuve d’humilité, de volonté et d’audace.

Je serais heureux d'avoir votre avis sur ces questions.

samedi 24 août 2013

Retour sur le groupthink

Dans mon dernier post, j'évoquais le risque de Groupthink auquel les administrateurs doivent être attentifs (au même titre que les biais comportementaux qui nous guettent en permanence) (*).

Dans le Monde de ce soir, Ezra Suleiman, spécialiste des élites françaises, nous rappelle que ce risque existe aussi au sommet de l'Etat :

A la question "Est-ce que cette homogénéité de l'élite vous semble paralyser l'action de l'Etat ? il répond :

Que serait la France si elle avait moins de réseaux et de tribus ? On ne peut pas le savoir. En tout cas, je remarque que Hollande n'a pas été chercher très loin pour former son équipe. Je ne dis pas que ce sont les compétences de ces "technos" qui sont en cause, mais on peut s'interroger sur une telle fidélité à sa tribu, voire tout simplement à sa promotion. Surtout de la part d'un homme de gauche. Une telle consanguinité risque toujours de mener à ce que Orwell(*) appelait le groupthink, littéralement "la pensée de groupe", quand ce qui prime est le désir d'unanimité. Le groupthink est une catastrophe, vous fermez la porte aux idées nouvelles, et vous perdez la compétition mondiale. L'élite actuelle aurait beaucoup à gagner en s'ouvrant, ne serait-ce que par la stimulation qu'ils recevraient en se frottant à des gens venant d'autres horizons et de formations différentes."

Outre ce "soupçon" de Groupthink, l'action et les déclarations gouvernementales offrent des illustrations excellentes des différents biais comportementaux que j'évoquais dans mon post précédent. En particulier, le biais de confirmation me semble être récurrent. Il suffit d'une statistique économique favorable pour qu'on nous explique que, oui, le bout du tunnel est là; que, décidément, les choix qui ont été faits sont les bons; et que, bien sûr, il faut poursuivre dans cette voie ! Toutes les mauvaises nouvelles, bien plus nombreuses, sont évacuées ou minorées.

La gouvernance d'entreprise doit d'être améliorée, mais le chantier de celle de l'Etat mériterait lui d'être ouvert.

(*) Je reviendrai bientôt sur la façon dont les conseils d'administration peuvent contribuer à réduire ces risques et biais et renforcer l'efficacité des décisions stratégiques

mardi 20 août 2013

Le conseil d'administration : la puissance d'un outil de décision collective

Le conseil d’administration et le conseil de surveillance sont au cœur de la gouvernance des sociétés anonymes. Représentants des actionnaires, la loi leur donne des pouvoirs considérables d’administration et/ou de contrôle sur la gestion. Les administrateurs n'ont aucun pouvoir individuel. La loi ne reconnait que la décision collective qui s'exprime par la délibération du conseil.

Ce principe juridique a de solides justifications organisationnelles qui méritent d'être rappelées. L'utilité du conseil d'administration est avant tout d'aider le dirigeant à prendre de bonnes décisions.

Isolé, le manager est victime de biais cognitifs qui affectent systématiquement la qualité de sa décision. Ces biais ont été largement documentés dans la littérature consacrée aux sciences ou à l’économie comportementales.

Face à la complexité des décisions qu’ils doivent prendre, les décideurs ont souvent recours à des simplifications heuristiques qui peuvent se combiner et se renforcer mutuellement. Par exemple :

  • le biais de cadrage qui veut que l’analyse dépende de la façon dont elle est présentée ou articulée ;
  • le biais de représentativité qui consiste à apprécier une situation non pas en fonction de sa probabilité mais sur la base de sa représentation personnelle ;
  • le biais de disponibilité qui pousse à prendre en compte avant tout des éléments d’information immédiatement disponibles et à négliger une recherche plus complète ou systématique ;
  • le biais d’ancrage qui consiste à privilégier un élément d’information ou une représentation obtenus dans le passé.

Le manager est également victime d’erreurs de jugement nombreuses comme :

  • le biais de confirmation qui illustre une tendance à rechercher ou donner plus d’importance aux informations qui confirment son intuition ou sa conviction ;
  • Le biais rétrospectif qui fait penser a postériori que tel événement était inévitable ;
  • le biais d’optimisme qui pousse à surestimer ses chances de réussite et à sous-estimer les risques d’échec ;
  • le biais de confiance excessive dans sa propre capacité à analyser ou à agir efficacement ;
  • le biais d’attribution qui fait attribuer ses succès à ses compétences et ses échecs à la faute des autres ou à celui d’un contexte défavorable.

Le conseil d’administration permet de contrecarrer ces biais en introduisant dans le processus décisionnel un recul et une analyse plus systématique.

Dans son livre « Thinking, fast and slow» (publié en français chez Flamarion sous le titre "Système 1, Système 2, les deux vitesses de la pensée" (1) Daniel Kahneman explique que les décisions individuelles sont pour la plupart issues du « Système 1 », siège dans notre cerveau de la pensée intuitive. Ce système fonctionne en permanence et automatiquement. Il ne peut pas être « débranché ». Il repose sur notre expérience et nos émotions. Il ne nécessite pas d’efforts particuliers de notre part.

La responsabilité du Système 2 est de contrôler le Système 1 : c’est le siège du raisonnement, de la logique, de l’explicite. Le Système 2 est capable de modifier le fonctionnement du Système 1 en programmant ou reprogrammant automatiquement la mémoire. Il est habituellement en mode mineur. Il se nourrit des sentiments, des associations et des impressions intuitives du Système 1. Si ceux-ci sont acceptés par le Système 2, ils se transforment en action ou en conviction, pratiquement sans modification.

Mais quand le Système 1 se trouve face à une difficulté ou un enjeu, il demande au Système 2 de prendre la main pour procéder à des opérations plus complexes qui permettront d’adopter la conviction définitive ou la décision finale. Il fait moins d’erreurs systématiques que le Système 1 mais il est beaucoup plus consommateur d’énergie et de concentration. Il est également beaucoup plus lent. Il ne peut donc pas remplacer le Système 1 dans des actions routinières.

Daniel Kahneman en conclut qu’

« il faut apprendre à reconnaître les situations propices aux erreurs, et mieux veiller à éviter les grosses erreurs quand les enjeux sont importants. (…) il est plus facile de repérer les erreurs des autres que les siennes ».

Dès lors, la question qui se pose est de savoir comment le manager peut s’assurer que son intuition ne lui fait pas commettre d’erreurs graves. Il peut certes confronter son point de vue à celui de ses collaborateurs. Mais l’expérience montre qu’un subordonné évite souvent d’entrer en opposition avec son supérieur hiérarchique. Dans une réunion, les collaborateurs prennent moins la parole que leurs supérieurs, et ceux-ci ont un pouvoir d’influence considérable sur la décision finale du groupe. La gouvernance interne a donc des limites.

En revanche, un conseil offre la possibilité de faire challenger une analyse ou une décision par des individus qui possèdent théoriquement toutes les qualités pour remplir efficacement cette tâche :

  • ils apportent chacun un regard extérieur qui est plus susceptible de repérer les erreurs de raisonnement des autres participants à la décision ;
  • leur statut est souvent équivalent à celui du dirigeant de l’entreprise, ce qui facilite leur prise de parole ;
  • leur indépendance (et leur responsabilité fiduciaire) les autorisent (ou les invitent) à être plus directs ou francs à l’égard du pouvoir exécutif ;
  • leur diversité d’expériences ou de compétences permet d’éclairer la décision en multipliant les angles d’analyse.

Mais l’avantage majeur du conseil est de conforter ou d’améliorer l’intuition du chef d’entreprise (qui peut elle même avoir été validée par son Système 2) en la transformant en décision collective. Le conseil d’administration est une illustration de la puissance de l’intelligence collective : un grand nombre d’études expérimentales ont démontré la supériorité du groupe sur l’individu dans l’analyse et la prise de décision. La loi a donc un fondement rationnel très solide lorsqu’elle dispose que le conseil prend ses décisions sur la base de délibérations collégiales.

Les choix effectués par un groupe sont en effet généralement de meilleure qualité que ceux de l’individu isolé, même pour les tâches les plus complexes. La durée de la prise de décision collective n’est pas plus élevée que celle de la décision individuelle, même lorsqu’elle est prise à l’unanimité et non pas à la majorité (voir Are two heads better than one ? an experimental analysis of group vs individual decisionmaking, Alan Blinder & John Morgan, NBER, 2000) . Certaines études soutiennent cependant que les décisions collectives peuvent ne pas être supérieures à celles que prendrait le meilleur des membres du groupe. Mais cela n’invalide pas le raisonnement car la décision prise par le groupe va nécessairement bénéficier de l’apport de cet individu.

Si l’apport du conseil à la qualité de la décision stratégique de l’entreprise est incontestable, il faut avoir néanmoins à l’esprit ses limites.

Dans la mesure où le conseil d’administration est une « team production» (voir A Team Production Theory of Corporate Law, Margaret M. Blair & Lynn A. Stout, 85 VA. L. REV. 247, 251 (1999).), il favorise des comportements de passagers clandestins. L’individu qui fait partie d’un groupe peut avoir tendance à limiter son engagement et à se reposer sur celui des autres. L’effort individuel a tendance à se relâcher de manière proportionnelle à l’importance numérique du groupe.

Par ailleurs, une collectivité de décideurs est sensible au phénomène du « groupthink » qui est un mode de pensée dans lequel les membres d’un groupe trop uniforme s’attachent plus à créer et à maintenir un consensus qu’à explorer des solutions alternatives. Cette tendance s’observe plus particulièrement lorsqu’un groupe homogène d’individus est isolé dans sa prise de décision, qu’il manque d’un leadership impartial, qu’il ne suit pas une procédure d’analyse méthodique et rigoureuse et qu’il doit faire face à un contexte stressant.

Les symptômes du groupthink sont une surestimation des capacités du groupe (illusion d’invulnérabilité), une étroitesse d’esprit, une pression des membres pour atteindre un consensus , une tendance à la rationalisation et à l’autocensure. Les décisions qui sont prises peuvent être très mauvaises car elles s’appuieront sur une analyse incomplète des alternatives et des risques, une incapacité à reconsidérer les options qui ont été rejetées, le rejet des opinions des experts, des biais dans la sélection des informations retenues, etc.

Ces aspects négatifs dans la prise de décision collective sont cependant gérables à condition que leur réalité soit reconnue et que des mesures d’organisation et d’animation idoines soient prises.

Dans la seconde partie de ce billet, j'utiliserai l'exemple de la SAS pour illustrer les conditions dans lesquelles l'apport du conseil peut être maximisé.


Note 1 : Le concept de Système 1 et Système 2 a été imaginé par K.E. Stanovitch & R.F. West dans Individual differences in reasoning : implication for the rationality debate, Behavioral and Brain Sciences, 2000

lundi 17 juin 2013

Le nouveau code de gouvernance : big bang ou pétard mouillé ?

Le nouveau code de gouvernement d’entreprise des sociétés cotées vient d’être rendu public. Il s’agit de la 7ème version des recommandations que l’Afep et le Medef adressent aux sociétés cotées françaises afin de les inciter à adopter et respecter certaines bonnes pratiques dans le fonctionnement de leurs organes sociaux.

Il est habituel de voir ces pratiques évoluer en fonction des pressions sociales et politiques du moment. Ce texte n’échappe pas à une logique de circonstance : celle de donner des gages au législateur afin de l’inciter à ne pas légiférer pour laisser toutes ses chances à l’autorégulation.

Mais il ne faut pas oublier que la gouvernance n’est pas faite seulement pour répondre à l’acrimonie populaire. Sa première fonction est de donner une consistance au pacte de confiance qui doit s’établir entre une société et ses investisseurs. Elle permet de rassurer les actionnaires sur le respect des promesses qui leur ont été faites et sur la base desquelles ils ont acheté les actions de la société.

Si les dispositions du nouveau code répondent bien aux attentes de la société civile, elles sont d’un intérêt plus incertain pour les actionnaires.

Le nouveau texte s’attache à traiter pour l’essentiel deux questions qui, jusqu’à présent, n’avaient pas reçu de réponses pleinement satisfaisantes. La première concerne un sujet d’actualité : les rémunérations des dirigeants. La seconde est moins médiatique mais essentielle : comment donner plus d’autorité à cette « soft law » dont l’ambition est de suppléer la loi ?

Il faut croire qu’en matière de rémunération de dirigeants les choses sont plus compliquées en France qu’ailleurs. Alors que le code de gouvernance britannique consacre deux pages et demi au sujet, le code français ne comporte pas moins de 19 pages sur la question, soit plus de la moitié du document ! Des principes de transparence, de modération et d’alignement avec les performances sur le long terme sont réaffirmés, précisés et amplifiés. La présence des administrateurs actionnaires salariés au sein des comités de rémunération est recommandée.

Surtout, à l’instar de bien d’autres pays (Etats-Unis, Grande-Bretagne ou Australie), le principe du « say on pay » est officiellement adopté. Chaque année, l’Assemblée Générale sera invitée à donner son avis sur les « éléments de la rémunération due ou attribuée au titre de l’exercice clos à chaque dirigeant mandataire social ». Ce vote qui porte uniquement sur la rémunération passée sera consultatif. En cas d’avis négatif, le conseil devra se prononcer publiquement sur les suites qu’il entendra y donner. Le conseil demeure donc souverain dans la fixation des rémunérations des dirigeants.

En ce qui concerne l’application du code, le nouveau texte s’attache à préciser la règle à présent bien établie d’«appliquer ou expliquer». On connaît ses défauts. Elle a souvent conduit les entreprises à adopter une approche « tick the box » et à présenter leurs choix d’une manière totalement artificielle. Tous les régulateurs et les observateurs déplorent cette situation qui n’est d’ailleurs pas propre à la France.

Pour sortir de cette logique, il faut d’abord que les bonnes pratiques fassent davantage l’objet d’un consensus. La concertation très large à laquelle ont procédé les auteurs de ce code avait comme objectif de lui donner plus de légitimité. Les associations d’investisseurs et d’administrateurs, les autorités publiques et des agences de conseil en vote ont ainsi été consultées pour la première fois.

Le concept appliquer-ou-expliquer fait l’objet de développements quant à la nature de l’explication qui doit être donnée en cas de non-application. Celle-ci doit être « compréhensible, pertinente et circonstanciée ». Elle doit présenter de manière convaincante les raisons pour lesquelles la bonne pratique n’est pas appliquée et si des approches alternatives ont été adoptées pour atteindre le même objectif que si elle l’avait été. Cette conception avait été récemment proposée par l'IFA.

Enfin, la grande innovation réside dans la création d’un Haut Comité de suivi de l’application du code auquel doivent adhérer toutes les entreprises qui s'en réclament. Composé de sept personnes (dont le mode de nomination n’est pas précisé), ce comité sera chargé d’assurer le suivi de l’application du code et de proposer les modifications qui s’imposeraient en fonction de l’évolution des pratiques tant en France qu’à l’étranger.

L’ensemble de ces mesures représentent des avancées significatives. Il ne reste qu’à espérer qu’elles seront appliquées de bonne foi par la majorité des entreprises pour éviter l’intrusion du législateur dans un domaine qui se prête difficilement à des mesures uniformes.

Outre le traitement de la question des rémunérations et de l’application du code, les auteurs ont également introduit diverses modifications d’inégale portée dont certaines pourraient même inquiéter les actionnaires.

Deux recommandations très positives doivent être soulignées. La première concerne l’information donnée au marché. On sait que celle-ci est loin d’être satisfaisante car elle est trop historique, volumineuse et technique pour aider les investisseurs à comprendre la capacité de l’entreprise à générer des cash-flows sur le long terme. Le nouveau code préconise donc une approche qui s’inspire en partie des réflexions menées actuellement en matière de reporting intégré. Le conseil doit veiller à ce qu’une information « pertinente, équilibrée et pédagogique » soit donnée aux investisseurs sur la stratégie de l’entreprise, son business model et ses perspectives à long terme.

Seconde mesure très positive car de nature à favoriser une implication plus importante des administrateurs : une limitation plus stricte du nombre des mandats. Le dirigeant mandataire social ne pourra pas accepter plus de deux mandats d’administrateur dans d’autres sociétés et les administrateurs ne pourront pas détenir plus de cinq mandats dans des sociétés cotées y compris étrangères.

Mais des modifications plus subtiles ont été introduites. Elles concernent le positionnement du conseil d’administration par rapport aux actionnaires, notamment minoritaires.

A l’origine du gouvernement d’entreprise, on trouve la nécessité de limiter ou de résoudre les conflits d’intérêts créés par la dissociation entre propriété et direction générale dans les entreprises cotées: comment garantir aux actionnaires qui abandonnent leur pouvoir de direction au profit de managers professionnels que la société sera gérée dans leur intérêt ?

Deux réponses sont classiquement apportées à cette question. D’une part, l’objectif de la firme doit être clairement de maximiser la valeur actionnariale. La règle financière numéro 1 qui en découle (et qui est universellement appliquée par les financiers) est celle de la valeur actuelle nette positive que doit présenter toute décision d'investissement. En maximisant la valeur de la firme, on privilégie nécessairement la valeur pour l'actionnaire (sauf si l'entreprise est en situation de détresse financière). D’autre part, un conseil d’administration est mis en place pour exercer une surveillance régulière de l’action des dirigeants et veiller à ce que le principe énoncé précédemment soit respecté.

La France n’a jamais complétement adopté l’idéologie actionnariale. Le concept concurrent ou complémentaire d’intérêt social est constamment avancé afin de limiter le pouvoir des marchés. Par ailleurs, la nature de l’actionnariat a une influence sur la problématique des conflits d’intérêt. Dans les pays comme les Etats-Unis où l’actionnariat est dispersé, la question qui est posée est celle de la surveillance de l’action du management. En France, la situation est différente car la plupart des sociétés sont contrôlées par un actionnaire dominant qui supervise effectivement la direction générale grâce à une large représentation au sein du conseil. Le véritable conflit d’intérêt potentiel est en réalité celui qui oppose le majoritaire et les minoritaires.

L’ancien code de gouvernance admettait une certaine coexistence de l’intérêt social et de l’intérêt actionnarial et reconnaissait que les actionnaires minoritaires puissent être dans une position plus vulnérable que les actionnaires contrôlants.

Le conseil était présenté comme une instance collégiale « représentant collectivement l’ensemble des actionnaires » (paragraphe 1.1). L’administrateur devait « se considérer comme le représentant de l’ensemble des actionnaires et se comporter comme tel dans l’exercice de ses fonctions sauf à engager sa responsabilité personnelle» (paragraphe 6.2). La nécessité de protéger les actionnaires minoritaires était reconnue implicitement dans le paragraphe 7.2.2 : « Plutôt que de tenter d’assurer une représentation spécifique des minoritaires, la meilleure formule consiste à nommer des administrateurs indépendants ».

La nouvelle version gomme toute allusion à l’intérêt actionnarial et met fortement l’accent sur l’intérêt social. Elle remplace la notion de « représentation de l’ensemble des actionnaires » du paragraphe 6.2 par l’affirmation du principe selon lequel que « chaque administrateur doit agir dans l’intérêt social de l’entreprise sauf à engager sa responsabilité personnelle ». Dans le paragraphe 1.1, l’idée de « représentation » de l’ensemble des actionnaires est remplacée par celle de mandat, expression plus rigoureuse juridiquement, mais qui atténue l'idée que les administrateurs devraient être alignés sur l'intérêt des actionnaires.

En ce qui concerne les actionnaires minoritaires, le paragraphe 7.2.2. qui attribuait aux administrateurs indépendants un rôle spécifique en la matière est purement et simplement supprimé. L'idée même que des actionnaires minoritaires puissent être représentés au sein du conseil est récusée sous prétexte que celui-ci risquerait de devenir "le champ clos d'affrontement d'intérêts particuliers". La prévention des conflits d’intérêt est à présent confiée à la sagesse … de l’actionnaire majoritaire qui assume une "responsabilité propre et distincte du conseil" à l’égard des actionnaires minoritaires. Cette approche est en contradiction avec la réglementation boursière qui prévoit des mécanismes pour protéger les actionnaires minoritaires (comme par exemple l'intervention d'un expert indépendant dans certaines circonstances).

Cet affaiblissement de « l’intérêt commun des actionnaires » (qui est défini comme l'objet de toute société par l’article 1833 du code civil) est inquiétante. La notion d’ « intérêt social » est une notion à géométrie totalement variable, fonction des choix propres de celui qui l’invoque. Mal employée, elle laisse la porte ouverte à toutes les iniquités tant dans les décisions de l’entreprise que dans les contestations judiciaires. Cette conception qui plaira assurément aux tenants de la valeur partenariale risque d’inquiéter les investisseurs dont les intérêts peuvent être mis de coté pour des raisons "supérieures" imprévisibles et indéterminées.

samedi 3 novembre 2012

Les chutes brutales de cours

J'ai présenté l'étude de KPMG sur les chutes brutales de cours sur BFM Business.

La vidéo de l'interview peut être visionnée ICI

vendredi 2 novembre 2012

Comment attirer les actionnaires : un livre de Baruch Lev

La crise a mis en lumière la désaffection croissante des investisseurs à l’égard des actions. En France, le nombre d’actionnaires individuels ne cesse de se réduire. D’après une étude récente, ils ont diminué de 2 millions depuis la fin de 2008. Leur pourcentage s’élève aujourd’hui à seulement 8,5% de la population âgée de 15 ans et plus.

La succession de scandales financiers des dix dernières années a probablement contribué à cette tendance. Elle a aussi été nourrie par les débats délétères sur les conflits d’intérêts dans les conseils ou sur les rémunérations des dirigeants de sociétés non performantes. La classe politique n’a pas manqué d’exploiter la situation et des réglementations toujours plus sévères ont été mises en place bien que, historiquement, leur efficacité se soit révélée douteuse.

Le bilan de la décennie qui vient de s’achever est terrible pour l’actionnaire : de 2002 à 2011, les primes de risque par rapport aux obligations d’Etat et aux émissions obligataires des entreprises ont été négatives (respectivement de -1,4% et de -5,7%) alors que dans une logique de risque / rentabilité, elles auraient due être positives. Elles le demeurent cependant sur longue période (respectivement de 3 et de 5,9% sur la période 1900-2011), mais force est de constater qu’elles diminuent avec le temps.

Ce constat n’est pas propre à la France. Il est également fait aux Etats-Unis et c’est ce qui a motivé le livre de Baruch Lev, Winning investors over : surprising truths about honesty, earnings guidance and other ways to boost your stock price. Professeur de comptabilité et de finance à la New York University ‘s Stern School of Business, il fait partie des meilleurs spécialistes américains de l’économie immatérielle. S’appuyant largement sur les résultats d’une recherche académique trop souvent négligés ou ignorés par les praticiens, son livre fourmille de conseils sur les bonnes pratiques que les entreprises cotées devraient adopter pour retrouver et maintenir la confiance des investisseurs.

Baruch Lev s’attache tout d’abord à tuer un mythe qui a la vie dure : le soi-disant court termisme des marchés dénoncé par beaucoup d'acteurs économiques et politiques français ou étrangers (voir par exemple les travaux réalisés au Royaume-Uni par la commission présidée par John Kay). On confond trop souvent durée de détention et mode de détermination de la valeur de l’action. Si la première tend effectivement à se réduire, les études académiques montrent que le second repose avant tout sur les attentes à long terme des investisseurs et, plus particulièrement, des plus sophistiqués d’entre eux (pour reprendre l'expression de Joël Stern: les lead steers). Ce sont plutôt les entreprises qui se laissent facilement piéger par des réactions ou des actions court termistes (voir à cet égard l'article d'Alfred Rappaport : The Economics of Short-Term Performance Obsession). Et une étude récente a montré que ce sont les propos court termistes des entreprises qui attirent les actionnaires les plus enclins à prendre leurs décisions à court terme.

Cela ne veut pas dire que le court terme doive être négligé. Les investisseurs ont besoin d’être rassurés sur le fait que l’entreprise est bien sur la trajectoire stratégique qu’elle avait défini (on sait qu'une déception en la matière est une des causes les plus fréquente d'une chute brutale du cours de bourse) : c’est la fonction des indications régulières (la « guidance » aux Etats-Unis ou "Communications portant sur des données financières estimées" en France ) qui sont données au marché sur le niveau d’activité ou les performances attendues à court terme.

L’objectif est de fournir au marché suffisamment d’informations financières et non financières pour permettre au cours d’être proche de la valeur fondamentale de l’entreprise en rassurant les investisseurs sur la capacité de l'entreprise à respecter la feuille de route qu'elle s'est elle-même imposée. Si une sous-évaluation est à éviter, une survalorisation est à proscrire. Il ne faut pas chercher à "booster" son cours (et le sous-titre de l'ouvrage de Baruch Lev est de ce point de vue assez mal choisi), mais à faire en sorte qu'il exprime des attentes que l'entreprise pourra satisfaire sur le long terme. Et si on s’aperçoit que l’on va manquer le consensus, mieux vaut le faire savoir tout de suite plutôt que d’attendre la dernière minute ou, encore pire, d’essayer de masquer cette situation par des manœuvres désespérées ou des manipulations comptables.

Pour Baruch Lev, la gestion des relations avec les investisseurs ne se résume pas à la communication financière. Des initiatives beaucoup plus concrètes sont à entreprendre qui toutes consistent à mettre en place des procédures, une organisation ou des règles qui permettent à l’entreprise de créer de la valeur à long terme et de révéler honnêtement aux investisseurs les progrès ou les échecs, qu’ils soient dus respectivement aux mérites ou aux insuffisances du management ou qu’ils soient imputables aux circonstances.

De nombreux thèmes sont ainsi traités dans cet ouvrage : la nécessité de rendre plus tangible la « soft information » (qui ne se confond pas avec l'information non financière : voir l'article de Petersen, Information : hard and soft), la stratégie à suivre face à une attaque menée par des actionnaires activistes, la mise en place d’indicateurs internes liés à la création de valeur qui serviront par la suite à l’information des actionnaires, les modes d’alignement des intérêts des dirigeants sur celui des actionnaires, l’impact des décisions financières sur la valeur de l’entreprise, l’intérêt (considéré comme secondaire par l’auteur) des politiques de responsabilité sociale, l’apport d’une bonne gouvernance à la diminution du risque de l’entreprise.

Malgré la richesse de ses recommandations, le livre de Baruch Lev manque cependant de développements sur une question essentielle si l’on veut gérer convenablement les attentes des investisseurs : comment apprécier le degré d’alignement de la valeur boursière sur la valeur fondamentale ? L’auteur traite de manière particulièrement simpliste cette question essentielle en proposant d’identifier une mauvaise évaluation des titres d’une entreprise par le marché à partir de comparaisons de multiples avec les concurrents ou en se reposant sur la dispersion des estimations des analystes. C'est un peu ... rudimentaire !

En fait, la réponse à cette question suppose deux approches complémentaires complexes. La première consiste pour une direction générale (et un conseil d’administration) à avoir une véritable conviction sur la valeur de l’entreprise. Comme l’écrit Pierre-Noël Giraud, la finance est un « commerce de promesses » (Le Vernimmen adopte le même point de vue lorsqu'il présente le directeur financier comme "un vendeur de titres"). Encore faut-il savoir ce que l’on peut promettre sur le long terme. Concrètement, cela consiste à évaluer l’impact sur la valeur des différents scénarios d’évolution en faisant travailler plus étroitement la direction de la stratégie et la direction financière au moment de l'élaboration du plan. Les travaux effectués annuellement pour les tests de pertes de valeur sont également une occasion pour se livrer à cet exercice.

La seconde approche consiste à analyser les attentes des investisseurs. Il s’agit d’une part d’identifier les hypothèses implicitement contenues dans le cours de bourse (croissance, rentabilité économique, durée de l’avantage concurrentiel, coût du capital…) par une approche de « reverse engineering » et, d’autre part, d’interroger les grands investisseurs pour comprendre leur vision du business model de l’entreprise et des paramètres non financiers qui compte dans l’élaboration de leurs anticipations.

C’est après avoir comparé la conviction du management et les anticipations des actionnaires qu’une entreprise peut déterminer sa stratégie de création de valeur à long terme et la communiquer à ses actionnaires actuels et futurs. Une bonne communication est nécessaire, mais elle est vaine, voire dangereuse, si elle ne s’inscrit pas dans un véritable marketing du titre, c’est-à-dire un souci de déterminer un positionnement financier qui puisse être effectivement tenu dans la durée. La confiance des actionnaires en dépend.

lundi 15 octobre 2012

Les décrochages boursiers en France : une étude exclusive de KPMG

La gravité de la crise économique et financière a engendré une crise de confiance réciproque entre les actionnaires et les entreprises. Dans certains cas, une perte de confiance peut être brutale et se manifester par un décrochage important et durable du cours de bourse. KPMG a analysé la fréquence, la durée et les raisons de ces mouvements dans une étude parue aujourd'hui sur le risque actionnarial et présentée par les Echos (téléchargeable).

Sur un échantillon de 348 sociétés françaises cotées de l’indice du CAC All Tradable*, près de 1827 chutes de cours de plus de 20% par rapport à l’indice sur une période de vingt jours de bourse ont été observées durant les cinq dernières années. 86,5% des entreprises cotées ont connu au moins un décrochage boursier de cette ampleur et 51,7% ont été affectées au moins quatre fois.

Plus l’entreprise est petite en termes de capitalisation boursière, plus elle est susceptible de connaître de tels mouvements brutaux, mais les grandes entreprises ne sont pas épargnées : 64,4% des 87 entreprises les plus importantes du CAC All Tradable (25% de l’échantillon) ont connu une chute de leurs cours de 20% durant ces cinq années.

Sur la même période, 493 chutes de plus de 30% ont été enregistrées, affectant presque une entreprise sur deux (48,6%). Le graphique suivant montre le pourcentage de sociétés ayant subi au moins un et au moins deux décrochages de 30% par rapport à l'indice durant la période d'observation.

Chutes + 30% Le premier bâton représente l'échantillon total. Les quatre suivants représentent les quartiles de l'échantillon classés par capitalisation décroissante.

Les secteurs de la technologie et des biens de consommation sont les plus sujets à ces décrochages brutaux. L’importance du capital immatériel dans ces secteurs, la fréquence et la rapidité des ruptures technologiques peuvent expliquer cette vulnérabilité.

Si on observe les causes apparentes des décrochages de plus de 30% qui ont affecté les trois quarts des plus grandes entreprises du panel (soit 207 chutes observées), 52% sont imputables à la perception d’une altération de la trajectoire stratégique (croissance plus faible que prévue, rupture technologique, réduction des marges ou gestion déficiente du portefeuille d’activité), 32% à des décisions financières anxiogènes qui peuvent cacher des faiblesses stratégiques et 16% à des dysfonctionnements dans l’exécution stratégique ou la gouvernance. L’importance respective de ces causes est variable selon le secteur d’activité.

Les chutes se concentrent sur les trois derniers mois de l’année pour la majorité des entreprises françaises. Durant cette période, les informations sur les performances annuelles de l’entreprise commencent à être connues ou anticipées et les gérants de portefeuille procèdent aux premiers arbitrages de fin d’année.

Ce phénomène de perte de confiance s’avère durable puisqu’il faut en moyenne près de 9 mois pour retrouver le niveau de l’indice après une chute de 20% et près de 11 mois pour les décrochages de 30%. La longueur de ce rétablissement favorise l’apparition d’autres phénomènes négatifs qui s’ajoutent et auto-entretiennent le décrochage : par exemple, la distraction managériale ou la dégradation du climat social hypothèquent la reprise et augmentent le risque financier.

L'article des Echos titre "le décrochage boursier : un écueil inévitable". Certes, le risque actionnarial est fréquent. Mais les entreprises peuvent l'éviter. De discussions approfondies avec des investisseurs, il ressort que la cohérence des signaux, c’est-à-dire des discours et des comportements, est essentielle au maintien de la confiance. Les investisseurs valorisent davantage la trajectoire stratégique que les résultats immédiats. La grande leçon est que les entreprises ne doivent pas se laisser intoxiquer par la tyrannie du court terme. La volatilité d'un cours est inévitable, mais l’entreprise peut favoriser son alignement avec sa valeur à long terme en adoptant une démarche structurée de création de valeur et en communiquant davantage sur sa stratégie et son business model.

dimanche 30 septembre 2012

La RSE est-elle pertinente pour l'actionnaire ?

Avec la persistance et l’approfondissement de la crise économique, la responsabilité sociale (*) est écartelée entre deux logiques. La première est positive et résulte du débat qui s’est engagé sur l’avenir du capitalisme : nos modèles économiques et sociaux doivent être radicalement repensés et les problématiques de durabilité (**) sont probablement centrales dans la rénovation qui s’annonce. La seconde est négative : si la solution de nos problèmes ne peut venir que de la croissance, il est essentiel de donner la priorité à la compétitivité de nos entreprises et donc de s’assurer que les investissements sont rentables et, qu’ils le soient très vite.

Pour être légitime, le développement durable ne peut échapper à une logique de rentabilité. Or, d’un point de vue actionnarial, le dossier n’est pas pleinement convaincant. Heureusement, valeur financière et valeur durable ne sont pas aussi antinomiques que l’on croit. Leur réconciliation passe par une intégration plus claire du développement durable dans la stratégie des entreprises et dans leur communication.

Du point de vue des actionnaires le développement durable n’est pas pleinement convaincant.

Certes, des avancées considérables ont été accomplies:

Mais les analyses qui ont été effectuées sur l’impact de la performance ESG sur la performance financière ne sont pas totalement conclusives, et les interprétations sur le sens de la relation divergent : est-ce la performance ESG qui permet la performance actionnariale ? Est-ce l’inverse ? Ou bien, y a-t-il une synergie entre les deux ?

Dans une étude (People and profits? The search for a link between a company’s social and financial performance), portant sur 95 études empiriques réalisées entre 1972 et 2001, Margolis and Walsh écrivent :

“When treated as an independent variable, corporate social performance is found to have a positive relationship to financial performance in 42 studies (53%), no relationship in 19 studies (24%), a negative relationship in 4 studies (5%), and a mixed relationship in 15 studies (19%)”.

Dans une recherche (Does it pay to be good) publiée ultérieurement, les mêmes auteurs concluent que l’impact de la performance sociale sur la performance financière est positif mais faible.

Selon une étude réalisée par l’Edhec en 2008,

« on ne dispose actuellement pas d’une base suffisamment solide pour pouvoir conclure que l’ISR génère une surperformance ».

Selon cette étude, la rentabilité de l’ISR ne semble pas supérieure à celle du marché. De janvier 2002 à décembre 2007, les rentabilités des indices ISR pour la France (5,82%), la zone Euro (6%) et l’Europe (4,71%) sont inférieurs à ceux de l’indice SBF 250 (8,89%), au DJ Euro Stoxx (8,17%) et au DJ Stoxx (6,93%). Seul la rentabilité d’indice ISR Monde dépasse le MSCI World et ce, malgré un risque comparable ou supérieur.

Enfin, la tenue du débat n’est pas rassurante pour les actionnaires. Une approche antagoniste domine : les intérêts des actionnaires sont opposés à ceux des parties prenantes (voir par exemple le livre de Lynn Stout : The Shareholder Value Myth: How Putting Shareholders First Harms Investors, Corporations, and the Public). La dissociation apparente des enjeux est illustrée par l’existence d’un rapport de développement durable physiquement séparé de celui du rapport financier. En outre, les adeptes de développement durable n’offrent pas de solutions claires pour rendre les arbitrages qui découlent nécessairement des conflits entre les différents intérêts. Ce défaut est d’autant plus apparent que l’idéologie actionnariale s’est, elle, construite autour d’un concept très facile à mettre en œuvre : la valeur actuelle nette des projets d’investissement (Voir l'article de Jensen : Value Maximization, Stakeholder Theory, and the Corporate Objective Function). Enfin, les motivations d’une politique de développement durable apparaissent peu claires et souvent déconnectés de tout objectif de performance ou d’efficacité.

Les entreprises semblent incapables de démontrer de manière convaincante que la durabilité est bonne pour la performance actionnariale. Pourtant, le cadre intellectuel des investisseurs est tout à fait compatible avec celui de la RSE car ils prennent leurs décisions essentiellement en fonction d’informations non financières sur le long terme.

N'en déplaise aux tenants du mythe du "short termism", la valeur boursière d’une entreprise dépend avant tout des attentes à long terme des investisseurs. Selon Associés en Finance, depuis 2005, la part de la capitalisation boursière représentée par les 10 premières années de flux de trésorerie actionnaires s’élève en moyenne à 64%. Il y a donc 36% de cette valeur qui est attendue au delà de 10ans. Baruch Lev pour sa part montre que seule la moitié de la valeur des entreprises est explicable par leur situation nette et le résultat estimé de la première année. Il en conclue que l’autre moitié est expliquée par des facteurs à long terme (voir Winning Investors Over: Surprising Truths About Honesty, Earnings Guidance, and Other Ways to Boost Your Stock Price). Enfin, comme le montrent les modèles d’évaluation financière classique, la valeur totale d’une entreprise repose très largement sur sa valeur terminale.

Pour déterminer la valeur à long terme, les investisseurs ne disposent pas de données financières. Ils font des paris sur la trajectoire stratégique de l’entreprise sur la base des promesses du management (voir le livre de Pierre Noël Giraud : Le Commerce des promesses : Petit traité sur la finance moderne). Deux éléments sont essentiels à cet égard :

• D’une part, la capacité de l’entreprise à créer et maintenir des avantages compétitifs à long terme (Voir Competitive Advantage: Creating and Sustaining Superior Performance de Michael Porter). Un avantage compétitif, c’est la possibilité de pouvoir dégager une rentabilité supérieure au coût du capital sur son actif économique (Voir mon article : "La création de valeur dans une économie connectée" paru en septembre 1998 dans la Revue Analyse Financière).

• D’autre part, la solidité du business model (Voir Do Some Business Models Perform Better than Others? A Study of the 1000 Largest US Firms de Weill, Malone, D’Urso, Herman et Woerner), son adaptabilité, sa capacité à tirer parti le plus intelligemment possible de son écosystème (tant il est vrai que le développement des entreprises passe par une perméabilité croissante de ses frontières avec des partenaires dans une logique de « coopétition »).

Cette approche est confirmée par une étude récente (A paraître) de KPMG Corporate Finance sur les crises de confiance boursières qui se manifestent par des décrochages brusques du cours de bourse par rapport à l’indice. Ces chutes brutales s’expliquent majoritairement par des éléments liés à la trajectoire stratégique à long terme où à des dysfonctionnements graves dans l’exécution stratégique qui conduisent les investisseurs à réviser leurs attentes à long terme.

Pour construire leurs attentes, les investisseurs doivent dépasser un cadre d’information suranné (voir par exemple l’analyse du FRC : Louder than words) : l’information délivrée aujourd’hui est complexe, technique, jargonnesque. Elle est aussi trop volumineuse pour être utile : elle privilégie la quantité à la qualité et la pertinence. Elle est inadaptée aux besoins car elle est essentiellement historique et financière et ne traduit que très imparfaitement la valeur des actifs intangibles. Enfin, elle est fragmentée entre financier et développement durable sans qu’à aucun moment une tentative de rapprochement ne soit faite.

Pour être légitime d’un point de vue actionnarial, la RSE doit donc être intégrée dans la stratégie opérationnelle de l’entreprise et dans sa communication financière.

Il faut repenser l’autonomie de la politique de développement durable en en faisant un réel volet de la stratégie. Dans le cadre du plan stratégique, le management doit identifier les impacts de la chaîne de valeur de l’entreprise sur les communautés ou ses partenaires (voir Strategy and Society, The Link Between Competitive Advantage and Corporate Social Responsibility de Michael Porter and Mark Kramer, HBR Décembre 2006). De manière symétrique, il doit analyser quelles sont les influences, positives ou négatives auxquelles l’entreprise peut être soumises ou dont elle peut bénéficier.

Sur cette base, les entreprises doivent définir les politiques ou les initiatives qui contribuent le plus fortement aux avantages compétitifs qu’elles veulent créer, ou qui sont les plus protectrices de leur business model. Un travail de cette nature doit aboutir à la sélection d’un nombre réduit d’initiatives qui pourront être différentes d’une unité stratégique à l’autre, en fonction de leurs caractéristiques stratégiques ou de leur localisation. Les mesures de performance à mettre en place ne peuvent donc pas être génériques. Les volontés de standardisation ou de normalisation de ces mesures sont louables mais peu opérationnelles dans cette vision.

Créer une valeur durable (ou une valeur partagée –« shared value »- pour reprendre l’expression de Michael Porter ) n’est pas suffisant pour avoir un impact positif sur le cours de bourse. Encore faut-il le faire savoir. L’Integrated reporting est un concept très prometteur de ce point de vue. Fruit d’une initiative conjointe du GRI et de « Accounting for Sustainability », il vise à présenter au marché, sous une forme synthétique, la façon dont l’entreprise compte créer de la valeur sur le long terme (Voir le Discussion Paper de l'IIRC, ‘Towards Integrating Reporting – Communicating Value in the 21st Century). Ses promoteurs invitent les dirigeants à présenter leur business model, les risques potentiels majeurs auquel il fait face, les stratégies envisagées pour les gérer, la stratégie de développement du capital économique et humain, les objectifs à court, moyen et long terme, les liens entre les mesures de performance non financières et la valeur (Voir le livre « The landscape of integrated reporting, reflections and next steps).

La mise en place du reporting intégré est vertueuse car elle oblige les entreprises à être claires sur leur stratégie et les caractéristiques de leur business model :

Avant donc que d'écrire, apprenez à penser.
Selon que notre idée est plus ou moins obscure,
L'expression la suit, ou moins nette, ou plus pure.
Ce que l'on conçoit bien s'énonce clairement,
Et les mots pour le dire arrivent aisément. (Nicolas Boileau)

La RSE est une idée prometteuse à condition de l’intégrer dans le paquet de promesses que fait le management à ses investisseurs actuels et futurs. Mais, à l’inverse de la politique, en économie, il vaut mieux tenir ses promesses … le réalisme, le pragmatisme et l’honnêteté sont les conditions de la survie et de la prospérité.


(*) Le terme responsabilité sociale des entreprises (RSE) est définie par la Commission Européenne comme « a concept whereby companies integrate social and environmental concerns in their business opérations and in their interaction with their stakeholders on a voluntary basis »

(**) Le concept de développement durable fait l’objet de nombreux débats sémantiques depuis le rapport Brundtland. Il n’est pas très éloigné de celui de RSE surtout lorsqu’il s’applique à l’économie et les deux expressions seront utilisées de manière équivalente tout au long de cet article

lundi 23 avril 2012

Un glossaire de la gouvernance (en anglais)

Le Rock Center for Corporate Governance de la Stanford's Graduate School of Business vient de mettre en ligne un glossaire des termes de gouvernance d'entreprise. Très utile. On peut en downloader un exemplaire déjà formaté ICI.

On rappelle que ce centre est dirigé par David Larcker dont on a présenté l'excellent ouvrage (incontournable pour tous ceux qui s'intéressent à la gouvernance) sur ce blog.

jeudi 19 avril 2012

Le Gouvernement d'entreprise en débats

Depuis 8 ans, j'ai le plaisir d'animer un séminaire à SciencesPo sur la Gouvernance Financière, autre façon de dire le "Gouvernement d'entreprise". Ce cours est accompagné d'un blog dédié sur lequel les étudiants retrouvent les lectures à effectuer pour chaque séance et diverses informations comme la biographie des invités qui viennent régulièrement partager leur expériences de manière très concrète.

La dernière séance est l'occasion de faire une synthèse des thèmes les plus importants (la présentation est téléchargeable ICI). Le sujet se caractérise en effet par des concepts et des idées foisonnantes.

Quels sont les débats les plus structurants ?

  • Il ne faut pas l'oublier, le conseil d'administration doit veiller à la défense égalitaire des actionnaires en vertu des articles 1833 du Code Civil (« Toute société doit avoir un objet licite et être constituée dans l’intérêt commun des associés ») et 1832 du Code Civil (« La société est instituée (...) en vue de partager le bénéfice »).N'en déplaise à nos hommes politiques, la boussole actionnariale est l'outil essentiel d'une direction générale. Le critère de décision doit être la valeur actuelle nette car il est univoque et légitime. Les autres critères sont flous, contradictoires et dangereux pour la sécurité financière de l'entreprise.
  • Le risque actionnarial est plus fréquent qu'on ne croit. Le rôle d'une direction générale et d'un conseil d'administration est de s'assurer que l'entreprise est capable de dépasser les attentes des actionnaires. Un cours ne monte que si l'entreprise dépasse les attentes des investisseurs. La création de valeur ne se traduit pas forcément par une augmentation du prix de l'action.
  • Cette vision que l'on peut qualifier (je l'admets!) d'idéologique n'est pas contradictoire avec le fait que l'entreprise a une responsabilité sociale et doit préserver les intérêts de ses partenaires (les stakeholders) : il n'y a pas de valeur actionnariale durable sans collaborateurs fiers et heureux de travailler dans l'entreprise, des clients satisfaits et des fournisseurs rentables. De ce point de vue, adopter le concept d'"enlighted shareholdervalue" me semble être une impérieuse nécessité (voir mon post sur "comment prendre en compte le facteur humain dans la valeur de l'entreprise" : ICI et ICI).
  • La Gouvernance est l'ensemble des mécanismes, processus et comportements qui encadre la création et la répartition de la valeur. Expliquée et respectée, elle est le facteur essentiel de la confiance entre les marchés et une entreprise. Il ne faut pas oublier que les actionnaires n'ont pratiquement aucun moyen de se protéger contre les promesses non tenues. La démocratie actionnariale n'est pas meilleure que la démocratie politique (même si j'ai tendance à penser que les promesses sont mieux tenues dans la première que dans la seconde ...).
  • Il est difficile de dire si une "bonne" gouvernance crée de la valeur. Les études qui ont été faites sur le sujet sont très nombreuses, mais beaucoup ne sont pas concluantes. Lorsque l'entreprise crée de la valeur, elle peut se permettre de négliger la gouvernance car la confiance se crée par l'existence d'autres canaux. On voit d'ailleurs aujourd'hui des exemples caricaturaux avec Google ou Facebook. Mais il reste à démontrer que cette approche peut être durable. Personnellement j'en doute.
  • Le débat sur le court terme et le long terme est essentiel (voir l'enquête actuellement en cours en Grande Bretagne), mais souvent mal posé. Dans la pratique, on voit souvent des managers très court termistes et des investisseurs qui sont prêts à s'engager sur de longues périodes. Qu'il existe d'autres actionnaires plus volage n'est pas un problème. Il faut bien qu'il y ait de la liquidité sur un marché pour qu'il fonctionne correctement. Allons même plus loin : la diversité de l'actionnariat est absolument indispensable pour limiter la volatilité de l'action. Il est bon d'avoir des acheteurs et des vendeurs qui ont des positions différentes sur les perpectives des entreprises.
  • Le dialogue que l'entreprise noue avec ses investisseurs est bien sûr un élément essentiel de la confiance. Il doit s'agir d'un dialogue et non d'une communication unidirectionnelle. Avant de communiquer, il faut écouter pour comprendre quelles sont les préoccupations des investisseurs et leurs critères d'analyse. Il faut aussi comprendre que les investisseurs ne sont pas des incompétents, bien loin de là ! Comment peut on croire qu'une brochure rutilante aux propos dithyrambiques peut masquer les insuffisances d'une stratégie ou les faiblesses des résultats ? Personne n'est dupe ! Une illustration de cet aveuglement est donné par l'attitude de beaucoup d'entreprises en matière d'impairment. Refuser de "passer un impairment" que le marché a déjà intégré dans les cours est un déni de réalité qui dessert la réputation d'un management auprès de la communauté financière.
  • L'integrated reporting est une initiative qui pourrait transformer profondément non seulement l'information des actionnaires mais aussi et surtout celle des conseils d'administration. On rappelle qu'il s'agit d'une initiative destinée à révolutionner l'information financière et non financière des entreprises. On peut certes la réduire à une question de communication financière ou à une nième tentative de mettre en place une meilleure communication RSE. En réalité, l'ambition est plus grande et les exigences de formulation sont plus fortes (voir le discussion paper et les différentes réactions) :

Integrated Reporting brings together the material information about an organization’s strategy, governance, performance and prospects in a way that reflects the commercial, social and environmental context within which it operates. It provides a clear and concise representation of how an organization demonstrates stewardship and how it creates value, now and in the future. Integrated Reporting combines the most material elements of information currently reported in separate reporting strands (financial, management commentary, governance and remuneration, and sustainability) in a coherent whole, and importantly: • shows the connectivity between them; and • explains how they affect the ability of an organization to create and sustain value in the short, medium and long term.

La mise en place de cet integrated reporting va obliger les directions générales et les conseils (qui sont responsables de la pertinence de l'information donnée au marché) à se poser des questions très complexes : quels est notre business model ? en quoi nous permet-il de créer de la valeur ? quels sont ses risques? comment allons nous les prévenir ? Quels sont les mesures de performances non financières et financières à long terme retenues ? quels sont leurs liens (en quoi le non financier participe-t-il à la performance financière ? etc. Quelle magnifique opportunité pour les conseils de se pencher sur des questions éminemment stratégiques et de mieux cerner les enjeux de leur entreprise !

  • L'encadrement juridique de la gouvernance est le produit d'une interaction complexe entre la soft et la hard law. Malgré la ressemblance des codes de gouvernance ou la "common lawisation" de leur production, il est difficile de dire que les systèmes de gouvernance convergent. Les pratiques de gouvernance d'un pays dépendent largement de l'efficacité et du dynamisme de son marché financier, de la réglementation boursière locale et de la façon dont les intérêts des actionnaires minoritaires sont protégés et surtout des traditions juridiques et des valeurs du pays.
  • Le système du comply or explain (et la surveillance qui en est faite soit par le régulateur, soit par les associations professionnelles, soit par les proxy firms) a été très utile pour diffuser de nouvelles pratiques de gouvernance, mais on en voit bien les défauts : le respect formel des codes (le box ticking) est un magnifique alibi qui permet de poursuivre en toute impunité des comportements contestables. En outre, cette approche incite à une formule "one size fits all" totalement irréaliste : chaque entreprise doit choisir sa propre gouvernance en fonction de la géographie de son capital, de son histoire, de sa maturité, de ses enjeux stratégiques, du type de relation de confiance qu'elle souhaite nouer avec des partenaires, etc... La gouvernance doit évoluer en fonction de la situation de la société. Elle est un des attributs de l'execution stratégique qui est elle-même la condition de la création des avantages compétitifs de l'entreprise (donc de la création de valeur). Son caractère unique peut même en faire un avantage compétitif (le système de gouvernance du "groupe" familial Mulliez est à cet égard une excellente illustration de cette idée).
  • Il convient également de souligner que beaucoup de bonnes pratiques sont souvent de fausses bonnes idées lorsqu'on examine scientifiquement leurs effets sur la performance des entreprises qui les ont appliquées. Le livre de Larcker et Tayan (voir mon post "Corporate Governance matters " : un ouvrage essentiel pour comprendre la gouvernance d'entreprise) montre qu'un nombre important de bonnes pratiques n'ont qu’un lien très ténu (quand il n’est pas négatif) avec les performances opérationnelles ou actionnariales de l’entreprise.
  • La majorité des débats sur la gouvernance est concentrée sur le Conseil d'administration, coeur du dispositif. En fait beaucoup d'idées (la plupart ?) viennent de Lord Cadbury dans son rapport de décembre 1992 "the financial aspects of corporate governance". Depuis cette date, la Grande Bretagne est clairement en avance sur tous les autres pays : ses pratiques de gouvernance font l'objet d'adaptations régulières (voir par exemple les consultations en cours sur le site du FRC) et les autres pays suivent ces tendances avec de nombreuses années de décalage. Le plus grand défi du Conseil est de ne pas se laisser enfermer dans un rôle de contrôleur (plus préoccupé de l'existence de processus que du fond des choses) pour apporter une contribution positive dans l'élaboration de la stratégie, le choix des dirigeants et la définition du "risk appetite". Des études récentes montrent que le conseil censeur n'est pas forcément le plus créateur de valeur. Cette ambition pose la question de la composition du conseil (compétence, indépendance) des moyens matériels mis à la disposition des administrateurs pour réduire l'asymétrie d'information dont ils sont naturellement victimes, mais surtout de leur disponibilité. Il est illusoire de penser que de "busy boards" puissent être réellement efficaces (voir ma proposition pour améliorer cette situation).
  • Si le salut ne vient pas des conseils d'administration, peut-on espérer que les actionnaires prennent les choses en main ? il ne faut probablement rien attendre des actionnaires individuels. Ils n'ont pas les moyens (ni souvent les compétences) pour intervenir utilement. Ce n'est pas le cas des investisseurs professionnels ou quasi-professionnels : fonds d'investissement, hedge funds, investisseurs familiaux (les riches ...). Leur activisme sert la cause de la gouvernance en maintenant les dirigeants sur leurs gardes (même si la gouvernance de ces activistes est loin d'être irréprochable ...). Encore faut-il que les régulateurs et les juges participent activement à la protection des investisseurs lorsqu'ils sont lésés. De ce point de vue, la démocratie actionnariale française a probablement des progrès à faire.

dimanche 12 février 2012

Le mirage des "bonnes" pratiques : elles ne sont pas forcément le signe d'une bonne gouvernance

Comment expliquer que malgré la prolifération des codes de bonne gouvernance, la pression des organismes professionnels et des firmes de proxy pour leur adoption, l’attention croissante du législateur et des régulateurs (voir ICI, ICI et ICI) quant à leur application, les organes de direction de grandes institutions financières se soient montrées si incompétentes ou impuissantes durant la crise que nous venons de traverser ?

La raison profonde de cette situation doit plus être recherchée dans la dynamique humaine des conseils que dans leur organisation, leurs processus de travail ou leur composition. C’est le point de vue de Simon Wang, un des dirigeants de « Governance for Owners, résumé dans McKinsey Quaterly de juin 2011 (Board : When best pratice isn’t enough ) et développé dans un papier que l’on trouvera sur le site de SSRN (Elevating Board Performance: The Significance of Director Mindset, Operating Context, and Other Behavioral and Functional Considerations).

Quels sont les éléments clés qui permettent d’avoir une bonne dynamique humaine ? Wong en identifie six :

1. les administrateurs doivent se comporter comme des propriétaires.

On parle actuellement beaucoup de l’engagement des actionnaires. Il faudrait surtout que ce soit les administrateurs qui s’engagent ! Nous l’écrivions dans le vade-mecum de l’administrateur : « il ne serait pas sain de rejoindre un conseil dans le seul but d’en retirer des satisfactions personnelles. En effet, ces motivations doivent être dépassées par l’ambition de mettre ses compétences et son expérience au service de l’entreprise. Il s’agit d’une condition indispensable pour développer une véritable affectio societatis au cours du temps » . Pour développer cette passion pour l’entreprise dont on est administrateur, il faut probablement dépasser la conception actuelle du rôle d’administrateur contrôleur pour adopter une démarche d’administrateur-conseil (voir mon post La gouvernance : réducteur de risque ou facteur de progrès ?, évolution qui dans bien des cas devrait se traduire par des performances meilleures pour l’entreprise (voir «  The costs of intense board monitoring »). Cela suppose que l’administrateur soit impliqué dans les choix stratégiques et le contrôle des risques, et qu’il n’hésite pas à exprimer ses désaccords avec le management

2. Les administrateurs doivent connaître réellement, intimement leur entreprise.

Cela n’est pas facile car ils ne s’y rendent que de manière épisodique et n’ont généralement pas accès aux niveaux inférieurs de la hiérarchie. Les informations qui leur sont délivrées ont été longuement préparées avec un objectif, celui de recueillir leur accord. Donc l’information venant de l’exécutif n’est forcément pas objective ! Une stratégie d’acquisition de l’information pertinente doit être mise en place. On trouvera dans le chapitre 2 du « Vade mecum de l’administrateur » un certain nombre de conseils pour optimiser cette recherche.

3. Les administrateurs doivent être prêts à « retrousser leurs manches ».

La plupart d’entre eux voient leur rôle comme celui d’un contrôleur distant qui ne doit (ou ne peut) se concentrer que sur les processus. Dans bien des cas, ils partent du principe que s’intéresser au fond serait non seulement une immixtion dans le management opérationnel, mais aussi une gageure tant les questions à traiter peuvent être complexes. Un exemple récent de cet état d’esprit nous est fourni à l’occasion de la mise en place les nouvelles dispositions réglementant les compétences des comités d’audit. La loi prévoit que ceux-ci sont chargés d’ « assurer le suivi de l’efficacité des systèmes de contrôle interne ». Tous les groupes de travail de place qui se sont penchés sur les modalités pratiques de ces dispositions ont soigneusement limité les pouvoirs des comités pour éviter qu’ils ne prennent des initiatives sur le fond des choses (voir mon post « pour l’AMF, le comité d’audit porte bien son nom »).

Soyons clairs : les administrateurs ne peuvent pas être pertinents sans travailler beaucoup et s’intéresser bien souvent aux détails des problématiques qu’ils sont amenés à traiter. Si de nombreux domaines doivent incontestablement demeurer sous l’autorité des dirigeants, certains doivent donner lieu à une implication renforcée des administrateurs : la stratégie, la maîtrise des risques, la sélection et la rémunération des dirigeants, le dialogue avec les investisseurs. Cela conduit naturellement à poser la question de la rémunération qu’ils sont en droit d’attendre d’un tel engagement et celle, plus difficile, du cumul des mandats (car on voit mal comment on peut s’impliquer sérieusement lorsque l’on est administrateur de plusieurs sociétés cotées).

4. Le CEO doit être animé d’un esprit collaboratif à l’égard de son conseil.

Trop souvent, le dirigeant va avoir tendance à manipuler ce dernier en tirant parti de l’asymétrie d’information dont il bénéficie. Souvent inconsciente, cette pratique est justifiée (non sans une certaine mauvaise foi) par des arguments de confidentialité ou de compétence. Les administrateurs doivent donc choisir un CEO ouvert, transparent et soucieux de leur permettre d’apporter toute leur valeur ajoutée. Cet esprit collaboratif sera d’autant plus facile à atteindre qu’ils se montreront engagés aux cotés des dirigeants (voir le point précédent).

5. Le conseil doit défendre son autorité et son indépendance.

Le danger se présente au fur et à mesure où le succès du dirigeant augmente. La stature du CEO peut devenir intimidante pour beaucoup d’administrateurs et donc les conduire à être moins vigilants et/ou moins résolus dans leurs critiques. Et, pour sa part, le CEO peut progressivement penser que ses administrateurs ne sont pas à la hauteur et qu’ils n’ont pas la connaissance suffisante pour prétendre intervenir dans les choix majeurs de l’entreprise. Pour Wang, le lead director ou l’administrateur référent ne sont pas des réponses adaptées. Un véritable président du conseil, distinct et plus expérimenté que le Directeur Général, permet un véritable équilibre et peut donner plus d’assurance aux autres administrateurs.

6. Enfin, le conseil doit mieux s’organiser pour travailler sur ce qui est prioritaire.

Ce point est plus organisationnel que comportemental. On se rapportera au vade-mecum de l’administrateur pour une description des méthodes et techniques qui permettent à l’administrateur de remplir ses fonctions avec toute l’efficacité attendue.

Wong propose donc aux conseils une véritable révolution intellectuelle et comportementale. Les règles du « comply or explain » sont devenues trop formalistes pour être efficaces. Leur respect ne signifie nullement une bonne gouvernance. Il faut admettre que ce qui se mesure bien n’est pas forcément révélateur de ce qui est bien. Les rapports qui présentent des statistiques sur l’indépendance des administrateurs, le nombre de réunions et l’âge du capitaine sont intéressants, mais ne nous apprennent rien sur l’efficacité de la gouvernance.

De nouveaux indicateurs restent à découvrir .

dimanche 29 janvier 2012

Impairment tests : quelle approche pour les tests de perte de valeur en 2011 ?

Dans le cadre travaux d’audit pour la clôture 2011 une question essentielle mobilise l’attention les directions financières et comptables et leurs auditeurs : comment appréhender les tests de perte de valeur (impairment tests) dans l’environnement économique actuel ?

Chaque année, en vertu d'IAS 36, les entreprises doivent s’assurer que la valeur recouvrable de leurs actifs ou de leurs Unités Génératrices de Trésorerie (UGT) est supérieure à leur valeur comptable. Les normes IFRS définissent la valeur recouvrable comme la valeur la plus élevée entre :

  • la valeur d’utilité (ou « value in use ») définie comme "la valeur actuelle des flux de trésorerie futurs susceptibles de découler d'un actif ou d'une UGT" et,
  • la juste valeur moins les coûts de cession (« fair value less cost to sell »), celle-ci étant "le montant qui peut être obtenu de la vente d'un actif ou d'une unité génératrice de trésorerie lors d'une transaction dans des conditions de concurrence normale entre des parties bien informées et consentantes, diminué des coûts de sortie".

Les entreprises ne sont pas obligées de calculer les deux et recourent plus fréquemment à la première (Pour une présentation des méthodes d'évaluation usuelle voir ce document)

Cependant, malgré les longs développements consacrés par IAS36 à la définition de ces deux concepts, on constate dans la pratique une certaine confusion dans leur application. C’est pourquoi il n’est pas inutile de rappeler les différences qui existent du point de vue de l’évaluateur avant de traiter des problématiques particulières de la clôture 2011.

Valeur d’utilité ou Juste valeur ?

Si l’on écarte les situations des UGT cotées pour lesquelles on dispose d’une référence de cours (référence qui n’est acceptable que si les volumes négociés sont suffisants) ou bien celles qui peuvent donner lieu à la constitution d’un échantillon de sociétés similaires cotées (situation également rare), la valeur d’utilité comme la juste valeur sont déterminées par la méthode de l’actualisation des flux de liquidité disponibles futurs(méthode dite des DCF).

Dans les deux cas, le point de départ est le même : c’est le plan d’affaires de l’UGT approuvé par le management. Mais ces prévisions ne peuvent généralement pas être prises en l’état. Le respect des normes comptables impose en effet des ajustements selon la valeur qui est calculée.

Pour le calcul de juste valeur, les hypothèses de croissance, de marges ou d’investissements doivent être acceptables du point de vue d’un investisseur de marché (le fameux « market participant »). Ce dernier n’est pas vraiment défini dans la réglementation comptable, mais il est clair qu’il s’agit d’un acteur extérieur au management qui pourrait (hypothétiquement) racheter l’UGT. Le plan d’affaires ne peut être utilisé tel quel que s’il peut être considéré par cet investisseur, industriel ou fonds d’investissement, à la fois raisonnable et de nature à maximiser la valeur de l’UGT. De même, pour le calcul de la valeur terminale, en particulier la croissance à l’infini des cash flows, les paramètres retenus doivent être cohérents avec les anticipations du marché. Si le management a une vision différente du marché, son point de vue ne peut prévaloir dans le cadre de cet exercice.

Pour la valeur d’utilité, la norme impose d’écarter les investissements de capacité et les restructurations non encore engagées, et donc leurs effets éventuellement bénéfiques sur les résultats futurs, y compris sur la valeur terminale. L’approche risque d’être assez théorique lorsque l’UGT est dans un secteur qui se transforme rapidement et qui requiert des investissements constants pour maintenir une position compétitive. En effet, si le plan d’affaires se contente de maintenir les actifs actuels, il faut en bonne logique prendre comme hypothèse un marché stable, exercice pour le moins artificiel qui risque de plonger les managers dans un abime de perplexité lorsqu’ils vont simuler cette situation dans leurs projections!

Aspect généralement trop négligé au profit d’une approche mécanique, le taux d’actualisation doit être cohérent avec le profil de risque et le calendrier des flux de l’UGT. Que l’on cherche à calculer la valeur d’utilité ou la juste valeur, la perspective doit être celle du marché et elle doit s’exercer sur les flux spécifiques de l’UGT. Il faut se poser la question de savoir quelle serait l’exigence de rentabilité d’un acteur de marché compte tenu de la séquence et du risque des cash flows de l’UGT. Dans la mesure où les flux retenus pour la juste valeur et la valeur d’utilité sont différents et ont théoriquement des profils de risque différents, les taux applicables devraient l’être également.

Enfin, un processus d’évaluation rigoureux impose une comparaison entre d’une part les valeurs calculées et, d’autre part, entre ces valeurs calculées et la valeur de marché de l’entreprise. L’AMF encourage fortement les entreprises à faire cet effort de réconciliation (voir la Recommandation AMF n°2011-16 en vue de l’arrêté des comptes 2011). Cet exercice est considéré comme faisant partie des meilleurs pratiques professionnelles. On peut ainsi lire dans le document de travail de l’AICPA « Accounting and Valuation guide – testing Goodwill for impairment » qui fait actuellement l’objet d’une procédure de consultation publique :

When a significant portion of the reporting entity is subject to fair value measurement, the task force believes a best practice in evaluating the reasonableness of the fair value measurements for an entity’s individual reporting units is to compare and explain differences between the aggregated sum of the fair value measurements of the entity’s reporting units to external fair value indications for the entire entity. Accordingly, if portions of the entity were not subject to fair value measurement, it may be necessary to estimate the fair value of those portions.

Dans ce cadre conceptuel, quels sont les points délicats soulevés par la situation économique et financière actuelle ?

La question du taux d’actualisation

Le problème qui est souvent celui sur lequel se focalise l’attention des professionnels est la détermination du taux d’actualisation. Dans le cadre de la méthode des flux de liquidité disponibles, on utilise généralement le Coût Moyen Pondéré du Capital (ou Weighted Average Cost of Capital) qui est coût moyen pondéré des exigences de rentabilité des actionnaires (coût des fonds propres) et des créanciers (coût de la dette). Ce taux est cohérent avec les flux qui sont utilisés, à savoir les flux de trésorerie disponibles à dette nulle (ou encore Free cash flow to the firm).

La sélection des paramètres est indissociable de l’analyse que l’on porte sur l’incertitude qui pèse sur l’exécution du business plan de l’UGT. Pour l’année 2011, l’exercice est plus compliqué parce qu’un certain nombre de points de repères ont disparu.

Le taux sans risque : la première composante du coût des fonds propres est le taux de l’actif sans risque. Traditionnellement, on retient le taux de rendement des obligations d’Etat à long terme. Celles-ci ne sont-elles pas censées être les actifs les moins risqués sur le marché financier? La situation de la Grèce et la dégradation des notes des Etats-Unis ou de la France remettent en cause cette approximation. Faut-il pour autant augmenter le taux sans risque lorsque l’on évalue une UGT au Portugal par exemple ? La réponse est négative. Pour une présentation détaillée de la problématique, on se reportera à un post que j'avais fait au mois d'aout dernier (Quel taux sans risque quand plus rien n'est sûr ? ).

La prime de risque de marché : certes, la chute des marchés peut être interprétée comme une augmentation importante du coût du risque. Elle peut aussi s’expliquer par une révision drastique des anticipations que les actionnaires portent sur les flux de liquidités futurs. En tout état de cause, dans une perspective de test de perte de valeur, il vaut mieux prendre une perspective de long terme. Retenir une prime de marché de 4,5 à 5,5% est cohérent avec le taux historique que l’on peut observer sur les marchés occidentaux.

Le Bêta (qui représente la sensibilité de la rentabilité de l’UGT aux variations du marché): dans bien des cas, le Bêta historique observé sur les entreprises comparables est encore moins significatif que par le passé en raison de l’extrême volatilité des marchés au cours des dernières années. Là encore, il importe d’être pragmatique. Les Bêtas calculés doivent être analysés et éventuellement corrigés en fonction des éléments qui l’affectent : le levier opérationnel, des perspectives de croissance, la volatilité de la position concurrentielle, la sensibilité du secteur à l’environnement économique, la pression réglementaire, etc.

Le levier financier : Le coût moyen pondéré du capital prend une hypothèse de levier financier qui permet d’évaluer la valeur des économies fiscales futures générées par l’endettement de l’entité. Les praticiens retiennent habituellement le levier des entreprises comparables. Ce choix est très contestable. Rien ne permet de penser que l’entité puisse ou veuille choisir un levier cible identique à celui du secteur (d’autant que la chute des capitalisations boursières a facialement augmenté les leviers exprimés en valeur de marché). Du point de vue de l’investisseur de marché, il est nécessaire d’examiner la séquence des cash flows futurs propre à l’UGT et leur niveau de risque : le levier doit être déterminé en fonction de la capacité de l’entité à rembourser cette dette théorique. Enfin, il ne faut pas oublier que les coûts de faillites peuvent venir remettre en cause la valeur de ces économies fiscales.

Le coût de la dette : il s’agit d’estimer le coût que devrait payer un investisseur de marché compte tenu de la volatilité des cash flows de l’UGT et du levier cible qui a été retenu. Il n’est pas possible de prendre le coût historique de l’entité, ni le coût de refinancement du groupe.

Le taux d’actualisation est un facteur clé dans une évaluation, mais c’est rarement l’élément le plus important. La valeur d’une entreprise est souvent plus sensible au prix de vente moyen ou aux coûts variables qu’au taux d’actualisation. L’arbre ne doit pas cacher la forêt et les directions financières doivent être attentives à trois questions essentielles : la modélisation des flux, la détermination rigoureuse des risques et la réconciliation des valeurs.

Trois points d’attention

La valeur s’exprime avant tout au travers du business plan dont les hypothèses doivent être acceptables, raisonnables et documentées. Ce business plan doit faire l’objet d’une modélisation qui permette de faire des simulations ou des travaux de sensibilités non seulement sur les paramètres financiers que l’on a retenu comme le taux d’actualisation mais aussi et surtout sur les principales hypothèses opérationnelles (les prix, les volumes, les coûts variables, les coûts fixes, les investissements, la croissance à l’infini). L'AMF recommande d'ailleurs que les travaux d'analyse de la sensibilité de la valeur soit élargis aux variables opérationnelles. Les tables de sensibilité qui portent uniquement sur le taux d'actualisation ou le taux de croissance à l'infini n'ont souvent qu'un intérêt très faible.

Il ne faut pas chercher à faire trop compliqué. Plus les choses sont complexes plus il faut chercher à simuler l’essentiel. Une modélisation simple permet d’exprimer et de tester plus facilement un raisonnement stratégique. Il ne faut pas oublier qu’une évaluation financière n’est que la traduction d’une stratégie en flux de liquidité. Dans un environnement aussi incertain que celui dans lequel nous vivons aujourd’hui, des projections très détaillées sont moins convaincantes qu’une trajectoire plus simplifiée, mais étayée par un raisonnement stratégique rigoureux.

Cette remarque vaut non seulement pour les flux mais aussi pour la valeur terminale qui compte généralement pour 70 ou 80% de valeur totale d’une entité. A cet égard, le taux de croissance des cash flows à l’infini est inséparable d’une analyse de la position concurrentielle de l’UGT à l’issue du business plan. Les raccourcis qui consistent à prendre le taux d’inflation ne sont en général pas très pertinents. Il peut être utile de repousser l’horizon à l’issue duquel la valeur terminale est calculée. Une prolongation du business plan permet de simuler le profil attendu de la rentabilité économique (qui peut croitre ou décroitre en fonction de la maturité de l’UGT) avant qu’elle ne rejoigne le coût du capital.

Second point d’attention : la prise en compte des risques. Théoriquement on doit prendre au niveau des cash flow les risques spécifiques à l’entité et au niveau du taux d’actualisation ce que l’on appelle le risque systématique, c’est à dire la sensibilité des performances aux variations du marché. Il n’est pas toujours facile de respecter rigoureusement cette règle qui impose de raisonner en flux espérés (c’est-à-dire en flux construits à partir de scénarios probabilisés). Les entreprises utilisent souvent un seul scénario de flux probables. Dans ce cas, il est habituel de rajouter une prime spécifique au taux d’actualisation.

Mais attention ! L’utilisation de ce joker ne doit pas dispenser d’identifier les principaux risques non pris en compte dans les cash flows. On pense plus particulièrement aux conséquences spécifiques sur la santé financière de l’entité d’un risque politique, d’une dégradation des finances publiques et de ses effets sur le niveau des investissements des collectivités publiques ou des impôts des sociétés … Il faut non seulement identifier ces risques mais aussi simuler leur impact pour vérifier la cohérence de la prime que l’on retient. Toute prime de risque spécifique doit être soigneusement argumentée.

Enfin, et le problème se pose avec une acuité particulière cette année, les entreprises doivent rationaliser les différents travaux d’évaluation. Les différences entre la valeur d'utilité et la juste valeur s’expliquent en large partie par les ajustements dont on a parlé plus haut. La réconciliation entre la juste valeur, la valeur d’utilité et la valeur de marché telle qu’elle résulte du cours de bourse est plus compliquée, mais elle est nécessaire lorsque l’écart est très significatif et persistant. Elle est d’ailleurs demandée par un nombre croissant de comités d’audit inquiets de la persistance d’un écart souvent grandissant entre la valeur interne calculée et le cours de bourse.

La réconciliation avec le cours de bourse ne peut pas être totale car les prix de marchés intègre des éléments subjectifs quelque fois difficiles à comprendre, mais l’exercice doit être mené le plus loin possible.

Une première approche consiste à exploiter les rapports d’analystes financiers qui suivent la valeur pour comprendre les différences d’hypothèses entre le business plan utilisé par le management et celles retenues par les analystes. Cette comparaison est éclairante, mais elle est généralement insuffisante car les analystes ne sont pas des investisseurs. Les biais de leurs travaux sont largement documentés.

Une seconde approche consiste à utiliser le modèle simplifié mentionné précédemment pour procéder à un « reverse engineering » du cours de bourse et discerner les attentes théoriques moyennes des investisseurs (voir le livre de Rappaport et Mauboussin "expectations investing"). Ce travail est naturellement complexe et ses conclusions peuvent naturellement être discutées. Mais il offre au management l’opportunité de mieux comprendre le comportement du cours de bourse. Cette empathie à l’égard des investisseurs peut être mise à profit pour une meilleure communication financière et un dialogue enrichi avec les investisseurs.

Donc cette année, les travaux à entreprendre dans le cadre des tests de dépréciation sont certes plus complexes, mais ils seront plus éclairants et utiles pour les entreprises à condition qu'ils soient effectués sérieusement bien sûr !

lundi 24 octobre 2011

"Corporate Governance matters " : un ouvrage essentiel pour comprendre la gouvernance d'entreprise

Il y a vingt ans, un comité présidé par sir Adrian Cadbury était institué en Grande Bretagne pour définir les conditions dans lesquelles le conseil d’administration pouvait s’acquitter efficacement de sa mission de contrôle. Dix huit mois plus tard ces travaux déboucheront sur le fameux rapport Cadbury, premier d’une longue série : il existe aujourd’hui plus de 150 codes nationaux dont les recommandations ne sont pas très différentes de celles que l’on trouve dans le code anglais. Cette grande convergence des pratiques a été largement encouragée par la globalisation financière, l’influence des fonds d’investissement anglo-saxons et des agences de notation spécialisées dans la gouvernance.

Cependant, force est de constater que ces « bonnes pratiques » ne sont pas parvenues à empêcher les crises ou les scandales. Régulièrement mise en accusation, elles font l’objet de réglementations ou de recommandations toujours plus précises et fermes avant de très vite se révéler insuffisantes ou inopérantes. Ne serait-il pas temps de s’interroger sur les raisons de cette incapacité à mettre en place un système qui marche durablement?

« Corporate Governance Matters » (voir Vidéo) apporte des éléments de réponse à cette question. Destiné aux praticiens et écrit par deux professeurs de Stanford (David Larcker et Brian Tayan), ce livre présente systématiquement les coûts et bénéfices des différents mécanismes de la gouvernance à la lumière de la recherche académique ou des enquêtes professionnelles.

La lecture de cet ouvrage permet de constater que les pratiques que nous considérons comme essentielles n’ont en réalité qu’un lien très ténu (quand il n’est pas négatif) avec les performances opérationnelles ou actionnariales de l’entreprise.

La séparation des fonctions du Président et du Directeur général, l’indépendance des administrateurs ou du comité d’audit, la présence de représentants d’actionnaires salariés, la féminisation des conseils, le recrutement externe des dirigeants, les incitations alignées sur la performance actionnariale de l’entreprise, la rotation des auditeurs : autant d’exemples de fausses bonnes idées si l’on se réfère à la recherche académique.

Les enquêtes qui ont été menées sur le fonctionnement des conseils, la façon dont ils s’acquittent de leur responsabilité en matière de contrôle, le recrutement des dirigeants, leurs rémunérations montrent certes des progrès, mais aussi des carences et des frustrations importantes dont les administrateurs ont bien conscience, mais qu’ils semblent incapables de redresser.

Ce constat pessimiste ne doit pas nous conduire à abandonner tout espoir, mais il nous incite à réfléchir à la façon dont nous devons repenser la gouvernance.

Tout d’abord, les auteurs nous invitent à reconnaître l’importance du contexte. Il faut abandonner l’idée que l’on puisse mettre en place des mécanismes de gouvernance standardisés car l’efficacité du système dépend de la nature de l’actionnariat, de la maturité de la firme, de son histoire et de ses relations avec les marchés financiers, de l’environnement juridique dans lequel elle évolue, etc … Il n’y a pas de « one size fits all ».

A titre d’exemple, un système de stock-options doit non seulement prendre en compte toute la structure de la rémunération, mais aussi bien d’autres facteurs : l’appétence au risque défini par le conseil, l’âge du dirigeant concerné, son ancienneté, l’importance de son investissement financier dans l’entreprise, de sa fortune personnelle, son attitude à l’égard de la prise de risque, l’existence d’un plan de succession sérieux. Il n’y a pas de formule miracle. C’est aux administrateurs de réfléchir à la meilleure solution en fonction du contexte. La complexité de cette tâche jette un doute sur l’intérêt de laisser les actionnaires s’exprimer sur le sujet et sur la capacité d’un conseil à régler la question en quelques heures de débat.

Deuxièmement, l’approche de la réglementation et des « bonnes pratiques » est inadaptée. La fonction (ou les objectifs) des mécanismes de gouvernance sont plus importants que leurs caractéristiques organiques. De fait, la logique du « comply or explain » (largement soutenue par le régulateur) et les approches mécaniques adoptées par les agences de proxy pour vérifier l’application des codes de bonne conduite ont conduit au « box ticking », solution de facilité qui privilégie l’apparence à la réalité.

La gestion des risques et la communication qui est faite sur ce sujet est un bon exemple de cette dérive. Les administrateurs devraient moins s’intéresser à l’organisation ou aux procédures de contrôle qu’à l’adéquation de la prise de risque avec la stratégie de l’entreprise. Au lieu d’être présentés dans une liste générique et artificielle, les risques devraient faire l’objet d’une information vivante et hiérarchisée qui permette aux investisseurs de mieux comprendre la résilience du modèle de développement de l’entreprise (voir les observations du FRC en la matière). Le consensus de place sur le rôle des comités d’audit tel qu’il s’exprime dans les recommandations de l’AMF de juillet 2010 est bien loin de cette vision qui nécessiterait selon l’ouvrage « a substantial increase in analytical skills and processes» de la part des administrateurs.

Enfin, l’approche résolument organisationnelle de l’ouvrage conduit ses auteurs à insister sur l’importance de quatre éléments centraux d’un système de gouvernance efficace :

  • la structure organisationnelle (le caractère plus ou moins décentralisé de l’entreprise) ;
  • la culture organisationnelle (attitudes et comportements à l’égard du risque, de la performance, de l’esprit d’équipe) ;
  • la personnalité du CEO (style de leadership) ;
  • les qualités des administrateurs (capacité d’engagement, force de caractère).

Ces problématiques sont trop périphériques dans les débats sur la gouvernance. Il est vrai qu’elles ne peuvent pas être facilement réduites à quelques recettes ou mesures standardisées. Elles sont pourtant au cœur des réussites ou des échecs de la gouvernance.

Réintégrer les aspects culturels et comportementaux dans la gouvernance est le grand défi des praticiens et des chercheurs. Comme dans bien d’autres domaines, le soft est plus important que le hard.

dimanche 28 août 2011

Quel taux sans risque quand plus rien n'est sûr ?

La dégradation de la note de l’Etat américain par S&P a relancé un débat parmi les auditeurs (voir ICI et ICI) et les évaluateurs américains (voir ICI, ICI et ICI) sur le fait de savoir si les obligations à long terme des Etats Unis pouvaient encore être utilisées dans le calcul du coût du capital. La même question peut être posée en Europe pour les pays qui ont fait récemment l’objet d’une dégradation, en particulier la Grèce dont le taux d’intérêt sur les obligations à long terme a dépassé 15%.

La plupart des modèles financiers (comme le Modèle d’Equilibre des Actifs Financiers ou les modèles d’évaluation d’options) prennent en compte l’existence d’un actif sans risque, c’est-à-dire d’un actif dont la rentabilité effective est toujours égale à la rentabilité espérée et donc non corrélée au marché. Dans la pratique, on utilise le taux des obligations d’Etat comme une approximation de cette rentabilité.

Mais cela reste une approximation, car il arrive que les Etats ne respectent pas leurs engagements malgré leur faculté de lever l’impôt. Pour les pays de la zone Euro, ce risque est encore accru car les Etats empruntent dans une devise dont ils ne contrôlent plus l’émission. Les investisseurs peuvent légitimement penser que derrière une crise de liquidité se cache une crise de solvabilité.

Dans ces conditions, quel taux sans risque prendre en compte dans le calcul du coût du capital ? Le sujet est d’importance pour toutes les entreprises qui évaluent des opportunités d’acquisition ou qui doivent effectuer des tests de dépréciation d’activités situées dans des pays mal notés. Elle est particulièrement sensible pour les entreprises dont les opportunités de croissance constituent une part essentielle de la valeur.

Tout d’abord, la question ne se pose que si les flux de liquidités à actualiser sont exprimés en monnaie locale. Si l’investisseur est situé dans un pays dont la monnaie est forte et que ses projections sont exprimées dans la devise du pays d’origine, c’est le taux sans risque de ce dernier qui est applicable. Cela suppose bien sûr que les flux de liquidité aient été traduits en utilisant un taux de change futur cohérent avec le différentiel anticipé d’inflation (application de la théorie de la parité du pouvoir d’achat). Pour une entreprise de la zone euro qui a investi en Grèce ou au Portugal, la question ne devrait donc pas se poser. Les projections qu’elle utilise sont en Euros : elle doit utiliser les obligations d’Etat qui sont les plus représentatives de l’actif sans risque de la zone (le Bund allemand par exemple).

Le problème est différent si les projections sont exprimées en monnaie locale. Le taux d’actualisation applicable est alors celui du pays où se trouve l’activité. En l’absence d’un taux d’obligation d’Etat à long terme directement utilisable, un certain nombre de solutions existent (voir Damodaran ), mais elles sont loin d’être parfaites. Elles sont habituellement mises en œuvre lorsque l’on évalue un projet ou une entreprise dans un pays émergent.

1. On peut essayer de reconstruire un taux sans risque à partir d’un taux réel et du taux d’inflation anticipé. Le taux réel peut être évalué à partir des obligations d’Etat indexées sur l’inflation. Si l’on considère que les TIPS américaines (Treasury Inflation Protected Securities) ne peuvent plus être utilisées, on peut recourir à celles émises par la France (OATi à maturité longue) ou par l’Allemagne. A ce taux réel, on ajoute l’inflation anticipée.

2. On peut également partir du taux de rentabilité exigé sur un actif sans risque dans le pays d’origine s’il n’intègre pas de risque de défaut et l’ajuster par le différentiel d’inflation anticipée avec le pays investisseur en appliquant la formule de la parité des pouvoirs d'achat

3. S’il existe des contrats futures sur les devises des deux pays concernés, il est aussi envisageable de déduire le taux d’intérêt applicable dans le pays étranger à partir du taux d’intérêt du pays d’origine, du taux de change Forward pour la période t, du taux Spot.

4. Une pratique apparemment assez répandue dans les grands groupes consiste à partir du taux des obligations de l’Etat étranger et à tenter d’extraire la prime de défaut qu’il comporte en identifiant le spread correspondant à ce risque. Ce spread peut être déterminé soit sur la base des spreads observés sur les obligations d’Etat classées par notation, soit de ceux observés sur le marché des CDS.

5. Enfin, il peut exister des grandes entreprises locales qui empruntent à un taux plus faible que l’Etat (Voir : « Quelques erreurs en évaluation à ne pas commettre dans le contexte actuel », lettre Vernimmen de Juin 2009) . Dans ce cas, et si leur business model est éprouvé et que leur levier est raisonnable, certains n’hésitent pas à utiliser ces taux . On peut éventuellement les réduire de quelques points pour approcher un taux sans risque (Damodaran conseille 0,5% mais sans véritable justification).

Bien sûr, ces différentes solutions sont loin d’être idéales! Au calcul du taux sans risque s’ajoutent d’autres considérations techniques aussi complexes et incertaines (en particulier lorsque l’on évalue des actifs dans des pays émergents) : la prime de risque et le Bêta applicables, la mesure du risque pays. Pour être appliqués en toute rigueur, les choix méthodologiques doivent prendre en compte le degré d’efficience et d’intégration internationale du marché financier local et, malheureusement, on se trouve rarement dans une situation claire (voir Sabal, Jaime : "The Discount Rate in Emerging Markets- A Guide", 2001).

Mais au-delà de ces considérations techniques, est-il si critique de trouver le « juste » taux sans risque ? Il n’est probablement pas nécessaire d’atteindre une précision scientifique et cela pour deux raisons.

Premièrement, il ne faut pas oublier que les modèles que nous utilisons ne sont que des conventions financières (voir André Orléan : « Comprendre les foules spéculatives : Mimétismes informationnel, autoréférentiel et normatif » ). Elles sont indispensables pour créer un consensus de modélisation, élément critique de l’efficience des marchés (voir Christian Walter : Les quatre causes de l'efficacité informationnelle des marchés. Finance et Bien Commun 2005/3). Mais elles restent une représentation théorique d’une complexité que nous avons du mal à appréhender (et on a le sentiment que cette situation a empiré au cours des dernières années !).

Il est incontestable que les investisseurs exigent une certaine rentabilité sur les investissements qu’ils font, mais chacun a sa propre exigence, développe ses propres anticipations rationnelles et irrationnelles et utilise ses propres critères d’évaluation. Du point de vue du dirigeant d’entreprise, ce qui est important c’est de déterminer l’exigence moyenne qui pèse sur les actifs dont il a la responsabilité.

Le MEDAF nous offre une grille de lecture commode, simple et reconnue à partir d’un taux sans risque et d’une prime de marché. Mais ce n’est pas le seul modèle disponible. Certains n’utilisent pas le taux sans risque. Par exemple Associés en Finance a développé le modèle Trival qui exprime la rentabilité exigée par un investisseur sous la forme d’une constante (ordonnée à l’origine de la droite de marché), d’une prime de risque et d’une prime d’illiquidité. Cette constante qui a historiquement fluctué de -0,16 à 5,6 est distincte du taux sans risque. Il faut noter de manière incidente que les évaluateurs qui utilisent la prime de marché de cet excellent modèle comme input du MEDAF se trompent chaque fois lourdement puisque cette prime découle d’un modèle différent (la constante n’est pas le taux sans risque des obligations d’Etat à 10 ans et la prime d’illiquidité est formellement identifiée à coté de la prime de risque).

Il est donc aussi important de raisonner sur le coût des fonds propres de manière globale que d’essayer de le reconstruire à partir d’éléments issus d’un consensus de modélisation parmi d’autres. D’autant que le taux sans risque n’est pas la seule notion théorique du MEDAF: le bêta en est une autre ! Et le risque de faillite introduit une complexité supplémentaire dans le calcul du coût moyen pondéré du capital.

Les entreprises cotées qui effectuent des travaux d’évaluation dans le cadre de leurs tests de dépréciation ne doivent donc pas se contenter de calculer mécaniquement un taux d’actualisation à partir du MEDAF. Elles doivent aussi estimer le coût du capital qui résulte d’un plan d’affaires raisonnablement anticipé par les investisseurs et du cours de bourse de la société (en effectuant tout simplement un calcul de taux de rendement interne). Cette analyse (pratique) permet de conforter/challenger les travaux de construction (théorique) du taux d’actualisation.

La seconde raison (probablement la plus importante) pour laquelle il ne faut pas s’inquiéter de ne pouvoir calculer précisément le taux sans risque est la faiblesse relative de son impact sur le résultat d’une évaluation. Cette remarque vaut également pour tous les calculs détaillés auxquels procèdent avec délectation les évaluateurs pour déterminer les autres paramètres du coût du capital : la prime de risque, le Bêta des fonds propres, de la dette (éventuellement), le levier cible, la taille, etc…

Tous ces paramètres font souvent l’objet d’un travail d’analyse considérable, mais le nombre d’onglets du tableur ne saurait masquer le caractère éminemment subjectif et incertain des résultats de ces calculs.

Certes des analyses de sensibilité sont généralement réalisées pour montrer l’impact de ces choix sur la valeur de l’entreprise. Et de fait, le taux d’actualisation a toujours un impact important qu’il partage avec une autre estimation encore plus subjective, le taux de croissance à long terme des flux de liquidités. Mais ces analyses ne sont pas les plus pertinentes. Plus intéressantes sont celles qui portent sur les éléments clés de la performance : le niveau des prix, le volume, la marge opérationnelle, le taux de conversion du résultat économique en flux de liquidités disponibles, etc. Lorsqu’elles sont menées sérieusement, on s’aperçoit que la sensibilité de la valeur aux variations du taux d’actualisation est toujours très inférieure à celle des éléments opérationnels.

La disparition d’une référence claire de taux sans risque ne crée donc pas une difficulté insurmontable dans le calcul du coût du capital. En revanche, elle invite les entreprises à s’interroger sur les raisons et les conséquences de la probabilité accrue de défaut des Etats sur les fondamentaux opérationnels des entreprises : des politiques économiques incertaines et inefficaces, une ponction fiscale croissante dont l’utilisation ne sera pas forcément productive, des restrictions dans le financement des entreprises, etc… La valeur dépend davantage du numérateur que du dénominateur.

En conclusion : Les dégradations des notes des dettes souveraines ne sont pas un indicateur de dépréciation, mais les incertitudes qu’elles expriment et qu’elles créent invitent les entreprises à s’interroger de manière plus critique sur leurs plans d’affaires et les moyens financiers qui seront nécessaires à leur exécution.

Une version pdf assortie de références bibliographique est disponible ICI

- page 1 de 7