Télécharger le fichier original (Mémoire de fin d’études)
Le calcul des coûts
A travers un exemple bien connu, Destoeuf (1977) constate qu’un coût est une opinion et que cette opinion n’a de sens que si elle étayée. Toutes les personnes qui suivent un cours de comptabilité de gestion reconnaissent cela après une justification. A la différence d’un prix, un coût n’est pas une réalité économique ; c’est une construction de ce que peut coûter un produit, un service, une commande ou un centre de responsabilité, par la personne qui doit estimer ce coût. Dans le cas extrême où une entreprise ne fabrique qu’un seul type de produit, on peut soutenir, mais toujours avec beaucoup de prudence3, que tous les coûts afférents à l’achat des matières premières, à la fabrication et à la distribution des unités de produit, et à la gestion de l’entreprise dans son ensemble) entrent dans l’estimation du coût complet du produit. Mais, dès qu’une entreprise fabrique plus d’un produit, les calculs de coûts se compliquent terriblement. Ainsi, par exemple, se pose la question de la répartition des frais généraux de gestion entre les types de produits fabriqués. Faut-il répartir les coûts des services de comptabilité ou de Direction Générale entre les produits ? En dépend la justesse et la pertinence des coûts calculés. Si la décision de répartir ces coûts entre les différents types de produits fabriqués est prise, comment les répartir ? Comme aucune clé de répartition (au poids, à la valeur, aux mètres carrés utilisés dans l’atelier de fabrication etc.) n’est parfaite, le choix de cette clé devient crucial. Ce choix est-il pérenne ? Si l’on décide par exemple de modifier substantiellement la gamme de produits fabriqués, le choix de la clé de répartition risque de ne plus être approprié. Intervient l’objectif de celui qui estime le coût : car on ne mesure pas un coût de la même façon selon que l’on souhaite s’en servir pour calculer un prix de vente ou pour déterminer la cause principale du coût. Donc un coût en tant qu’opinion est un concept très complexe qui requiert, pour être calculé, des simplifications souvent caricaturales. De même, on à l’habitude de classer les coûts en différentes catégories. Une des classifications classiques est celle qui sépare les coûts variables des coûts fixes. On définit un coût variable comme un coût qui varie proportionnellement au volume d’activité du produit et un coût fixe comme celui qui ne varie pas en fonction du volume d’activité. Mais ces définitions sont tout de même simplistes : elles ne sont que des artifices facilitateurs de calcul et, en conséquence, de décision et d’action : il n’y a aucun coût vraiment fixe dans l’entreprise (même le loyer du local de vente et le salaire du P-DG varient au fil du temps) et aucun coût vraiment variable (pour fabriquer mille unités d’un produit, on peut avoir besoin de 10 € de matière première par unité ; mais pour en fabriquer dix mille, peut-on raisonnablement penser que les 10 € de matière par unité n’auront pas varié ? Les ristournes obtenues pour des achats plus conséquents de matière peuvent, par exemple, réduire le coût d’achat de la matière, ou au contraire l’importation d’une partie de la matière de l’étranger peut affecter le coût moyen de la matière). En fait, on se donne des coûts que l’on décide de considérer comme variables ou comme fixes, alors que la plupart de ces coûts se comportent de façon difficilement modélisable (plusieurs auteurs recommandent de considérer les coûts comme mi-fixes et mi- variables à la fois ; mais ceci est aussi une simplification).
Enfin, le calcul du point mort, dont beaucoup d’entreprises se servent pour déterminer à partir de quel volume elles arrêtent de perdre de l’argent et commencent à en gagner, est La comptabilité analytique peut utiliser des charges supplétives qui ne sont pas prises en compte par la comptabilité financière, comme par exemple une rémunération des capitaux investis ; elle ne prend pas en compte des charges non incorporables comme des pertes non liées aux opérations de l’entreprise (par exemple des moins-values lors de la vente d’actifs boursiers). Même pour une entreprise qui ne fabrique qu’un seul produit, il n’y a pas automatiquement concordance entre la perspective de la comptabilité financière et celle de la vraisemblablement une des caricatures les plus connues et les plus utilisées de la comptabilité
de gestion. Le calcul du point mort traditionnel repose sur un certain nombre de postulats
totalement irréalistes. Ainsi :
le comportement du chiffre d’affaires et des coûts est linéaire sur une certaine plage
d’activité ;
les coûts peuvent se diviser entre coûts variables et coûts fixes ;
les coûts fixes restent constants sur la plage d’activité retenue ;
les coûts variables fluctuent proportionnellement au volume d’activité ;
le prix de vente ne varie pas lorsque le volume de ventes augmente ;
la valeur des facteurs composant les différents coûts ne varie pas en fonction de
l’activité ;
la productivité de l’entreprise reste inchangée ;
les catégories de clients et les zones de vente restent constantes ;
le nombre d’unités produites est égal au nombre d’unités vendues ;
les niveaux de stock initial et final sont identiques ;
il n’y a aucun déphasage temporel entre la production et la vente ;
tous les facteurs pris en compte ont été déterminés à l’aide d’études statistiques qui
tiennent compte de l’expérience de l’entreprise ;
la composition des ventes se maintient si l’entreprise fabrique plusieurs produits ;
etc. (Du Tilly et Fiol, 1980)
Ces postulats sont des simplifications grossières des situations réelles, tout le monde le reconnaît. Et pourtant, le concept de point mort, simple et plein de bon sens, et son expression chiffrée, simpliste au regard des postulats qui lui sont attachés, donnent et donneront encore
pendant longtemps un point de repère très utile aux entreprises, indispensable à l’action. En revanche, telles qu’elles sont développées par l’analyse microéconomique, les analyses de
l’évolution du chiffre d’affaires et des coûts conduisent à des équations infiniment plus compliquées et à des courbes représentatives beaucoup plus subtiles montrant qu’il y a en fait au moins deux points morts (Mattesich, 1958, Baumol, 1965, Du Tilly et Fiol, 1980).
Néanmoins, leur complexité théorique et leur non opérationnalité les condamnent à rester au placard des curiosités intellectuelles, sans effet sur la vie pratique des entreprises. Avec le point mort, nous sommes face à un exemple d’instrument de gestion, selon nous,
représentatif d’une forte simplification au service d’une appréhension rapide d’une situation
de gestion et d’une action conséquente. Reste à ne pas oublier que le point mort n’est qu’un le
résultat de multiples simplifications, toujours extrêmement discutables. Le balanced scorecard
Selon ses concepteurs (Kaplan et Norton, 1992, 1996), le balanced scorecard s’inscrit en
progrès significatif de complexité par rapport au reporting financier traditionnel, peu sensible
aux relations de l’entreprise avec les deux parties prenantes fondamentales que sont les clients
et les salariés, plus enclin à mesurer les résultats qu’à suivre l’évolution des processus, calqué
sur l’architecture hiérarchique alors que la gestion est devenue plus transversale, trop orienté
vers le constat de résultats d’actions passées et donc peu prospectif et peu proactif, etc.
Le balanced scorecard serait, aussi, plus pertinent que le tableau de bord à la française, car
plus et mieux adapté aux besoins actuels des entreprises modernes selon Epstein et Manzoni
essentiels de la gestion des entreprises d’aujourd’hui, entre autres le suivi de la relation aux
clients. En d’autres termes, le balanced scorecard serait une amélioration du tableau de bord
car plus moderne, plus généralisable et plus actualisé dans sa représentation des situations
d’entreprise4. Cet outil complexifierait davantage les représentations des situations de gestion
; il serait moins simpliste en prenant davantage en compte la complexité actuelle des rganisations.
En fait, à la différence du tableau de bord, le balanced scorecard tel qu’il est présenté par ses
concepteurs repose sur deux postulats qui atténuent fortement le caractère complexe de
l’instrument: d’abord, la stratégie de l’entreprise est rationnellement définie, clairement
explicitée, connue de tous et acceptée par tous au sein de l’entreprise ; ensuite, la structure est
transparente et ne donne lieu à aucune ambiguïté dans la répartition des responsabilités
(Mendoza et Zrihen, 1999a et 1999b). Ce sont là, à notre avis, deux simplifications de la vie
des organisations qui atténuent considérablement la portée de cet instrument, au moins en
milieu latin où les deux postulats ne tiennent pas à l’épreuve des faits. Il s’agirait donc d’une
vraie-fausse complexification des représentations des situations de gestion pour le balanced
scorecard : on complexifierait ces représentations par l’ajout d’éléments qu’il est en fait
relativement simple d’injecter dans le tableau de bord et on simplifierait abusivement en
parallèle la vie des organisations en faisant reposer la pertinence de l’instrument sur deux
postulats intenables. En parallèle, le tableau de bord, qui ne retient pas du tout ces postulats,
serait accusé d’une injuste simplification expliquée en fait par le contexte historique (milieu
du siècle dernier) dans lequel il a été conçu5.
Néanmoins, si l’on juge la pertinence de chacun des deux outils à l’aune de leur pénétration
dans les grandes entreprises mondiales, il est clair que le balanced scorecard est de très loin
largement gagnant face à son homologue français qui n’est jamais vraiment sorti de ses
frontières nationales. Peut-on vraiment en conclure que le balanced scorecard reflète mieux la
complexité des organisations ?
Alors que le risque d’oublier les postulats économiques de base lors de l’utilisation du point
mort était relativement faible dû à leur évidence, ce risque est beaucoup plus fort dans le cas
du balanced scorecard car ses postulats de nature socio-politique sont beaucoup plus
facilement refoulées par les organisations.
Dans ces exemples de base de la comptabilité de gestion et du contrôle de gestion, ce n’est pas
la mesure du concept ou les modalités d’application de l’instrument de gestion qui constituent
l’enjeu de la mise en pratique, c’est le choix et la conscience des fondements mobilisés. On
estime ou on apprécie un coût ou une situation de gestion « à la louche », avec des approximations, avec en toile de fond des postulats, des pré-supposés, des convictions.
La question de l’influence de ces simplifications sur la façon dont les managers appréhendent
les situations complexes auxquelles il sont confrontés se pose donc. Dans quelle mesure le caractère réducteur de la complexité des instruments de contrôle de gestion déforme-t-il le mode de pensée et d’agir des managers ?
Les travaux de recherche que nous menons (De Geuser et Fiol, 2003 et 2003b) sur la façon
dont les managers prennent leurs décisions de gestion nous incitent à penser que ce ne sont
pas les instruments de gestion qui altèrent la capacité des managers à appréhender la complexité. Ces derniers sont naturellement poussés à simplifier les situations de gestion qu’ils affrontent pour pouvoir agir. Et les instruments de gestion ne leur sont utiles que s’ils facilitent et encadrent cette simplification.
Table des matières
Résumé .
Liste des abréviations
Table des matières .
1. Introduction
1.1. Les leucémies aiguës lymphoblastiques
1.1.1. Epidémiologie .
1.1.2. Diagnostic
a/ La présentation clinique
b/ Les examens complémentaires .
1.1.3. Classification
a/ Etude cytologique
b/ Etude immunologique
1.1.4. Etude cytogénétique et biologie moléculaire
1.1.5. Les facteurs pronostiques
1.1.6. Principe du traitement de la LAL de l’enfant
1.1.7. Description générale du protocole FRALLE 2000
1.1.8. Le traitement d’entretien .
1.2. Thiopurines
1.2.1. Présentation
1.2.2. Métabolisme et mécanisme d’action des thiopurines
1.2.3. Variabilité interindividuelle des effets .
a/ Efficacité
b/ Myélotoxicité .
c/ Immunodépression
d/ Toxicité hépatique
1.3. Hémostase .
1.3.1. Physiologie, rappels succincts
a/ L’hémostase primaire .
b/ La coagulation plasmatique .
c/ La fibrinolyse .
1.3.2. Exploration de la coagulation plasmatique
a/ Le temps de Quick (TQ)
b/ Le temps de céphaline avec activateur (TCA)
c/ La mesure du taux de fibrinogène fonctionnel
d/ La mesure spécifique d’un facteur de la coagulation .
e/ La recherche d’un anticorps spécifique .
1.3.3. Troubles de l’hémostase et leucémie aiguë
a/ Les anomalies de l’hémostase induites par la maladie elle-même
b/ Effet de la L-asparaginase sur l’hémostase .
c/ Impact de la corticothérapie sur l’hémostase .
d/ Effets des autres thérapeutiques
1.3.4. Baisse du facteur V
2. Patients et méthodes
2.1. Patients
2.2. Analyse statistique .
3. Résultats
3.1. Patient n°1 .
3.1.1. Diagnostic
3.1.2. Traitement reçu
a/ Phases initiales intensives
b/ Traitement d’entretien
c/ Traitements de soutien
3.1.3. Trouble de l’hémostase
3.1.4. Imputabilité médicamenteuse
3.2. Patient n°2 .
3.2.1. Diagnostic
3.2.2. Traitement reçu
a/ Phases initiales intensives
b/ Traitement d’entretien
c/ Traitements de soutien
3.2.3. Trouble de l’hémostase
3.2.4. Imputabilité médicamenteuse
3.3. Patient n°3 .
3.3.1. Diagnostic
3.3.2. Traitement reçu
a/ Phases initiales intensives
b/ Traitement d’entretien
c/ Traitements de soutien
3.3.3. Trouble de l’hémostase
3.3.4. Imputabilité médicamenteuse
4. Discussion
4.1. Rappel et critique des résultats
4.2. Comparaison avec les données de la littérature .
4.3. Recherche d’un mécanisme d’action
4.4. Projet de recherche
5. Conclusion
6. Bibliographie
Annexe 1 : Schéma général du traitement FRALLE 2000-A
Annexe 2 : Schéma général du traitement FRALLE 2000-BT, groupes B
Annexe 3 : Schéma général du traitement FRALLE 2000-BT, groupes T
Annexe 4 : L’algorithme de Naranjo .
Annexe 5 : La méthode française d’imputabilité
Télécharger le rapport complet