Arrow Table de matières
1257167

III.3. MODELISATION ECONOMETRIQUE DU NIVEAU D’ACTIVITE DE LA CIMENTERIE DE KATANA ET INTERPRETATION DES RESULTATS

III.3.1. Présentation du modèle

Le niveau d’activité de la cimenterie IK représenté par son offre  (OFFRCIK)  étant  une  question  d'appréciation au niveau de  l’institution,  la  relation  qui  lie  les variables se présente de la manière suivante :

Y = f (Xi)      (1)

La  forme  réduite  que  nous  retenons est  une équation linéaire standard de moindres carrés ordinaires qui prend la forme générale ci-après :

OFFRCIK= f(DEMACIK, PRIXCIK, QUANTIMPO, PRIXIMPO,….) (2)

Pour tester la théorie liée à la production de façon la plus objective, nous  examinons  ici  la  performance  de  la  théorie  dans  une  analyse  de  régression  économétrique destinée à tester les variables retenues ci-haut.

Les  régressions  portent   sur  la  transformation  log-linéaire  de  la  variable  et  notre modèle sera donc écrit sous la forme log-linéarisée. Nous  estimons  pour  cette  étude  une  équation  à  k  variables  exogènes  en  fonction  de  la disponibilité des données de la forme linéaire suivante :    

 = +            (3) avec i = 1….5 ;  t = 2011…….2014.

Avec  une constante et  ; le terme d'erreur; ,  (i  =  1  ...  k)  représente  les  différents  paramètres  du  modèle  et  k  le  nombre  de  ces paramètres;  X  représente  les  différentes  variables  indépendantes  du  modèle ;  t est  la période.

Dans notre étude, l'équation prend la forme suivante :

= + + + 1 +   (4)

Cette équation met en évidence la relation entre la production (niveau d’activité) et un certain nombre de variables qui sont supposés l’expliquer. A priori, nous supposons que cette relation est linéaire mais nous allons la soumettre à une vérification empirique afin de tester sa robustesse.

III.3.2. Présentation et justification des variables du modèle

            III.3.2.1. Variable dépendante

Le choix des variables découle à la fois de la littérature théorique et empirique (Etat de la question) sur le niveau d’activité de la cimenterie IK à savoir la production et la commercialisation du ciment sur le marché à Bukavu, compte tenue de la difficulté dans laquelle elle fonctionne due à la pratique de son prix, lequel se veut supérieur par rapport à celui pratiqué par les concurrents.

En considérant les questions de recherche de ce travail,  et compte  tenu  des  données  disponibles, nous  spécifions comme  variable  dépendante,  la productivité de la dite firme.

Les valeurs de cette variable sont trouvées dans les rapports mensuels de production élaborés à la cimenterie IK. Quant aux variables indépendantes, elles  ont été sélectionnées en tenant compte à la fois des hypothèses, de la disponibilité des données et d’Etat de la question. En particulier ; les variables suivantes ont été préalablement retenues comme  ayant une  corrélation avec le niveau de productivité de la firme : les ventes réalisées par la cimenterie IK, son prix de vente, les quantités importés pour couvrir toute la demande locale de ciment ainsi que le prix pratiqué par les concurrents.

Ces  variables relèvent  de  la  théorie  originale  des créances et sont justifiées  comme variables explicatives.

III.3.2.2. Variables explicatives

  • La demande de la cimenterie (DEMACIK)

Les ventes réalisées par la cimenterie IK est un élément non négligeable dans la détermination des prévisions productives de cette dernière.

En effet, lorsque celles-ci sont faibles ou moindres, elles entrainent la baisse de la productivité pour ne pas constituer des stocks des invendus qui pourraient contribuer à l’augmentation des charges pour la firme car ils entrainent des coûts de stockage supplémentaires. Et si par contre elles sont considérables, elles contribueraient à l’augmentation de la capacité productive de la firme pour répondre à la demande lui adressée.

  • Le prix de vente de la cimenterie (PRIXCIK)

Le prix de vente pratiqué par la firme, est un élément crucial de détermination de la capacité productive de la firme car il influence le choix ou les préférences des consommateurs du ciment. Il stimule ainsi donc la demande sur le marché.

En effet, lorsque le prix de vente est élevé, les consommateurs se tournent vers les produits concurrents qui sont généralement vendus moins cher sur le marché par rapport à celui pratiqué par la firme, et entrainé ainsi donc la baisse de l’offre. Si par contre la firme pratique la politique de prix d’écrémage, celle-ci incitera les consommateurs à acheter plus le ciment local et de bonne qualité et se désintéressé de celui importé. Cette action conduirait à l’augmentation du volume de production pour couvrir toute la demande locale adressée à la firme.

Le prix est ainsi un élément non négligeable du marketing qui détermine la valeur du produit ou d’une gamme par rapport à d’autres plus concurrentes.

  • Les quantités importées (QUANTIMPOR)

Les quantités importées de ciment constituent un autre bloc d’éléments influant sur le niveau d’activité de la firme, en ce sens qu’elles permettent la couverture de la demande locale non satisfaite en ciment sur le marché.

En effet, lorsque celles-ci sont faibles, la firme se verra obligé d’augmenter sa production pour couvrir toute la demande non satisfaite. Lorsque par contre elles sont énormes, elles inciteront les consommateurs à se désintéressés de la production locale, en offrant leurs ciments à un prix bas par rapport à celui de la firme locale. Ce qui impliquerait la baisse de la capacité productive suite à la baisse de la demande qui s’est tournée vers les produits concurrents importés.

  • Le prix de vente des importateurs (PRIXIMPOR)

Le prix de vente des importateurs sur le marché est aussi un facteur non négligeable dans la détermination du niveau d’offre de la firme dans le secteur de ciment sur le marché locale  Il est très crucial qu’il doit être pris au même titre que le prix interne de la firme étant donné qu’ils produisent les mêmes effets sur le niveau de productivité de la firme.

III.3.2.3. Présentation synthétique des variables du modèle

Il est question dans cette sous-section de présenter ces variables retenues dans le modèle sous forme d’un tableau dont la première colonne représente les variables, la deuxième les acronymes respectifs, la troisièmes les modalités et enfin la quatrième représentera des signes attendus pour chaque variable.

Tableau 31 : Tableau synthétique des variables du modèle

Variables

Acronymes

Modalités

Signes attendus

Les ventes réalisées par la cimenterie IK

DEMACIK

Quantitative

+

Prix de vente de la cimenterie IK

PRIXCIK

Quantitative

+

Les quantités importées pour compléter la demande locale

QUANTIMPOR

Quantitative

+/-

Prix de vente des importateurs

PRIXIMPOR

Quantitative

+/-

Source : Notre traitement

            III.3.2.4. Echantillonnage

Nous allons analyser les données de 44 mois comprenant les prévisions faites sur l’offre de la cimenterie et qui nous permettent d’avoir une idée sur certains comportements de nos variables vis-à-vis du service rendu par l’entreprise et selon le nombre d’observation du modèle. Cet échantillon concerne les données combinées reçues de la cimenterie IK, de la Division de l’Economie ainsi que de la Direction Générale des Douanes et Accises (DGDA).

Ainsi donc, nous allons utiliser les données en rapport avec la production, la vente et le prix de vente récoltées au service de comptabilité et finance de la cimenterie IK ; les données en rapport avec le prix de vente du ciment importé récoltées à la Division de l’économie ainsi que les données en rapport avec les quantités de ciment importées récoltées auprès de la DGDA.

III.3.2.5 Analyse des résultats

Une étude scientifique ne peut aboutir à un résultat valide que si elle a utilisé des  données  bien  collectées.  En  effet,  une  collecte mauvaise  des  données  est  pire que si l’on ne réalisait pas l’enquête. Ainsi,  la  collecte  des  données  étant  une  étape  cruciale  dans  un  projet  de recherche, le chercheur doit s’efforcer d’y apporter un maximum de sérieux. C’est pour répondre à cette exigence que s’impose la nécessité d’expliquer la manière dont les données ont été collectées. Les variables entrant en jeu   pour  expliquer le niveau d’activité (production et commercialisation), ont été citées dans les discussions précédentes, éléments issus de la théorie et des études empiriques.

D’autre  part,  il  est  possible  que  les  données  collectées  contiennent  des données manquantes et/ou aberrantes qui risqueraient de biaiser les analyses. Cela étant, nous allons expliquer la manière dont ces données ont été essuyées pour obtenir modèle final sain. C’est seulement sur le modèle essuyé qu’il est  maintenant possible d’effectuer des estimations.

  • Statistiques descriptives

Nous présentons dans cette partie quelques statistiques descriptives relatives à notre échantillon et aux variables explicatives retenues pour notre régression.

Ainsi,  nous  avons  exploité  certaines  statistiques  descriptives  avant  d’analyser  notre  modèle économétrique par la méthode qui nous a permis de valider ou non les hypothèses émises. Concernant  l’analyse  statistique,  nous  avons  jugé  bon  pour  notre  cas  d’utiliser la moyenne, médiane,  mode,  écart-type,  Skewness,  Kurtosis,  minimum,  maximum, la  statistique  de  Jarque  -  Bera  et   la  probabilité  lui associée afin de présenter les données sur le graphique qui semble être pertinent.

  • Méthode d’estimation du modèle

Les logiciels Eviews 3.1 et SPSS 17 servent d’outils d’aide dans l’estimation de notre modèle par la méthode de moindres carrés ordinaires.

  • Différents tests utilisés

La  conduite  des  tests  ci-  dessous  nous  permettra  de  nous  assurer  de  la  qualité  des  résultats économétriques que nous avons trouvés.

  1. Test de normalité

L’objectif poursuivi par ce test est de vérifier si les résidus du modèle estimé suivent une loi normale.  Cette  analyse  peut  être  menée  à  partir  de  l’examen  visuel  de  l’histogramme  de  la distribution de fréquence.

La statistique de Jarque-Bera propose un test de normalité qui tienne compte du Skweness et de Kurtosis. Elle est définie par :

JB =

Avec : n= nombre d’observations

k= nombre de variables explicatives si les données  proviennent des résidus d’une régression linéaire, si k=0

S= coefficient d’asymétrie : moment d’ordre 3 d’une variable centrée réduite

K= Kurtosis = moment d’ordre 4 d’une variable centrée réduite

L’hypothèse nulle (H0), veut que les données suivent une loi normale, (H1), que les données ne suivent pas une loi normale. Autrement, on accepte H0 si la probabilité associée à ce test de JB, est supérieur à 5% et H1 dans le cas contraire.

Néanmoins, la règle de décision se construit de deux manières. On peut soit utiliser le critère de probabilité de JB, soit celui de Kurtosis combiné à celui du coefficient d’asymétrie.

En considérant donc le critère de probabilité de J- Bera, Bourbonnais (1999)[1] relèvent que si celle- ci est supérieure au seuil de signification de 5%, on accepte H0 et si non on accepte H1.

  1. Test d’autocorrélation

L’autocorrélation  des  erreurs  signifie  que  le  terme correspondant  à  une  période  est  corrélé avec le terme d’erreur d’une période. Si cette corrélation joue entre deux termes consécutifs, on parle de l’autocorrélation d’ordre 1.

Il  existe  plusieurs  tests  de  l’autocorrélation  des  erreurs ;  pour  le  cas  de  notre  travail,  nous utiliserons le test de Durbin Watson, il permet de détecter l’autocorrélation d’ordre 1 selon la forme : εi = ρεt-1+Vt

  1. Test d’Héteroscédasticité

L’Héteroscédasticité  a  lieu  en  cas  de  non  constance de  la  variance  des  erreurs.  Les conséquences de l’Héteroscédasticité sont les suivantes :

  • Estimateurs sans biais
  • L’estimateur MCO n’est plus à variance constante.

L’idée  de  ce  test  est  de  vérifier  si  le  carré  des  résidus  peut  être  expliqué  par  les  variables explicatives du modèle. Si tel est le cas, il y a une Héteroscédasticité.

  1. Test de Co intégration

Lorsque  deux  variables  sont  Co intégrées,  elles  sont reliées  par  une  relation  de  long  terme, cependant,  elles  peuvent  s’écarter  de  temps  en  temps  (à  court  terme)  de  cette  relation d’équilibre.

III.3.3. Statistiques descriptives

Le tableau qui suit présente les principales statistiques (moyenne, médiane, minimum,  maximum, écart-type,  Skewness,  Kurtosis, , la  statistique  de  Jarque  -  Bera  et   la  probabilité  lui associée)  des  variables  retenues  dans  l’analyse du niveau d’activité de la cimenterie IK et notamment la production de ladite firme.

Tableau 32 : Statistiques descriptives des variables

VARIABLES

OFFRCIK

DEMACIK

PRIXCIK

QUANTIMPOR

PRIXIMPOR

 Mean

 534.0691

 503.7361

 17.39773

 596.8114

 17.95455

 Median

 576.7300

 498.3300

 19.00000

 574.7000

 18.00000

 Maximum

 1608.950

 1204.100

 20.00000

 1318.000

 19.00000

 Minimum

 0.000000

 0.000000

 0.000000

 100.7300

 16.00000

 Std. Dev.

 333.1571

 304.2589

 5.636859

 342.1296

 1.050018

 Skewness

 0.378531

 0.117451

-2.719867

 0.312161

-0.960772

 Kurtosis

 4.020833

 2.258587

 8.657776

 2.148025

 2.592689

 Jarque-Bera

 2.961281

 1.108933

 112.9354

 2.045339

 7.073433

 Probability

 0.227492

 0.574379

 0.000000

 0.359634

 0.029109

 Observations

44

44

44

44

44

Source : Nos confections avec le logiciel Eviews 3.1

Il ressort du tableau ci-haut que l’entreprise étudiée produit en moyenne 534,07 tonnes observé sur la période de notre recherche avec un écart type de 333,16 tonnes, un maximum de 1608,95 tonnes et un minimum de 0.

L’analyse du coefficient d’asymétrie (Skewness) laisse voir que trois variables possèdent une forte queue vers la droite, leurs Skewness étant positifs. Et deux variables ont des coefficients négatifs  et donc possèdent une forte queue vers la gauche. Quant au Kurtosis, nous constatons que toutes les variables présentent des queues qui comptent plus d’observations que dans une distribution normale.

Alors l’hypothèse nulle du test de Jarque-Bera (1982) est que : «  la production est normalement distribuée », contre l’hypothèse alternative : « l’absence de la normalité de la distribution de la variable production », au seuil de signification  donné (généralement de 5%). Cette statistique nous est directement fournie par le logiciel Eviews 3.1 et correspond à 2,96 avec un p-value de 0.23.

Figure 25 : Histogramme de la distribution de la production

Source : Notre confection dans SPSS 17.

L’histogramme ci-haut nous fournit une analyse graphique de la production (offre) sur la période enquêtée. D’après ce graphique obtenu à partir du tableau 32 rendu possible grâce à Eviews 3.1, nous constatons que la production obtenue est compris entre 0,00 et 4,02.

III.3.4. Estimation du modèle sur la production

A ce niveau, nous allons effectuer des régressions de notre variable dépendante « la production » sur l’ensemble des variables explicatives afin de déterminer son impact sur ces dernières.

Rappelons que le modèle est spécifié sur les données chronologiques sur la production, données concernant la période allant de 2011 à 2014 et nous procédons par la régression linéaire multiple. La Méthode des Moindres Carrés Ordinaires ne fournit des  estimateurs fiables et/ou efficaces que lorsqu’un corpus d’hypothèses sur lequel elle est bâtie est vérifié.

Ainsi, les hypothèses suivantes doivent impérativement être vérifiées :

  • H1: E ( Ɛt ) = 0 ; si l’espérance mathématique du terme aléatoire est nulle. En moyenne, le modèle est bien spécifié et donc l’erreur moyenne est nulle ;
  • H2 : E (Ɛt2) = σ2 la variance de l’erreur est constante. C’est l’hypothèse d’homoscédasticité de la variance de l’erreur ;
  • H3: E (Ɛt, Ɛt2) = 0 si t t’ ; les  erreurs  sont  non  corrélées (ou encore indépendantes) : une erreur à l’instant t n’a pas d’influence sur les erreurs à l’instant suivant ;
  • H4 : Cov (Xi, Ɛt) = 0 ; l’erreur est indépendante de la variable explicative. C’est l’hypothèse d’absence d’endogénéité ;
  • H5: Cov (Xi, Xj) = 0 Si  Xi,  est  différente  de   Xj ; la  covariance  est  nulle  entre  les  variables exogènes ;  En  d’autres  termes,  les  variables  exogènes  ne  sont  pas  liées, c’est  l’hypothèse d’absence de multi-colinéarité entre les variables exogènes.

III.3.4.1. Vérification des hypothèses

Prenons  chacune  des  hypothèses  et  vérifions  de  quelle  manière  elles  pourraient  être violées :  

  • La première hypothèse de nullité de l’espérance mathématique du terme aléatoire constitue une assertion  que  l’on  ne  peut  vérifier.  Nous  allons  par  conséquent,  considérer  qu’elle  est vraie ;
  • La deuxième hypothèse d’homoscédasticité sera considérée comme vérifiée car le problème d’hétéroscédasticité ne  se  pose  que  pour  les  modèles  spécifiés  en  coupes  instantanées (données transversales) ;
  • La troisième  hypothèse  faite  sur  la  relation  entre  les  erreurs  sera  testée  sur  base  du  test  de Durbin-Watson. Pour ce faire, il faut d’abord estimer les paramètres du modèle par la méthode MCO en admettant que les hypothèses sont vérifiées.

III.3.4.2. Résultat des analyses de la régression

La méthode utilisée à ce niveau est celle des moindres carrés ordinaires sur la production de la cimenterie IK. Le tableau suivant reprend les informations principales liées à l’estimation de notre modèle d’étude par la méthode des moindres carrés ordinaires, rendu possible grâce au logiciel Eviews 3.1          

Tableau 33 : Résultat de l’estimation de la régression I

Dependent Variable: PRODCIK

Method: Least Squares

Sample(adjusted): 1901:01 1904:08

Included observations: 44 after adjusting endpoints

Variable

Coefficient

Std. Error

t-Statistic

Prob. 

C

-1880.148

797.8110

-2.356633

0.0236

DEMACIK

0.947757

0.138143

6.860704

0.0000

PRIXCIK

-29.01396

10.17958

-2.850213

0.0069

QUANTIMPOR

-0.119797

0.116127

-1.031607

0.3086

PRIXIMPOR

139.9685

50.81898

2.754256

0.0089

R-squared

0.573275

    Mean dependent var

534.0691

Adjusted R-squared

0.529508

    S.D. dependent var

333.1571

S.E. of regression

228.5205

    Akaike info criterion

13.80777

Sum squared resid

2036643.

    Schwarz criterion

14.01052

Log likelihood

-298.7710

    F-statistic

13.09842

Durbin-Watson stat

1.800310

    Prob(F-statistic)

0.000001

Source : Traitement avec le logiciel Eviews 3.1

A la lecture de ce tableau, nous constatons que la variable QUANTIMPOR (Quantité Importée) n’est pas significative étant donné que sa probabilité (0,3086) est supérieure à 5% ; et donc n’explique pas le modèle. Nous allons donc la supprimer et passer à la seconde régression dont les résultats sont donnés dans le tableau suivant :

Tableau 34 : Résultat de l’estimation de la régression II

Dependent Variable: PRODCIK

Method: Least Squares

Sample(adjusted): 1901:01 1904:08

Included observations: 44 after adjusting endpoints

Variable

Coefficient

Std. Error

t-Statistic

Prob. 

C

-1651.836

767.1143

-2.153311

0.0374

DEMACIK

0.923774

0.136282

6.778411

0.0000

PRIXCIK

-28.98654

10.18771

-2.845245

0.0070

PRIXIMPOR

123.9166

48.41703

2.559360

0.0144

R-squared

0.561630

    Mean dependent var

534.0691

Adjusted R-squared

0.528753

    S.D. dependent var

333.1571

S.E. of regression

228.7039

    Akaike info criterion

13.78924

Sum squared resid

2092218.

    Schwarz criterion

13.95144

Log likelihood

-299.3633

    F-statistic

17.08240

Durbin-Watson stat

1.821141

    Prob(F-statistic)

0.000000

Source : Traitement avec le logiciel Eviews 3.1

Nous constatons que ces résultats sont bons en observant la dernière colonne du tableau ici-haut, nous nous rendons compte que toutes les variables sont statistiquement significatives au seuil de 5%. Les p-values de toutes les variables sont inférieurs à 0,05. Toutes nos trois variables retenues sont significatives après suppression d’une variable.

III.3.4.3. Analyse de la corrélation

Nous allons vérifier ici les corrélations qui existent entre les différentes  variables  retenues  dans  notre  modèle. Signalons que ces variables explicatives doivent être fortement liées à la variable expliquée, plutôt qu’entrent-elles.

Le  tableau  ci-dessous  représente  la  matrice  des  coefficients  de  corrélation entre les différentes variables. Nous pouvons constater qu’il y a quelques corrélations qui sont relativement faibles entre les variables explicatives, la plus grande corrélation de toutes étant de 0,710, soit la corrélation entre le prix de la Cimenterie IK et le prix des importateurs. Dans l’ensemble les variables ne présentent pas de fortes colinéarités susceptibles d’influencer les résultats.

Tableau 35 : Matrice de corrélations des variables

OFFRCIK

DEMACIK

PRIXCIK

PRIXIMPOR

OFFRCIK

 1.000000

DEMACIK

 0.683011

 1.000000

PRIXCIK

 0.213300

 0.505310

 1.000000

PRIXIMPOR

 0.230498

 0.223246

 0.710371

 1.000000

Source : Traitement avec le logiciel Eviews 3.1

Le tableau ci-haut présente les coefficients de corrélations de Pearson. De manière générale, les variables sont corrélées entre elles mais sans grand risque de multi-colinéarité[2]. A première vue et sans faire trop d’interprétations,  les  signes  des coefficients  de  corrélations  entre la variable OFFRCIK qui mesure le niveau de productivité de la cimenterie IK et les différents déterminants retenus, nous montre que la relation entre la production et les ventes réalisées par la cimenterie IK est de 0,683 ; la relation entre la production et le prix pratiqué par la cimenterie IK est de 0,213 ; la relation entre la production de la firme et le prix des importateurs est de 0,230 ; la relation entre les ventes réalisées par la cimenterie IK et son prix est de 0,505 ; la relation entre les ventes réalisées par la cimenterie IK et le prix des importateurs est de 0,223 ; et enfin la relation entre le prix pratiqué par la cimenterie IK et celui des importateurs est de 0,710.

III.3.4.4. Test de diagnostic sur les résidus et validation du modèle

Les propriétés des estimateurs des MCO reposent sur un certain nombre d’hypothèses formulées a priori sur le terme d’erreur. Il s’agit de l’homoscédasticité, normalité des erreurs, l’absence de la colinéarité, etc. Le non vérification de ces propriétés conduit au rejet du modèle

Ainsi, après avoir estimé un modèle, l’étape qui suit est la plus cruciale dans ce sens qu’elle consiste en la vérification de ces hypothèses avant la validation du résultat obtenu. Ce  point est consacré à la mise en évidence des tests d’hypothèses économétriques permettant d’évaluer la spécification retenue.

1) Test de normalité des résidus

L’objectif poursuivi dans ce test est de vérifier si les résidus du modèle estimé suivent une loi normale. Cette analyse peut être menée à partir de l’examen visuel de l’histogramme de la distribution de fréquence.

Figure 26 : Histogramme de la série des résidus du modèle

Source : Traitement avec le logiciel Eviews 3.1

Le graphique ci-dessus présente la distribution des fréquences de la série des résidus dans un histogramme. Signalons que la distribution normale se caractérise par une symétrie des observations autour de la moyenne, une forte concentration autour de la moyenne et le nombre d’observation diminue rapidement lorsqu’on s’écarte de la moyenne.

Cependant,  un  certain  nombre  d’ambigüité  complique  l’interprétation  visuelle, c’est pourquoi, on fait alors recours au test d’hypothèse. La  statistique de Jarque-Bera suit, sous l’hypothèse de normalité, une loi de Khi-deux à deux degré de liberté. Au seuil de 5%, on lit dans la table du Khi-deux : 5,99. Ainsi, on ne rejette pas l’hypothèse nulle (H0) de normalité si la statistique de Jarque-Bera est inférieure à 5,99 ; autrement dit, lorsque la probabilité critique est supérieure à 0,05, on admet l’hypothèse (H1) de normalité. Pour notre  cas, le résultat obtenu est JB = 18.34762 > χ2 1-0,05(2) = 5,99. Ceci nous permet d’accepter l’hypothèse H1 de normalité de la distribution au seuil de 5%. La fonction de distribution des résidus ne suit pas par conséquent une loi normale.

Figure 27 : Graphique des résidus de la régression

Source : Traitement avec le logiciel Eviews 3.1

Ce  graphique nous montre comment évoluent les résidus de la régression qui sont représentés ci-haut dans le graphique par Residual, en suite comment évolue la variable endogène observée (Y) représentée par Actual et en fin comment évoluent la variable endogène estimée représentée par Fitted.

2) Test d’Hétéroscédasticité

L’une des hypothèses de base sous-tendant la méthode des moindres carrés ordinaires est que la variance du terme aléatoire doit être constante pour toutes les entreprises.

Alors l’hétéroscédasticité a lieu en cas de non constante de la variance des erreurs, les conséquences sont à ce niveau les suivantes : l’estimateur sans biais ; l’estimateur MCO n’est plus à variance constante.

Il existe plusieurs tests pour détecter l’hétéroscédasticité. Il s’agit du test de Goldefeld et Quandt  (1965),  du  test  de  Breush  Pagan (1979), du test de Glesjer (1969) et du test de White (1980). L’idée de ces tests est de vérifier si le carré des résidus peut être expliqué par les variables explicatives du modèle. Si tel est le cas, il y a une hétéroscédasticité.

Dans le cadre de cette recherche, nous faisons recours au test de White. L’hypothèse nulle de ce test est que tous les coefficients de la régression des carrées des résidus sont nuls, c’est-à-dire que les variables du modèle n’expliquent pas la variance des termes d’erreurs.

Tableau 36 : Résultat du test d’Hétéroscédasticité

White Heteroskedasticity Test:

F-statistic

1.271590

    Probability

0.294046

Obs*R-squared

7.521919

    Probability

0.275261

Source : Traitement avec le logiciel Eviews 3.1

A la lecture de ce tableau, nous constatons que n x R2 est égale à 7.521919 que nous comparons à χ2 au seuil de 5%, soit 21,03. Dans ce cas, nous sommes amenés à rejeter l’hypothèse nulle pour un seuil de 5%. Le modèle n’est pas donc homoscédastique.

3) Test d’autocorrélation

Tableau 37 : Résultat du test d’autocorrélation

Breusch-Godfrey Serial Correlation LM Test:

F-statistic

0.408175

    Probability

0.667743

Obs*R-squared

0.925368

    Probability

0.629592

Source : Traitement avec le logiciel Eviews 3.1

H0 : Erreurs non corrélées 

H1 : Erreurs corrélées

On accepte l'hypothèse  H0 si la valeur de Probabilité est supérieure à 5% et  H1 si probabilité est inférieure à 5%. 

La statistique du test de Breusch Goldfrey donne une valeur de 0,92 et une probabilité de 0.63. Ces valeurs nous amènent à accepter l’hypothèse nulle d’absence d’autocorrélation d’ordre 1 des erreurs.

La méthode de MCO fournit ainsi, toute chose restant égale par ailleurs, des estimateurs robustes ; c’est-à-dire des estimateurs non biaisés et asymptotiquement convergents. Un estimateur est dit asymptotiquement convergent lorsque sa variance tend vers l’infini en mesure que la taille de l’échantillon augmente. C’est donc un estimateur doté  d’une variance minimale. En présence de l’autocorrélation des erreurs, les estimateurs des Moindres Carrés Ordinaires ne sont pas cependant biaisés.

            Le modèle sous étude a définitivement pour équation :

Estimation Command:

=====================

LS OFFRCIK C DEMACIK PRIXCIK PRIXIMPOR

Estimation Equation:

=====================

OFFRCIK = C(1) + C(2)*DEMACIK + C(3)*PRIXCIK + C(4)*PRIXIMPOR

Substituted Coefficients:

=====================

OFFRCIK = -1651.835712 + 0.9237742967*DEMACIK - 28.98653847*PRIXCIK + 123.9165984*PRIXIMPOR

Nous observons que ce modèle admet la présence de terme constant (de l’intercepte) parce qu’il est significativement différent de 0, c’est-à-dire au seuil de 5% ; toutes les autres variables sont également significatives à 5%. Sur le plan statistique il y a donc validité du modèle.

Il est également important de s’interroger sur la significativité globale du modèle. Le coefficient de détermination corrigé de ce modèle Rcorrigé = 0.528753; en d’autres terme les variations de la variable endogène sont expliquées à 52,87% par les variables exogènes retenues dans le modèle. Le reste de pourcentage peut être expliqué par d’autres variables omises et qui devraient intervenir dans le modèle. C’est un pourcentage quand même acceptable.

[1] BOURBONNAIS, R.,  Econométrie, Manuel et exercices  corrigés, Ed. Dunod, Paris, 1999, p.106

[2] Bourbonnais,  R.,  Econométrie : manuel  et  exercices  corrigés,  7è édition,  Dunod, Paris, 2009, p.72

Partager ce travail sur :