Les nouvelles technologies pour l’enseignement des mathématiques
Intégration des TICE dans l’enseignement des mathématiques

MathémaTICE, première revue en ligne destinée à promouvoir les TICE à travers l’enseignement des mathématiques.

L’esprit des probabilités, de l’école au lycée.
Article mis en ligne le 30 janvier 2009
dernière modification le 3 mai 2019

par Claudine Schwartz, Erick Roser

Comment penser la formation en probabilités d’un élève sortant du lycée au 21ème siècle ?

Voici quelques pistes en vue de nourrir la réflexion sur des progressions possibles d’un enseignement moderne de la théorie des probabilités. Elles permettent aux futurs citoyens que l’école doit former :

  • de participer au débat démocratique (être en mesure d’utiliser à bon escient des résultats de sondages, comprendre la notion de prévision en domaine incertain et différentes notions de risques, analyser la définition et l’usage des grands indicateurs sociaux),
  • de comprendre la notion de preuve statistique utilisée dans différents domaines (evidence based medicine par exemple),
  • d’analyser quelques éléments quantitatifs clefs des jeux du hasard les plus classiques afin d’éclairer leur pratique éventuelle.

Cet article a été repris dans le n° 484 du BV de l’APMEP.

Plan

Nous partons du principe que cette formation commence dès l’école et continue tout au long de la scolarité. Nous distinguons trois temps, celui de l’école, celui du collège et celui du lycée :

L’école élémentaire : le temps des dés.
Le collège : le temps de la simulation.
Le lycée : le temps de la théorie.

Il s’agit ici d’une vision prospective à long terme, l’école élémentaire n’étant pas aujourd’hui concernée. Cette vision permettra de s’orienter pour construire peu à peu une cohérence verticale de la formation, en évitant les répétitions sans avancées et l’apparition d’une pratique des probabilités propres à la scolarité, qui dérive loin des usages professionnels ou citoyens.

Notre propos est en grande partie fondé sur la recherche des bases à acquérir pour comprendre la statistique ; la combinatoire qui a longtemps été au centre de l’enseignement des probabilités au lycée est marginalisée dans cette approche [1]. Pour ce qui est du lycée, nous proposons des sujets à répartir entre différentes disciplines : si le cœur d’un enseignement des probabilités est en mathématiques, cette discipline diffuse très naturellement vers la physique et les SVT.

Nous insistons ici plus sur les premiers pas vers l’aléatoire, c’est-à-dire sur l’école et le collège : c’est là que les questions sont les plus vives. Ces premiers pas sont fondés à la fois sur une vision de la discipline et aussi par ce qu’on souhaite traiter en fin de scolarité et qui est ici simplement énuméré.

1- L’école élémentaire : le temps des dés.

1.1. Où en est-on ?

On a posé à des élèves de CM1 et de CM2 de Grenoble [2], en 2006, la question suivante :

Que signifie pour vous le hasard ?

Les réponses (voir encadré ci-dessous) peuvent être classées en plusieurs catégories :

  • le hasard extérieur à soi : il est caractérisé par son imprévisibilité ;
  • le hasard d’une action que l’on produit est lié au « n’importe quoi, n’importe comment » ;
  • le hasard a partie liée avec la chance ou la malchance, c’est-à-dire avec des évènements heureux ou malheureux dont on ne maîtrise pas le cours, des évènements « sans cause » ;
  • les coïncidences.

Ces réponses reflètent une connaissance a priori qui, à ce niveau, nous semble « juste » [3].

D’autres réponses sont peu classables (après discussion avec l’enseignant, nous ne pouvons pas savoir si l’élève qui a dit que le hasard « c’est quand c’est pas » a une intuition extraordinaire des liens entre hasard et désordre, ou s’il a confondu « c’est le hasard » avec « c’est le bazar »).

Réponse d’élèves de CM1-CM2 à la question : que signifie pour vous le hasard ?

  • Quand on ne sait pas ce qui va se passer.
  • C’est une chose où on ne peut pas savoir la réponse/ quelque chose que tu ne peux pas prédire/tirer au sort.
  • Une désignation au pif / c’est répondre sans réfléchir ; exemple : quelqu’un te dit « combien un chat a-t-il de pattes ? » et tu lui réponds « 3 ».
  • C’est quand tu réponds et tu ne sais pas la réponse.
  • Veut dire sans le faire exprès.
  • Le hasard est une chose où on peut avoir de la chance et de la malchance.
  • Une coïncidence / par exemple, on trouve un billet de 50 euros par terre.
  • C’est quand c’est pas rangé.
  • Le hasard n’existe pas.
  • Le hasard c’est un peu de tout.
  • Des évènements mystérieux de notre vie.

Les élèves des écoles n’ont pas d’intuition de la loi de grands nombres (qui nécessite une bonne manipulation des proportions) et pour eux, l’emploi du terme chance est aussi lié à l’effectif (ainsi, parler de 2 chances sur 3 de tirer une boule blanche dans une urne à 3 boules dont 2 blanches, ce n’est pas pareil que parler de 4 chances sur 6 de tirer une boule blanche dans une urne à 6 boules dont 4 blanches si on parle d’effectifs et non de probabilité).

1.2 . Les dés à l’école.

  • On considère ici des dés à 4 faces, 6 faces, 8 faces, etc.

    Ce sont des objets riches à étudier au plan de la géométrie, dès le début du primaire :
    Emploi des termes carré, cube, sommets, faces, arêtes, angles droits, etc.
    Égalité de longueurs et de surface.
    Triangles, carrés, pentagones, hexagone, polygones, polygones réguliers.
    Les 5 solides de Platon (??)
  • On peut découvrir une formule :

    Pour un dé cubique, la somme des valeurs de faces opposées vaut 7.
    On peut vérifier la formule d’Euler [4], valable pour tous les dés polyédriques :

    nombre de sommets +nombre de faces = nombre d’arêtes+2
  • Au plan du hasard, le dé permet une première prise de conscience de l’aléatoire

    et la construction d’un socle sur lequel les expériences ultérieurs et les savoirs spécifiques pourront venir se cristalliser.

    On pourra commencer par travailler sur des termes « de la vie de tous les jours » :

    chances égales ou inégales  dans des expériences simples liées aux dés (dés à 2 faces blanches et 4 faces rouges par exemple) :
    il ne s’agit pas de proposer des définitions, mais de travailler sur des situations variées afin de distinguer le fait d’avoir deux issues (blanc et rouge par exemple) et les « chances égales » vues sous l’angle du long terme expérimental (si on lance beaucoup de fois ce dé, on aura plus souvent rouge),
    indépendance et mémoire :
    Les enfants découvrent seuls que si l’un d’eux lance un dé (avec gobelet pour le remuer et une piste d’atterrissage) et obtient 6, que son voisin prend le dé, le relance, obtient aussi 6 puis passe le dé a son voisin, celui-ci a les mêmes chances d’avoir 1,..,6 car le dé « ne sait pas » ce qui s’est passé avant, il est sans mémoire.

    Cette question d’absence de mémoire justifie de travailler en primaire sur les dés :

    — Les élèves ne connaissent pas du tout la loi des grands nombres, ils ne sont pas face à ce grand paradoxe intuitif (nous y reviendrons) d’un processus sans mémoire, ici le lancer d’un dé cubique à chiffres, qui à long terme équilibre les fréquences de chaque face. Pour les élèves, les chances égales peuvent être traduites par le fait que dans des longues suites de lancers de dés (représentées par des histogrammes horizontaux ou verticaux comme ci-contre), n’importe quelle face peut gagner (apparaît plus souvent que les autres) pendant un moment, puis c’est une autre (sur le dessin ci-dessous, le 5 gagne, provisoirement).

    Il est important de réfléchir à l’indépendance des résultats vue sous l’angle d’absence de mémoire car :

    — Les dés seront peu à peu remplacés par des « dés électroniques » : dire que le dé électronique n’a pas de mémoire relève à ce niveau de l’acte d’autorité.
    — Les élèves acquièrent ultérieurement l’expérience de la convergence des fréquences des faces du dé vers 1/6, soit à travers des jeux soit par simulation en classe. S’ils ne se sont pas déjà persuadés de l’absence de mémoire du processus de lancer du dé, ils font l’impasse sur cette propriété, impasse qui s’érige en obstacle à l’élaboration d’un mode de pensée probabiliste.
  • Des expériences pourront être menées

    pour montrer qu’en termes d’occurrence des résultats « blanc » ou « noir », lancer un dé à 4 faces dont deux blanches et deux noires ou un dé à 6 faces dont 3 blanches et trois noires, semble pareil : d’où le passage à « deux chances sur 4, c’est comme 3 chances sur 6 ».

  • le hasard c’est le royaume de l’imprévisibilité, mais cela ne dispense pas de réfléchir

    On pourra consulter à ce propos sur le site Statistix un exemple d’activité mené à l’école dans le cadre d’un mémoire d’IUFM.

  • le hasard c’est le royaume de l’imprévisibilité, mais cela ne dispense pas d’écrire

    L’expression écrite est ici très importante, les mots (chance, hasard, hasard pour, hasard équitable) peuvent être discutés. Cet aspect des choses concerne aussi les professeurs qui n’ont pas toujours les mots justes pour argumenter.

    Un exemple : L’apparition du 6 semble à beaucoup d’élèves et de professeurs plus rare que celle des autres chiffres ; cette rareté du 6 relève d’un ressenti en contradiction avec les chances égales. Dire qu’il s’agit d’une impression fausse peut apparaître comme un argument d’autorité ; par contre, en discutant sur des situations où il semble en être ainsi, on arrive au fait que le « 6 gagnant » de nombreux jeux est plus rare que l’ensemble des 5 autres chiffres, qui eux ne sont pas gagnants. (Sans le dire, on passe des probabilités des éléments à celle des évènements et cet exemple pourra être repris lors de l’introduction du calcul des probabilités).

2- Le collège : le temps de la simulation. [5].

2-1. Un dé équilibré, c’est quoi ?

On devra à un moment donné s’interroger sur ce dont on parle quand on dit « un dé équilibré à N faces », que ce dé soit un objet réel ou électronique : c’est un procédé de simulation de la distribution de probabilité équirépartie sur 1,..,N. Cela impose en particulier le modèle à considérer pour les données, à savoir que les probabilités des 6n résultats possibles pour n lancers sont égales.
De même, les pièces de monnaie ne sont pas conçues pour la simulation, mais il se trouve qu’on peut les utiliser pour simuler la loi équirépartie : si on parle d’une pièce équilibrée, c’est qu’on la considère comme générateur possible de listes de pile, face avec équirépartition de ces deux issues.

Quand on dit : on choisit n boules au hasard dans une urne avec N boules, avec remise, on ne parle pas là non plus de comment on peut réaliser cela, mais du fait qu’on simule une loi équirépartie sur 1,…,N.

Il conviendrait, dans le cadre de l’enseignement des probabilités, de garder le terme hasard (ou de « hasard pur ») pour parler de modèle équiréparti, et de se souvenir que l’esprit humain est un piètre générateur de nombres au hasard.

Dans l’expérience « franc-carreau » on dit souvent « on lance une pièce au hasard sur un plan quadrillé » : or en pratique on ne sait pas lancer un pièce de telle sorte qu’un modèle raisonnable du point où tombe le centre de la pièce soit la loi uniforme sur le carré ; il conviendrait de dire qu’on lance la pièce sans viser. Si on veut lancer une pièce au hasard sur un quadrillage, alors il faut utiliser un simulateur du hasard, c’est-à-dire faire une expérience virtuelle.

Enfin, parler d’expériences aléatoires identiques, c’est par convention parler d’expériences relevant du même modèle probabiliste ; les lancers de dés équilibrés sont identiques car relevant de la même distribution équirépartie sur 1,…,6. Cette précision étant donnée, on ne s’étonnera pas d’avoir des expériences identiques donnant des résultats différents.

2.2. Lancer deux dés à N faces : un incontournable.

C’est l’occasion pour l’élève :

  • de réaliser lui-même un programme de simulation avec une calculatrice de poche ou un tableur
  • d’estimer une distribution de probabilités et de confronter cette estimation avec un calcul de cette distribution, à partir d’un tableau à double entrée.

Diverses situations peuvent être construites autour de ce thème.

2.3. Les dés électroniques et la loi empirique des grands nombres.

Nous mettons sous le vocable « dé électronique » les programmes permettant de simuler une loi équirépartie sur un ensemble fini d’entiers. Parler de dés électroniques a n faces, dans la continuité d’expériences avec des dés « réels » ne pose pas vraiment de problèmes aux élèves dans la mesure où ils ont compris que la raison d’être des dés est de permettre la production de listes de nombres choisis « avec des chances égales » et indépendamment les uns des autres. Qu’un ordinateur ou une calculatrice de poche produise rapidement de telles longues listes n’est pas de nature à surprendre cette génération de « numerical natives ».

On peut alors réaliser des représentations graphiques telles que la suivante, relative aux fréquences de chaque face d’un dé après n lancers, n=1…5000, ou à une expérience à deux issues :

On voit ainsi la distribution des fréquences « converger vers la distribution des fréquences théoriques ou distribution de probabilités » : il est intéressant à ce niveau de quitter le vocabulaire « une chance sur 6 » pour employer une terminologie plus spécifique (ce qui n’interdit pas pour autant de revenir au langage des chances dans des cas où cela n’introduit pas d’ambiguïtés).
Le terme distribution de probabilités semble plus compréhensible, au niveau scolaire, que le terme de loi de probabilité.
A ce niveau, on a une loi empirique des grands nombres.

2.4. Protocole et outils de description.

Si on veut que les simulations s’inscrivent dans une progression de la pensée, il faut en garder des traces : celle de la question posée, de la simulation mise en œuvre, de la description des résultats. A ce propos, la pratique de la simulation est très adaptée pour apprendre à élaborer et interpréter des représentations graphiques, à travailler sur la moyenne, la médiane, l’intervalle interquartile ; on peut imaginer que l’entraînement à la description de données non simulées relève essentiellement des autres disciplines (SES, biologie, physique, géographie).

Pour pratiquer la simulation, il faut établir un protocole expérimental dans lequel on fixe la taille de la simulation. Par exemple, pour le lancer de deux dés, on peut envisager que des binômes d’élèves simulent chacun sur tableur 100 (ou 1000) valeurs de la somme des faces : chaque binôme peut fournir à la classe ses résultats (distribution des fréquences des nombres de 2 à 12), ce qui rend apparente la fluctuation d’échantillonnage. Les données sont ensuite mutualisées, ce qui affine l’estimation qu’on peut proposer de la loi de probabilité. Dans cette situation, la loi de probabilité étant calculable, on pourra le faire dans un second temps et cela permettra d’observer la qualité des estimations faites à partir des simulations.

2.5. Simulations d’expériences.

De nombreuses activités mathématiques en collège peuvent utiliser des simulations de diverses situations ; on en trouvera quelques exemples sur le site statistix, à la rubrique collège et notamment un jeu de l’oie et un modèle de propagation de rumeur.

3- Le lycée : le temps de la théorie.

3-1. Les lois des grands nombres.

Les graphiques tels ceux du paragraphe 2.1 permettent de faire connaissance avec une loi expérimentale de convergence des fréquences vers les probabilités.
Mais comment « comprendre » qu’un processus sans mémoire (lancers successifs d’un dé ou d’une pièce) « converge », donc qu’à long terme, il y ait compensation relative (i.e. au niveau des fréquences) ? Ce phénomène est pour l’intuition paradoxal.
L’explication de cette loi empirique est un théorème qui porte aussi le nom de loi des grands nombres : dans le cadre strict de la théorie des probabilités, ce théorème montre que les fréquences convergent presque sûrement vers les probabilités correspondantes. Il convient de dire aux élèves qu’un tel théorème existe et on peut se contenter de dire que les fréquences convergent vers les probabilités, la notion de convergence presque sûre n’étant ici pas mentionnée [6].
Il est important dans la formation des élèves à ce niveau de faire l’expérience de ce tempo d’une démarche scientifique : l’explication d’une loi empirique réside non dans des arguments interprétatifs, mais dans la démonstration d’un théorème.

On notera que l’expérience et le théorème cité concernent l’évolution temporelle d’un processus : on fait une expérience, puis deux,… puis n, …, et on regarde comment évolue la distribution des fréquences.

Dans le même mouvement que précédemment, c’est-à-dire en passant d’une loi empirique à un théorème mathématique, on peut compléter ce qui a été dit par une vision qui mélange le spatial (expériences en parallèle) et le temporel : on mène en parallèle N séries de n simulations et on observe la fluctuation entre les N distributions de fréquences.

On se limite ici à une expérience à deux issues, codées 0 et 1, la probabilité sur {0,1} étant alors complètement déterminée par la probabilité de 1, que nous noterons p. Les graphiques ci-dessous sont faits avec p=0,4 , N=1000 et n=100 et 10000. On observe (c’est l’occasion de bien lire les échelles des représentations graphiques !) que « la plupart » des 1000 données sont dans [0,3 ;0,5] pour n=100, et dans [0,39 ;0,41] pour n=10000. D’autres simulations permettent de dégager une loi empirique sous une forme vague : « pour des valeurs de p pas trop proches de 1 ou 0, environ 95% des fréquences calculées sur des échantillons de taille n sont dans l’intervalle $\left[p - \frac {1} {\sqrt n} , p+ \frac {1} {\sqrt n}\right]$ .
Cela permet de rendre plus concret un mode de convergence des fréquences vers les probabilités : pour tout intervalle centré en p et de longueur 2a, pour n suffisamment grand (ici $n > \frac {1} {a^2}$), environ 95% des données sont dans cet intervalle.

On pourra alors énoncer une application du théorème central limite qui explique cette loi empirique, à savoir :

Proposition :
La probabilité que la fréquence calculée sur un échantillon de taille n soit dans $\left[p - t_\alpha \frac {\sqrt{p(p - 1)}} {\sqrt n} ; p + t_\alpha \frac {\sqrt{p(p - 1)}} {\sqrt n}\right]$, où $t_\alpha$ désigne le quantile d’ordre 0,975 de la loi normale centrée réduite ($t_\alpha$ ≈1,96), tend vers 0,95 quand n tend vers l’infini.

L’utilisation pratique peut être obtenue en majorant $t_\alpha$ par 2 et $\sqrt{p(p - 1)}$ par $\frac 1 2$, en « cadrant $p$ » et en déterminant alors numériquement des valeurs de $n$ pour lesquelles la limite est atteinte à une précision de 0,01. D’où :


Proposition :
Pour p ∈ [0,2 ; 0,8] et n>50, pour des échantillons de taille n, la probabilité que la fréquence soit dans $\left[p - \frac 1 {\sqrt n} ; p + \frac 1 {\sqrt n}\right]$ est approximativement 0,95 c’est-à-dire :

$$Prob \left(p - \frac 1 {\sqrt n} < F_n < p + \frac 1 {\sqrt n}\right) \approx 0,95.$$


Pour $n$ fixé, l’intervalle $\left[p - \frac 1 {\sqrt n} ; p + \frac 1 {\sqrt n}\right]$ est appelé intervalle de dispersion, ou de fluctuation de $F_n$ , au niveau 0,95.

Si $F_n$ est dans un intervalle centré en p de longueur 2a alors p est dans un intervalle centré en $F_n$ et de même longueur 2a . Donc, si on ne connaît pas p mais qu’on cherche à l’estimer par $F_n$, on pourra dire que l’intervalle aléatoire $\left[F_n - \frac 1 {\sqrt n}, F_n + \frac 1 {\sqrt n}\right]$ a une probabilité 0,95 de le contenir. Cet intervalle s’appelle intervalle de confiance de p (ou fourchette dans le cas d’un sondage) au niveau 0,95. On peut aussi dire qu’en estimant p par $F_n$ la précision est $ \frac 1 {\sqrt n}$ avec une probabilité 0,95.

On peut voir cet intervalle de confiance sous deux angles :

  • pour une fréquence observée $f_n$, toutes les lois sur $\{0 ; 1\}$ telles que $p$ appartient à l’intervalle $\left[f_n - \frac 1 {\sqrt n}, f_n + \frac 1 {\sqrt n}\right]$ sont « compatibles » avec les données, au sens où l’intervalle de fluctuation associé à de tels $p$, au niveau 0,95 contient $f_n$.
  • si on simule des séries de n données à partir d’une valeur p, alors pour environ 95% d’entre elles, l’intervalle $\left[f_n - \frac 1 {\sqrt n}, f_n + \frac 1 {\sqrt n}\right]$ contiendra p [7].

    Un exemple : la parité, c’est quoi ?
    Deux entreprises A et B recrutent dans un bassin d’emploi où il y a autant de femmes que d’hommes, avec la contrainte du respect de la parité. Dans l’entreprise A, il y a 100 employés dont 43 femmes ; dans l’entreprise B, il y a 2500 employés dont 1150 femmes (soit 46%). Or 46% est plus proche de 50% que 43% : les chiffres parlent d’eux-mêmes, pourrait-on dire, et l’entreprise B respecte mieux la parité que l’entreprise A. Si on admet que la parité, c’est exactement 50% de femmes, il est vrai que B en est plus proche que A. Mais une telle définition, à l’unité près, de la parité n’aurait ici pas de sens.
    La parité, cela signifie que l’identité sexuelle n’intervient pas au niveau du recrutement, que ce soit directement ou indirectement à travers des paramètres qui y seraient liés. Cela signifie donc qu’au niveau de la variable identité sexuelle, les résultats observés pourraient être obtenus par choix au hasard des individus dans la population. Dans ce cas, d’après ce qu’on vient de voir, on a une probabilité 0,95 que :

  • pour l’entreprise A la proportion de femmes soit dans [0,4 ; 0,6]
  • pour l’entreprise B la proportion de femmes soit dans [0,48 ;0,52].
    La valeur 43% est donc dans l’intervalle de fluctuation, alors que 46% ne l’est pas.
    Si on convient que respecter la parité, c’est avoir une proportion de femmes située dans l’intervalle de confiance à 0, 95, alors seule l’entreprise A respecte la parité.

La proposition ci-dessus indique qu’il est difficile de comparer des pourcentages sans connaître les tailles des séries de données en jeu. Ainsi, dans une expérience de Bernoulli, observer 42% de 1 pour n=100 n’est pas « exceptionnel » ; observer 48% de 1 pour n=10 000 sera jugé exceptionnel, bien que 48%>42% . La statistique fait grand usage de ce genre de considérations.

On pourra bien sûr travailler sur des exemples ne relevant pas d’une expérience de Bernoulli.

3.2. Probabilité conditionnelles.

La notion de probabilité conditionnelle peut être introduite en traitant d’abord des calculs de fréquences.
Par exemple on lance trois dés ; parmi les lancers dont la somme est 12, quelle proportion de lancers contiennent le nombre 2 ? Le calcul sur des données simulées consistera à diviser la fréquence des triplets contenant un 2 et de somme 12 par la fréquence des triplets de somme 12.
Le passage à la définition de « la probabilité d’avoir un 2 sachant que la somme est 12 » comme quotient de deux probabilités est plus compréhensible que si une telle définition est posée ex nihilo.
On pourra admettre les deux notations P(A et B) et P(A ∩ B) ; de même on pourra employer indifféremment P(A ou B) et P(A ∪ B) : l’enseignement des probabilités doit se prémunir d’une tendance à une rhétorique superflue.

3.3. Variables aléatoires, distributions de probabilités.

Au niveau du lycée, on pourrait utiliser indifféremment distributions ou lois de probabilité.

On pourrait étudier, au minimum :
Lois discrètes : lois équiréparties, lois binomiales, lois de Poisson.
Lois continues [8] : loi uniforme sur un segment, un rectangle, un pavé ; lois exponentielles, lois de Gauss [9].

3.4. Processus, états d’équilibre dynamiques.

Avec les lancers successifs de dés, on a un processus sans mémoire. Quelques processus avec mémoire simples peuvent ensuite être abordés, notamment les chaînes de Markov.

En guise de conclusion.

Les thèmes introduits ci-dessus pourront guider les enseignants actuellement en poste pour compléter leur formation dans le champ des « proba-stats » et éclairer leur réflexion sur les enjeux de leur enseignement. On pourra alors plus facilement tenir des débats pédagogiques sans que la crainte de l’inconnu prenne la place de l’argumentation.

Les pistes indiquées permettent de traiter une grande partie de la statistique abordable dans l’enseignement obligatoire secondaire. La formation en statistique nécessite d’être complétée :

  • par l’étude de quelques grands indicateurs, de démographie par exemple,
  • par l’introduction de la notion de différence significative entre une fréquence et une probabilité donnée et entre deux fréquences.
    La réflexion sur la statistique construite (indices et indicateurs variés) et la connaissance de ses usages possibles pour l’action, ajoutée à une formation en probabilité, sont en effet des bases indispensables pour comprendre le monde de la variabilité.

La statistique, vue comme un mode de pensée, se développe dans la durée, ce qui impose d’étaler son enseignement sur l’ensemble de la scolarité obligatoire. L’enjeu pour les professeurs actuellement en poste est de former une nouvelle génération d’hommes et de femmes qui, partageant une culture commune de l’aléatoire, pourront plus facilement prendre une part active aux débats démocratiques.

La formation en statistique a donc vocation à s’adresser à tous les élèves, des voies générale, technologique et professionnelle, tant, comme nous l’avons dit, pour être en mesure d’exercer leur citoyenneté que pour d’éventuelles applications professionnelles, et cela dans tous les domaines (industriel, tertiaire, économique, social, médical, agronomique etc.). La statistique fait aujourd’hui partie du corpus de connaissances indispensables à tous et que l’école obligatoire se doit d’enseigner.