Mathématice, intégration des Tice dans l'enseignement des mathématiques  
Sommaire > N°26 - Septembre 2011 > Simulations d’expériences aléatoires en (...)

Simulations d’expériences aléatoires en classe.
Un enjeu didactique pour comprendre la notion de modèle probabiliste, un outil de résolution de problèmes
Moteur de recherche
GIF - 145 octets

Sommaire

I - Contexte didactique de l’enseignement de la statistique et des probabilités en collège
GIF - 145 octets

En collège, dès la classe de 6ème, les moyens informatiques, calculettes, ordinateurs et logiciels, sont utilisés pour exercer les élèves aux représentations et traitements de donnée statistiques (Tableaux, diagrammes, histogrammes, effectifs, séries classées, calculs de fréquences, de moyennes, médianes et quartiles).

Voici quelques extraits des programmes en vigueur en 2010-2011 (BO n° 6 du 28 août 2008) :

  • En 6ème, p. 14 : « Dès la classe de 6e, l’utilisation de calculatrices et de logiciels permet de familiariser les élèves avec le passage d’un type d’organisation et d’un type de présentation à un autre ».
  • En 5ème, p. 20 : « Lire et interpréter des informations à partir d’un tableau ou d’une représentation graphique (diagrammes divers, histogramme) »… « L’utilisation d’un tableur permet d’enrichir ce travail en le prolongeant à des situations plus complexes que celles qui peuvent être traitées à la main ».
  • En 4ème, p. 27 :
    « - Calculer la moyenne d’une série de données.
    - Créer, modifier une feuille de calcul, insérer une formule.
    - Créer un graphique à partir des données d’une feuille de calcul
     ».
  • En 3ème, p. 34 : 1.3. Statistique : « approche de caractéristiques de dispersion. »
    « La notion de dispersion est à relier, sur des exemples, au problème posé par la disparité des mesures d’une grandeur lors d’une activité expérimentale, en particulier en physique et chimie. ». … « L’utilisation d’un tableur permet d’enrichir ce travail en le prolongeant à des situations plus complexes que celles qui peuvent être traitées à la main ».
    1.4. Notion de probabilité :
    « - Comprendre et utiliser des notions élémentaires de Probabilité ».
    « La notion de probabilité est abordée à partir d’expérimentations qui permettent d’observer les fréquences des issues dans des situations familières (pièces de monnaie, dés, roues de loteries, urnes, etc.). La notion de probabilité est utilisée pour modéliser des situations simples de la vie courante
     ».

Le programme de seconde (BO n° 30 du 23 juillet 2009) propose de poursuivre l’enseignement de l’aléatoire dans le même esprit.

Statistique descriptive, analyse des données : « Utiliser un logiciel (par exemple, un tableur) ou une calculatrice pour étudier une série statistique ».

Dans le cadre de l’échantillonnage : « faire réfléchir les élèves à la conception et la mise en oeuvre d’une simulation ; sensibiliser les élèves à la fluctuation d’échantillonnage, aux notions d’intervalle de fluctuation et d’intervalle de confiance et à l’utilisation qui peut en être faite ».

Échantillonnage : « Concevoir, mettre en oeuvre et exploiter des simulations de situations concrètes à l’aide du tableur ou d’une calculatrice ».

Dans le cadre des probabilités : « Étudier et modéliser des expériences relevant de l’équiprobabilité. Proposer un modèle probabiliste à partir de l’observation de fréquences dans des situations simples ».

En première S, on introduit les notions de variables aléatoires discrètes et de lois de probabilités. Le programme indique notamment (JO du 28 août 2010) : «  A l’aide de simulations et d’une approche heuristique de la loi des grands nombres, on fait le lien avec la moyenne et la variance d’une série de données » et indique « L’intervalle de fluctuation peut être déterminé à l’aide d’un tableur ou d’un algorithme ».

Cette orientation de travailler sur des séries statistiques obtenues par simulation n’est pas propre aux programmes français [Biehler, 1991]. En témoigne ces recommandations de 4 organisations américaines (AMS, American Mathematical Society en 2001, ASA, American Statistical Association en 2005, MAA, Mathematical Association of America en 1991, NCTM, National Council of Teachers of Mathematics en 1991) [Papaieronymou] :

«  Les professeurs de mathématiques doivent être capables de planifier et conduire des expériences et des simulations, en distinguant les probabilités expérimentales et théoriques, de déterminer des probabilités expérimentales, d’utiliser des probabilités expérimentales et théoriques pour formuler et résoudre des problèmes de probabilités, et utiliser des simulations pour estimer les solutions de problèmes de hasard.

Les professeurs de mathématiques de l’enseignement secondaire devraient être capable de construire un modèle utilisant une probabilité théorique qui peut être comparée à des résultats expérimentaux, ce qui est essentiel pour l’étude du concept de fréquence  ».

II – Un premier exemple simple de simulation : le problème du Grand Duc de Toscane
GIF - 145 octets

Voici le problème que le Grand Duc de Toscane posa à Galilée vers 1620 :

Comment parier sur la somme des points obtenus avec 3 dés ?

Galileo Galilei 1564-1642

« Bien que le 9 et le 12 se composent en autant de façon que le 10 et le 11, si bien qu’ils devraient être considérés comme ayant la même chance, on voit néanmoins que la longue observation a fait que les joueurs estiment plus avantageux le 10 et le 11 plutôt que le 9 et le 12 ».

Question : est-il possible que « la longue observation » ait permis aux joueurs invétérés de remarquer les différences de fréquences entre les sommes 9 et 10 ?

On peut répondre à cette question en simulant le lancer de 3 dés un très grand nombre de fois. La simulation proposée ici sur Excel permet de répéter instantanément des suites de 1000 lancers, sans que les histogrammes des fréquences obtenues ne permettent de bien voir une différence.
Combien de fois les joueurs italiens avaient-ils pu jouer ? On peut penser qu’ils connaissaient le calcul de combinatoire (déjà connu au XIIIe siècle) que Galilée a présenté au Grand Duc dans sa réponse, montrant que parmi les 16 sommes possibles réalisées par les 216 triplets observables sur les trois dés, le 9 est obtenu par 25 triplets (probabilité : 0,116) alors que le 10 l’est par 27 triplets (probabilité : 0,125).

Simulation possible avec Excel (fichier joint ci-dessous) :

Excel - 307.5 ko
Somme de 3 dés

Problème du Grand Duc de Toscane : sommes de 3 dés

Dé 1 Dé 2 Dé 3 Somme des trois dés Fréquence des 9 sur 1000 lancers Fréquence des 10 sur 1000 lancers
1+ENT(6*ALEA()) 1+ENT(6*ALEA()) 1+ENT(6*ALEA()) B2+C2+D2 =(NB.SI(E3:E1003 ;9))/1000 =(NB.SI(E3:E1003 ;10))/1000

Voici un exemple de fréquences observées sur une simulation de 1000 lancers.

Ci-dessous la réponse de Galilée à ce problème traduite par Jean François Pichard de l’ IREM de ROUEN :

PDF - 78.2 ko
Réponse de Galilée au problème du Grand Duc de Toscane

III - Détermination d’une probabilité : 3 contextes
GIF - 145 octets

1- Équiprobabilité postulée des événements élémentaires
GIF - 145 octets

La probabilité d’un événement aléatoire est le rapport du nombre des cas favorables qui réalisent cet événement à celui de tous les cas possibles (1er principe de Laplace).

« Mais cela suppose les divers cas également possibles. S’ils ne le sont pas, on déterminera d’abord leurs possibilités respectives... Alors la probabilité sera la somme des possibilités de chaque cas favorable » (2ème principe [Laplace]).

Quelle définition pour la « possibilité » ? On peut distinguer trois positions épistémologiques [Batanero, Henry & Parzysz, 2005] :

  • Option objectiviste [Renyi] : les symétries du système générateur du hasard considéré engendrent l’équiprobabilité sur les issues possibles. La probabilité d’un événement est objectivement déterminée par le premier principe.
  • Option subjectiviste [De Finetti] : dans l’ignorance absolue des conditions de réalisation des issues de l’expérience, c’est-à-dire tels que nous soyons également indécis sur leur existence (Laplace), le plus raisonnable est de postuler l’équiprobabilité (principe de raison insuffisante).
  • Option de la modélisation [Henry, 2001] : les conditions de l’expérience permettent de proposer un modèle d’équiprobabilité dont la pertinence devra être contrôlée. On peut associer à un événement le modèle de l’Urne de Bernoulli, contenant des boules équiprobables de deux couleurs dans une proportion donnée.

2- Estimation fréquentiste basée sur la loi des grands nombres
GIF - 145 octets

Une même expérience aléatoire est répétée un nombre n de fois suffisamment grand. On enregistre la fréquence Fn des issues réalisant un événement donné de probabilité p.

Alors (théorème de Bernoulli), il y a une probabilité aussi voisine de 1 que l’on veut, que l’écart entre la fréquence Fn des issues réalisant l’événement et sa probabilité p soit plus petit que tout ε donné (convergence en probabilité de Fn vers p).

Cette fréquence observée Fn peut donc être prise comme « mesure » à ε près pour estimer la probabilité p de l’événement, avec un risque inférieur à α de se tromper, par l’encadrement de confiance :

Alfred Renyi en tire une « définition fréquentiste » de la probabilité [Renyi, 1966] :

«  La probabilité d’un événement est le nombre autour duquel oscille la fréquence de l’événement considéré… »

Cette « définition fréquentiste » confond deux domaines qu’il faut pourtant bien séparer :

  • le domaine de la réalité où l’on observe les fréquences Fn de réalisations d’un événement au cours de n répétitions d’une même expérience aléatoire,
  • le domaine théorique (mathématique) où les objets sont définis abstraitement.

3- Méthode Bayésienne
GIF - 145 octets

La valeur de la probabilité d’un événement relève d’une appréciation subjective propre à chacun pouvant être corrigée par les résultats expérimentaux en application de la formule de Bayes. L’introduction du point de vue bayésien dans l’enseignement secondaire est actuellement objet de controverses [Carranza, 2008]. Nous n’y entrerons pas ici. Pour approfondir ces questions, on pourra consulter Wikipedia :Théorème_de_Bayes.

Face à ces diverses interprétations de la notion de probabilité, il nous faut clarifier les enjeux de cet enseignement dans le second degré. Il faut dépasser le « langage des chances » ainsi que le débat « philosophique » entre objectivistes et subjectivistes, tout en présentant conjointement la notion de probabilité sous ses deux visages, classique et fréquentiste [Hacking, 1975].

Le point de vue de la modélisation réalise cet enjeu, donne des clés didactiques et contribue à la formation de la démarche scientifique : observation de la réalité - description - hypothèses - modèle abstrait - développement théorique - résolution de problèmes - interprétation dans le contexte réel - validation expérimentale.

La probabilité est axiomatiquement définie comme un objet théorique, quantifiant idéalement la possibilité d’un événement calculée a priori ou estimée expérimentalement.

Une initiation au processus de modélisation fait donc partie des enjeux de l’enseignement secondaire de la statistique et des probabilités. La mise en œuvre de simulations concourt à cet objectif [Girard & Henry, 2005].

IV - Problèmes didactiques posés par la simulation informatique
GIF - 145 octets

1- Notion de simulation
GIF - 145 octets

Les programmes font donc largement appel à la simulation informatique.
Le document d’accompagnement des programmes de première précisait [GEPS, 2001] :

« Modéliser consiste à associer un modèle à des données expérimentales, alors que simuler consiste à produire des données à partir d’un modèle prédéfini. Pour simuler une expérience, on associe d’abord un modèle à l’expérience en cours, puis on simule la loi du modèle ».

On trouve cette définition de la simulation dans l’Encyclopédie Universalis :

« La simulation est l’expérimentation sur un modèle. C’est une procédure de recherche scientifique qui consiste à réaliser une reproduction artificielle (modèle) du phénomène que l’on désire étudier, à observer le comportement de cette reproduction lorsque l’on fait varier expérimentalement les actions que l’on peut exercer sur celle-ci, et à en induire ce qui se passerait dans la réalité sous l’influence d’actions analogues ».

Il convient donc de faire d’abord le choix d’un modèle pour l’implanter dans les instructions de calcul d’un ordinateur.

L’approche fréquentiste suppose de reproduire une même expérience aléatoire dans les mêmes conditions. Il y a dans cette affirmation beaucoup d’implicites : peut-on remplacer un dé par un autre ? Ou par un autre générateur aléatoire comme une calculette (1+INT(6*ran#) sur Casio ou 1+FLOOR(6*rand()) sur TI) ou un tableur (1+ENT(6*ALEA()) ou ALEA.ENTRE.BORNES(1 ;6)) ?

Beaucoup d’élèves ne reconnaissent pas la similarité entre des expériences d’apparences différentes, mais qui se réfèrent implicitement au même modèle probabiliste.

Dans les conditions de la simulation, celle-ci peut-elle vraiment remplacer l’expérience réelle et donner des réponses de nature probabiliste ?
La notion de simulation est diversement présentée par les manuels : on peut trouver 4 sortes d’interprétations [Parzysz, 2007].

  • La simulation est un substitut de l’expérience ou une simple représentation à l’écran.
  • Il doit y avoir une analogie entre l’expérience et sa simulation.
  • La simulation économise du temps par rapport à l’expérience.
  • La simulation est un modèle de l’expérience.

Il faut comprendre le statut de la simulation : à partir d’un protocole expérimental, on dégage des hypothèses de modèle et on programme une simulation de ce modèle.
Les données expérimentales seront confrontées aux résultats de cette simulation pour adopter ou rejeter ce modèle.

2- La modélisation
GIF - 145 octets

Selon Parzysz [2009], on a le schéma suivant :

Parzysz note qu’il y a un réel problème pour les élèves qui ne savent pas ce qu’est un modèle probabiliste. Ce schéma triangulaire est compris comme linéaire.

Dans ce cas, la classe peut être partagée en deux groupes : dans l’un les élèves procèdent à la répétition de l’expérience réelle (15 élèves x 20 expériences par ex), dans l’autre groupe les élèves font tourner la simulation sur un ordinateur. La comparaison entre les résultats des deux groupes conduit à réfléchir sur les hypothèses de travail issues du protocole expérimental et leur correspondance avec les hypothèses de modèle implantées dans la simulation.

V - Simulations pour expliciter le processus de modélisation
GIF - 145 octets

Quelques premiers exemples simples de simulations conduisent les élèves à une meilleure compréhension de ce qu’est un modèle probabiliste et à s’intéresser au processus de modélisation :

  • décrire et analyser une expérience aléatoire,
  • expliciter un protocole expérimental, i. e. l’ensemble des éléments qui définissent l’expérience d’un point de vue probabiliste, permettant d’affirmer que l’on peut répéter la même expérience dans les mêmes conditions,
  • expliciter des hypothèses de travail en vue de contrôler la pertinence du modèle en construction,
  • interpréter les caractéristiques de l’expérience réelle en termes d’hypothèses de modèle (notamment les probabilités représentant le caractère aléatoire de l’expérience),
  • transposer ces hypothèses en instructions informatiques,
  • exploiter ce modèle théorique pour en tirer des propriétés relatives au phénomène qui peuvent être observées dans la réalité,
  • interpréter enfin les résultats de la simulation en les relativisant par les hypothèses de modèle.

Ainsi, la simulation est appelée à jouer un grand rôle dans le développement de la pensée statistique chez les élèves [Zieffler & Garfield, 2007].

Deuxième exemple : le problème « croix ou pile » de d’Alembert
GIF - 145 octets

D’Alembert fut associé à Diderot pour éditer l’Encyclopédie du XVIIIe siècle. D’Alembert y signe cet article contestataire devenu célèbre [D’Alembert, (1754)] :

Bernard Parzysz a expérimenté ce problème avec des élèves [Parzysz, 2007], il écrit :

« Ce problème met les élèves dans l’embarras : comment départager les réponses ? (Notons qu’il ne peut y avoir d’argument purement mathématique, car l’équiprobabilité, à ce niveau, est subjective). Les élèves font spontanément des essais avec des pièces et sont vite convaincus que le joueur a de bonnes chances de gagner.

Mais quel est le bon pari : 3 contre 1 ou 2 contre 1 ?

Le nombre de parties jouées dans la classe est insuffisant pour trancher entre 0,66 et 0,75, il en faudrait plus de 1000. C’est un problème constant lors d’une estimation d’une probabilité par une évaluation fréquentiste.

Une simulation informatique va-t-elle permettre de résoudre le problème ?

Le protocole expérimental est bien posé par d’Alembert. Ajoutons que la pièce est bien équilibrée et correctement lancée (hypothèse de travail), ce qui conduit au modèle de Bernoulli pour un lancer avec p = 1/2 (hypothèse de modèle).

Comme souvent, il y a plusieurs possibilités (plusieurs modèles possibles) :

Simulation : le second algorithme est plus facile à programmer, mais il introduit un deuxième jet systématique qui n’est pas nécessaire en réalité.

Certains élèves n’acceptent pas cette deuxième procédure, de même que la contestation de Roberval pour la solution de Fermat au problème des partis, lorsqu’il prenait en compte des parties « feintes ».

L’observation des dernières colonnes des deux tableaux, remplis à la demande, montre que l’on peut supprimer la colonne « résultats » du premier sans rien changer à la colonne «  ? » des deux tableaux.

On peut donc remplacer l’algorithme 1 par l’algorithme 2 sans changer le jeu du point de vue probabiliste. »

La programmation de la simulation est élémentaire (voir le fichier Excel joint) :

Excel - 57.5 ko
Simulation des 2 modèles de d’Alembert

Troisième exemple : le jeu du « franc-carreau » de Buffon
GIF - 145 octets


Avec le jeu du franc-carreau, Buffon introduit en 1733 une nouvelle notion de probabilité, appelée « probabilité géométrique » (loi uniforme sur un domaine plan) [Buffon].

Une pièce de monnaie est lancée sur un carrelage constitué de carreaux carrés. Un joueur parie sur la position de la pièce ; si elle s’arrête sur un seul carreau : gagné ; si elle rencontre un ou plusieurs joints : perdu.

Quelle est la probabilité de faire “franc-carreau” ?

Pour simuler cette situation, il nous faut faire des hypothèses de modèle.


On considère le carreau où le centre O de la pièce est tombé,

  • on a “franc-carreau” si les distances du centre O aux côtés du carré sont supérieures au rayon de la pièce,
  • la probabilité est de loi uniforme sur le carré ABCD.

Ce problème est résolu théoriquement en comparant les aires des carrés A’B’C’D’ et ABCD. On obtient la probabilité géométrique : A’B’²/AB².

Dans une simulation, avec AB = 1 et le rayon de la pièce égal à 1/4 (on a A’B’ = 1/2 et, dans ce modèle, la probabilité de “franc-carreau” vaut 1/4).

Avec la simulation de ce modèle (voir le fichier Excel joint ci-dessous), on obtient pour plusieurs séries de 10 000 lancers, des fréquences de “franc-carreau” égales à 0.2564 ; 0.2515 ; 0.2445 ; 0.2497...

Excel - 1.2 Mo
Franc-carreau

Les élèves peuvent donc avoir confiance dans la qualité de cette simulation qui donne une mesure assez approximative de la probabilité 0,25 de faire “franc-carreau”.

VI - La simulation comme outil de résolution de problème
GIF - 145 octets

1- Intérêt didactique des simulations
GIF - 145 octets

  • Les simulations permettent de travailler sur de grandes séries statistiques, donnant du sens aux résumés statistiques (paramètres de position et de dispersion, diagrammes et histogrammes) et montrant leur pertinence.
  • Elles mettent en œuvre un processus de modélisation.
  • Elles permettent une présentation dynamique de l’interaction entre les notions de fréquence et de probabilité.
  • Elles permettent de répéter en classe une expérience aléatoire un assez grand nombre de fois pour induire une bonne compréhension de la loi des grands nombres.
  • Un intérêt supplémentaire non négligeable est qu’elles permettent de résoudre des problèmes trop difficiles ou impossibles à traiter directement “à la main”.

Examinons deux exemples.

Le premier est « l’aiguille de Buffon », montrant les limites de la simulation.

Le deuxième est inspiré du jeu du « franc-carreau », où l’écu est remplacé par une baguette.

2- L’aiguille de Buffon : un résultat surprenant dans un modèle ad hoc
GIF - 145 octets

A la suite du problème du franc-carreau, Buffon donne une solution géométrique du problème bien connu dit de l’aiguille (une baguette dans le texte original).

Sur un parquet formé de planches de largeur 2a, séparées par des rainures droites, parallèles et équidistantes, on jette une aiguille de longueur 2l, avec l < a. Quelle est la probabilité que l’aiguille coupe l’une des rainures ?

Hypothèses de travail :

Soit x la distance du milieu de l’aiguille à la rainure la plus proche. x prend une valeur aléatoire quelconque dans [0, a]. Soit Θ l’angle des droites formées par cette rainure et l’aiguille. Θ prend une valeur aléatoire quelconque dans [0, π].

L’aiguille, jetée au hasard, coupe une rainure si x < l sin Θ (événement A).

Buffon propose une représentation cartésienne de cette condition :

Dans cette représentation du pavé Ω = [0, π]×[0, a] (rectangle hachuré), cet événement A est représenté par la partie grisée délimitée par la courbe d’équation x = l sin Θ.
Buffon fait implicitement l’hypothèse de modèle que la probabilité est uniformément répartie sur le pavé Ω.

On a donc :

Remarques sur cette solution de Buffon.

Ainsi, le nombre π intervient dans l’expression d’une probabilité, non rationnelle, ce qui peut être surprenant si l’on s’en tient à la définition classique comme rapport de nombres de « cas ». Buffon a donc introduit une notion nouvelle de probabilité géométrique.

Dans ce problème, le modèle uniforme choisi ne s’applique pas à la situation géométrique d’origine, mais à sa représentation cartésienne. Aurions-nous le même résultat avec une représentation en coordonnées polaires ?

Quelle légitimité le modèle uniforme sur le rectangle cartésien a-t-il en l’occurrence ? Outre les lois uniformes pour x et Θ, il fait intervenir une hypothèse d’indépendance entre x et Θ. Ces hypothèses de modèle sont-elles pertinentes ?

L’expérimentation numérique par simulation informatique ne permettra pas d’y répondre, car ayant implanté ces hypothèses dans le programme, il ne sera pas surprenant d’observer que la fréquence stabilisée (sur 10 000 jets) de l’événement tend à confirmer le résultat théorique (voir le fichier Excel joint).

Excel - 1.1 Mo
Aiguille

On pourrait imaginer donner une valeur approchée pour π à partir de la fréquence observée, comme avec la méthode de Monte-Carlo. C’est très peu performant comme on peut le voir avec la simulation.

Voici le texte original de Buffon sur ces sujets :

PDF - 709.2 ko
Texte original de Buffon

Simulation en utilisant MathGraph32 [1]

3- Un problème plus difficile : la baguette à franc-carreau
GIF - 145 octets

On suppose maintenant qu’une baguette - et non un disque - est lancée sur un carrelage constitué de carreaux carrés.

Dans ce cas, la probabilité de faire “franc-carreau” ne peut pas être calculée aussi facilement que dans le problème de Buffon. Le calcul reviendrait à une comparaison de volumes sous une hypothèse de répartition uniforme dans un pavé de R³ que seuls des mathématiciens aguerris savent faire.

Modélisation : On représente la baguette par un segment [AB] de longueur a, et on considère le carreau où l’extrémité A est tombée. Ce carreau est représenté par le carré unité dans un repère cartésien orthonormé.

Soient x et y les coordonnées aléatoires de A (0 ≤ x < 1, 0 ≤ y ≤ 1) et t l’angle aléatoire entre l’axe des x et le vecteur AB (0 ≤ t ≤ 2π).
La baguette est à “franc-carreau” si les conditions suivantes sont vérifiées :
0 ≤ x + a cos t < 1 et 0 ≤ y + a sin t < 1
Le volume en x, y, t inclus dans le produit cartésien [0,1]×[0,1]×[0,2π] défini par ces conditions, n’est pas facile à calculer.

Mais une simulation de cette expérience est très accessible pour des élèves de Terminale, avec l’hypothèse de modèle de la répartition uniforme de (x, y, t) dans le pavé [0,1]×[0,1]×[0,2π] .

Voici une réalisation possible de cette simulation. (fichier Excel ci-dessous)

Excel - 3.2 Mo
Baguette à Franc carreau

Baguette à franc-carreau

Longueur de la baguette AB abscisse de A dans le carré unité ordonnée de A dans le carré unité angle de la baguette AB avec l’axe des x abscisse de B ordonnée de B Franc-carreau = 1
0,44 ALEA() ALEA() 2*3,14*ALEA() B3+A$2*COS(D3) C3+A$2*SIN(D3) SI((E3>0)*ET(E3<1)*ET(F3>0)*ET(F3<1) ;1 ;0)
0,306 0,477 5,786 0,692 0,267 1

Dans cet exemple, a = 0,44 ; sur 10 000 lancers, on a obtenu une fréquence de « franc-carreau » de 0, 499, ce qui donne un intervalle de confiance à 95% : [0,489 ; 0,509].

On a ainsi un outil pour résoudre des problèmes qui joue le même rôle qu’une calculette graphique permettant de tracer des courbes représentatives de divers fonctions par exemple, ou pour obtenir des valeurs approximatives de solutions graphiques d’un système d’équations.

Pour terminer, je vous propose de résoudre le problème suivant : l’unité de longueur étant le côté d’un carreau, quelle longueur doit avoir la baguette pour que la probabilité qu’elle tombe à franc-carreau soit égale à un p donné (par exemple 0,1 ; … ; 0,9) ?

Michel HENRY

CII Statistique et probabilités

Références
GIF - 145 octets

Batanero, C., Henry, M., & Parzysz B. (2005). The nature of chance and probability. In G. A. Jones (Ed.), Exploring probability in school : Challenges for teaching and learning (pp. 20-42). New York : Springer.

Biehler, R. (1991). Computers in probability education. In R. Kapadia & M. Borovcnik (Eds.), Chance encounters : Probability in education (pp. 169-212). Dordrecht, The Netherlands : Kluwer.

Buffon, G. L. Leclerc (1733). Solution de problèmes sur le jeu du franc-carreau, Mémoire présenté à l’Académie Royale des Sciences. In Essai d’arithmétique morale, Histoire Naturelle, générale et particulière, Supplément, tome quatrième, Paris, Imprimerie Royale, 1777, 46-148.

Carranza, P., & Kuzniak, A. (2008). Duality of probability and statistics teaching in French education. In C. Batanero, G. Burrill, C. Reading, & A. Rossman (Eds.), Joint ICMI/IASE Study : Teaching Statistics in School Mathematics. Challenges for Teaching and Teacher Education. Proceedings of the ICMI Study 18 and 2008 IASE Roundtable Conference.

D’Alembert, J. Le Rond (1754). Encyclopédie ou Dictionnaire raisonné des sciences, des arts et des métiers, Diderot et d’Alembert eds, tome IV, article Croix ou Pile : http://diderot.alembert.free.fr/C.html

De Finetti, B. (1974). Theory of probability. A critical introductory treatment. New York : Wiley.

Groupe d’Experts sur les Programmes Scolaires, Direction de l’Enseignement Scolaire (2001). Accompagnement des programmes de mathématiques, classe de Première des séries générales. Paris : Centre National de Documentation Pédagogique (CNDP). En ligne : www.sceren.fr/produits/detailsimp.asp ?ID=84491.

Girard, J. C. & Henry, M. (2005). Modélisation et simulation en classe, quel statut didactique ? Statistique au lycée, vol. 1 (Chaput, B. & Henry, M., eds), 147-159. Paris : APMEP, brochure n° 156.

Hacking, I. (1975). The emergence of probability. Cambridge : Cambridge University Press. L’émergence de la probabilité, Éditions du Seuil, 2002.

Henry, M. (2001). Notion de modèle et modélisation dans l’enseignement, Autour de la modélisation en probabilités, Besançon, Presses Universitaires Franc-Comtoises, 149-159.
Kahane, J. P. (2002) (Ed.), L’enseignement des sciences mathématiques : Rapport au Ministre de l’Éducation Nationale de la Commission de Réflexion sur l’Enseignement des Mathématiques. Paris : Odile Jacob.

Papaieronymou, I. (2009). Recommended Knowledge of Probability for Secondary Mathematics Teachers. Proceedings of CERME 6 (Working Goup 3 on “stochastic thinking”). On line : http://www.inrp.fr/editions/editions-electroniques/cerme6/.

Parzysz, B. (2007). Expérience aléatoire et simulation : le jeu de croix ou pile. Relecture actuelle d’une expérimentation déjà un peu ancienne. Repères-IREM 66, 7-44.

Parzysz, B. (2009). Des expériences au modèle, via la simulation. Repères-IREM 74, 91-103.

Renyi, A. (1966). Calcul des probabilités, Dunod. Réédition : Jacques Gabay, Paris 1992.

Zieffler, A., & Garfield, J. B. (2007). Studying the role of simulation in developing students’ statistical reasoning. In Proceedings of the 56th Session of the International Statistical Institute, Lisboa, 22-29 August 2007. Voorburg : International Statistical Institute. Online : www.stat.auckland.ac.nz/ iase/publications/.


notes

[1Michel Henry précise : "Le problème de la simulation est le choix d’un modèle de l’expérience à
implanter.

Pour Buffon, c’est la loi uniforme continue sur le carreau atteint. Beaucoup
contestent ce choix, prétextant qu’il peut y avoir des directions
privilégiées dans les lancers.
L’autre écueil de ces probabilités géométriques à base de loi uniforme est
de se rattacher à la définition classique dans le domaine discret fini. J’ai
dirigé une thèse sur cette question (de Cileda Coutinho) où le lien était
fait en classe de Seconde par la discrétisation du carreau en pixels
d’ordinateur, via une représentation sur Cabri-géomètre.

On peut préciser le terrain expérimental de cette thèse : il s’agissait
de classes de Troisième et Seconde, avant l’introduction de la notion
de probabilité en Troisième."

Documents associés à l'article
  D’alembert   |   (Excel - 133 ko)
  L’article de Michel Henry au format pdf   |   (PDF - 2.9 Mo)
Réagir à cet article
Vous souhaitez compléter cet article pour un numéro futur, réagir à son contenu, demander des précisions à l'auteur ou au comité de rédaction...
À lire aussi ici
MathémaTICE est un projet
en collaboration avec
Suivre la vie du site Flux RSS 2.0  |  Espace de rédaction  |  Nous contacter  |  Site réalisé avec: SPIP  |  N° ISSN 2109-9197