Le premier article a un titre qui ne fait pas dans l’ambiguïté :
Encore raté (ou, l’IA fait n’importe quoi une nouvelle fois)
Mais l’auteur-utilisateur a-t-il suffisamment interféré avec l’IA (ChatGPT ?) ? Lui a-t-il donné des indications pour en améliorer la production ? Ses prompts sont-ils optimaux ?
Parmi nos lectrices ou lecteurs, y en auraient-t-il qui sauraient pousser l’IA dans ses retranchements, pour en améliorer les performances, au plus près des attentes de l’auteur ?
Quant au second article, son enthousiasme peut paraître un peu suspect :
C’est historique : ChatGPT n’a pas seulement passé le test de Turing… il l’a retourné !
Il fait l’éloge de GPT-4.5. Un des titres est surprenant : Un chatbot jugé plus humain que les humains.
Avec une conclusion en retrait : Confronté à des personnes qui utilisent régulièrement les chatbots, le score pourrait être différent.
Qu’en diriez-vous ? Partagez-vous l’enthousiasme de l’article ? mathematice@sesamath.net
Retour d’un lecteur au sujet du premier article
Les prompts utilisés par l’auteur (premier article) sont visiblement trop peu détaillés. Un bon réflexe quand on est loin du résultat souhaité est de demander à l’IA pourquoi. Ce qui marche souvent très bien aussi, c’est de lui demander de rédiger elle-même le prompt : c’est ChatGPT qui rédige mes prompts !
C’est ce que j’ai fait ici (il faut remonter au début de la page) : le prompt fourni par l’IA est complet et le tableau de phonèmes me semble bien (un spécialiste aurait certainement fait quelques modifications aux propositions de l’IA). Par contre, l’image générée derrière est au moins aussi mauvaise que celle de l’article ! Et cette fois, il n’y a pas l’excuse du mauvais prompt...