Des repères pour analyser les publications sur le HPI

Comme convenu, voici un article qui a la folle ambition de vous donner quelques outils pour vous approprier plus facilement et de façon plus critique ce que vous pouvez lire sur le HPI, y compris les fameuses études scientifiques.


L’article commencera d’ailleurs par quelques clefs de lecture de ces publications en particuliers, pour se terminer par des points s’appliquant plutôt aux autres publications (non-scientifiques).

 

Concernant les publications scientifiques

 

Distinguer ce qui est démontré et ce qui ne l’est pas.

La recherche en psychologie comme en général, consiste à explorer, par l’expérience, des idées (des théories).

La littérature scientifique traite donc de ces deux aspects : les idées que les chercheuses et chercheurs ont (les Théories, les Modèles) et les expériences qui sont faites pour tester (en les validant ou en les infirmant) ces théories et modèles.

Une théorie ou un modèle n’est démontré (c’est à dire considérer comme reflet de ce qui est) que lorsque ce qu’il décrit et/ou prédit a été retrouvé et vérifié par les résultats de plusieurs (et c’est très important) expériences.

Cela ne signifie pas que les théories ou modèles non démontrés n’ont pas a être considérés, loin de là. Mais il serait incorrect d’affirmer, sans autre preuve, que leur contenu est valide.

Un exemple relatif au HPI serait ici la Théorie des intelligence multiple de Howard Gardner.
Largement reprise et diffusée, elle n’est pour autant pas démontrée.

 

Une démonstration, c’est plusieurs expériences.

Qu’une expérience confirme les prédictions d’une théorie ou d’un modèle, c’est bien. Mais ce n’est pas suffisant pour considérer que la théorie ou le modèle concerné est démontré, ni même que l’expérience en elle-même est fiable.
C’est un des critères de démonstration des théories ou des découvertes en sciences : le caractère reproductible des résultats obtenus.

Obtenir une fois un résultat c’est bien. Mais ce n’est pas suffisant. Parce qu’il se peut toujours que le ou les résultats obtenus, soient dû à autre chose que ce que l’on croit. De fait, tous résultats d’expérience pour être considéré comme fiable, doit pouvoir être reproduit.
C’est pour cela que tout article scientifique contient une partie décrivant la méthodologie employée pour mener l’expérience : pour que quiconque qui en ait les moyens, puissent répliquer l’expérience et voir si les résultats obtenus sont les mêmes que l’expérience source ou non.

C’est pourquoi, même si l’étude en question semble avoir découvert ou mis en lumière quelque chose, avant de pouvoir déclarer que « On a démontré que » de façon générale, il est nécessaire d’attendre que l’expérience en question soit répliquée (et exactement répliquée) et que des résultats identiques soient trouvés lors de ces réplications.

Un exemple d’actualité concernant le HPI est celui de l’étude menée par Fanny Nusbaum, Olivier Revol et Dominic Sappey-Marinier et qui sont le support de leur ouvrages récemment paru, « Les Philo-cognitifs ». Pour considérer les résultats de leur étude comme valables pour définir le HPI, il faudra attendre d’abord que les résultats soient répliqués sur la même population (des enfants d’un certains âge, issu de consultations psy et HPI) puis que ces mêmes résultats soient retrouvés chez les autres individus de la population HPI (non issu de consultation hospitalière et de tous âge).

En attendant tout cela, on ne peut pas généraliser leurs résultats.

 

Attention à l’échantillon !

L’échantillon étudié

Premier point d’attention : de qui parle-t-on vraiment ? Posez-vous la question des caractéristiques de la population d’étude : âge, genre, contexte socio-économique ou niveau de diplômes, troubles ou pathologies éventuellement présentés.
Ces trois premiers critères sont très utiles pour déterminer si les résultats présentés vous seront utiles ou non. Pour reprendre l’exemple précédent, de mémoire les études menées l’ont été sur des enfants d’une classe d’âge bien précise (j’ai le souvenir de 8 à 13 ans mais je n’en suis pas certaine).
Sachant que le développement cérébral perdure jusqu’à l’âge de 25 ans, en connaissant une période de modulation particulière autour de 15 ans, il serait audacieux d’en déduire que ce qui a été trouvé chez ces enfants serait valable pour toutes personnes surdouées.
Enfin, ces enfants ont été recrutés, il me semble, au moins en partie à partir de consultations psy. Ce qui signifie que ces enfants en question présentent des caractéristiques psychologiques particulières, qu’elles soient passagères ou chroniques, qui constituent potentiellement une source de biais d’interprétation des résultats. Et qui, en tout cas, définissent une autre caractéristique de la population, qui empêche une généralisation des résultats obtenus à tous les enfants HPI, comme à tous les individus HPI.

Le nombre de sujets de l’étude

En psychologie, les sujets sont des personnes, mais j’ai gardé le pli de parler de sujets depuis mes études en biologie, où les sujets pouvaient aussi bien être des rats que des singes ou bien des mouches ou des mollusques.

Grâce aux statistiques et aux mathématiques, on a pu déterminer que les résultats d’une étude pouvaient être considérés comme robustes à partir au moins d’un effectif d’une centaine de personnes. En dessous de 100 sujets, on considère qu’il y a quand même un risque de tomber sur une collection d’exceptions, plutôt que d’avoir un reflet de la généralité.

Les éventuels biais d’échantillonnage

A partir des deux points précédents, vous pouvez déterminer si l’échantillon (les sujets choisis pour l’étude) ne souffre pas d’un biais de recrutement.
C’est à dire si les caractéristiques des personnes participant à l’expérience ne risquent pas d’impacter les résultats de celle-ci et donc de tromper l’analyse des chercheuses et chercheurs.
Par exemple, quand on parle de HPI, on recrute souvent les sujets (souvent enfants d’ailleurs) auprès d’associations de parents qui viennent en aide aux parents débordés ou mis en difficultés par les difficultés rencontrées par leurs enfants. Donc, des enfants qui n’ont pas pour seule caractéristique d’être HPI mais aussi d’être, par exemple, en échec scolaire, ou présentant des TOC, des phobies, de l’anxiété, ou que sais-je.
Fatalement, en recrutant uniquement des enfants reconnus comme anxieux, et HPI, vous trouverez une corrélation (un lien) entre le HPI et l’anxiété.
Sauf que, si l’on avait aussi recruté des enfants non anxieux, et non HPI, on aurait trouvé qu’il n’existe aucune corrélation significative entre HPI et anxiété et donc que les enfants HPI ne sont pas plus anxieux que les autres.*

Outre le biais de recrutement, il y a le biais de la taille de l’effectif. C’est à dire le biais potentiellement induit par un trop petit nombre de sujets d’étude.
Moins vous avez de personnes dans votre étude, plus vous risquez de vous retrouver avec une juxtaposition d’exceptions ; alors que vous souhaitez avoir une vue générale.
Au contraire, plus vous avez de personnes qui constituent votre échantillon, plus vous avez de chance d’avoir une représentation générale.
Si ce n’est pas clair, voici une métaphore océanographique : pour vous faire une idée de la vie marine, vous allez prélever une certaine quantité d’eau dans l’océan.
Vous embarquez votre aquarium de salon, vous embarquez sur votre petit bateau (enfin vous choisissez le bateau que vous voulez) et hop, vous le plonger à 10 mètres de profondeur et vous le remontez. Vous vous retrouvez avec quelques poissons.
Même opération, mais avec un aquarium de 5000m3 (oui parce que dans le monde de la métaphore de vulgarisation scientifique, ça existe).
Si vous choisissez de décrire la vie océanique à partir de ce que vous avez pécher dans votre aquarium de salon, vous risquez pas mal de surprises lors de vos prochaines sorties plongé.
Le contenu de l’aquarium géant aura plus de chance de vous présenter une portion représentative de ce que vous serez susceptible de croiser le plus souvent dans l’océan.

C’est ce principe qui se cache derrière la taille de l’échantillon. Plus on prend de monde, plus on évite l’exception et plus on se rapproche d’une représentation générale.

 

La Méthode Scientifique est notre amie.

Toutes publications d’études expérimentales (expérimentale veut dire qui présente une expérience et ses résultats) doit suivre strictement et scrupuleusement la méthode scientifique pour être valide.
Pour ne pas surcharger un article déjà conséquent, je vous en épargne la loooooooooooooooongue description. Mais vous trouverez ci-après une page qui l’expose : https://explorable.com/fr/methodologie-de-recherche

Courage, ça peut faire peur comme ça…

 

Concernant les publications non-scientifiques

Contrairement aux publications scientifiques, il n’existe pas de repères tels que la méthode expérimentale pour juger objectivement et de façon certaine de la fiabilité du contenu d’une publication non-scientifique.
C’est donc à chacun·e d’établir une liste de critères qui lui semblent pertinents pour estimer la fiabilité d’un contenu.
C’est une affaire toute personnelle, et vous êtes seul·e juge de ce qui constitue à vos yeux un critère de crédibilité valide.

Pour ma part, je considère qu’il existe bien d’autres façons que les formations scolaires et universitaires pour acquérir des connaissances valides et fiables. Si la connaissance de la la théorie me semble indispensable, je pense aussi que l’expérience, la pratique, est source d’enseignements inaccessibles par ailleurs et complémentaires à ceux tirés de l’enseignement théorique. Enfin, je comprends chaque jours un peu plus toute la justesse de cette déclaration de Descartes : « Je sais que je ne sais rien. »
Personne ne peut prétendre tout savoir d’un sujet. Apprendre, c’est réaliser chaque fois un peu plus l’étendue de son ignorance et/ou de ses erreurs.
Néanmoins, pour ne pas verser dans le nihilisme le plus total, et pour pouvoir prétendre à diminuer un peu toute l’étendue de mon ignorance, j’ai déterminé un ensemble de points d’attention et de critères me permettant d’ajuster le degrés de crédibilité que j’accorde aux propos que je lis ou entends.

 

  • L’adéquation entre la formation des auteur·ice·s et le sujet sur lequel ils/elles se prononcent. Qui parle de quoi ?

Cela peut paraître évident, mais si vous avez comme moi une certaine tendance à la candeur, vous pourriez facilement vous retrouver dans l’erreur (et éventuellement le pétrin) pour n’avoir pas fait preuve de suffisamment de suspicion.

La formation et l’expérience des auteur·ice·s leur permettent-elles d’avoir un discours informé et fiable sur le sujet qu’ils/elles abordent ?
Parce que figurez-vous que tout le monde ne se prononce pas forcément sur des sujets qu’ils/elles maîtrisent ou seulement connaissent.
Si l’on me parle d’astronomie, j’aurais plus confiance en les déclarations d’une diplômée d’astronomie, qu’en celles d’un astronomes amateurs.
Pour autant, sur le même sujet, je me fierai plus à l’amateur astronome qu’au passionné de pêche.
C’est ainsi que j’accorde plus de crédits aux publications traitant de ce qu’est ou n’est pas le HPI quand elles sont rédigées par des personnes diplômées en psychologie.
En règle générale, je considère comme critère de fiabilité le fait que la personne qui délivre l’information possède une formation et un parcours professionnel dans le domaine de l’information délivrée.
Non qu’on ne puisse pas parler correctement d’un sujet dont on n’est pas diplômée, mais on peut supposer que ce diplôme implique que la personne à eu connaissance de plus d’informations plus précises sur le sujet lors de sa formation, que ce qui est accessible à une personne qui n’a pas eu cette même formation.

 

  • Distinguer le général et le particulier

Au sujet du HPI (comme du reste à vrai dire), je fais très attention à distinguer les récits personnels des connaissances vérifiées (i.e tirées de la recherche).
La grande majorité des publications non scientifiques sur le sujet sont des témoignages. Or un témoignage est un exemple, une illustration du sujet du HPI. Mais il n’en constitue pas une définition pour autant.
Malheureusement il n’est pas rare que ces ouvrages de témoignages contiennent des affirmations sur la définition du HPI, affirmations qui sont présentées comme des faits vérifiés, mais qui n’en sont malheureusement souvent pas du tout.
C’est pour cela que tant que l’auteur·ice ne source pas ses affirmations avec des articles de recherches, je ne considère (plus) jamais ce qui y est dit comme une généralité sur le HPI.

  • « Les expert·es » … ou pas

On pourrait croire que l’on pourrait se fier les yeux fermés à ce qui sera dit sur le HPI par un·e expert·e, professionnel·le, du HPI ?
Et bien pas tout le temps. Même un diplôme en psychologie n’est pas le garant d’une fiabilité à toutes épreuves des propos tenus dans ce domaine.

Parce que, d’abord, personne n’a la science infuse, et les connaissances de la recherche progressent sans arrêt. Et parce qu’ensuite, on peut se tromper même sans le savoir, même en étant convaincu·e et de bonne foi.
(Et aussi parce qu’il y a aussi des menteurs/menteuses et des incompétentes/ incompétents partout.)

Le problème de la psychologie, si j’ose dire, c’est qu’il existe pléthore de « référentiels théoriques ». Ou, autrement dit, tout un tas de théories sur le fonctionnement de l’esprit humain qui ne sont pas forcément compatibles entre elles.
Du coup, ce qui va être dit selon une « obédience théorique » (traduire : selon le courant théorique auquel l’auteur·ice adhère) sera invalide selon une autre, et vice-versa.
A vous de décider si vous adhérez à des courants théoriques dont les principes peuvent être démontrés, validés par l’expérimentation ou si vous préférez ceux qui demande de faire acte de foi, et de croire ce qu’ils racontent sans démonstration possible.
Sachez qu’en France, les psychologues sont trèèèèèèèèèèèès psychanalytiques. Il y a des facs entières qui n’enseignent QUE la psychanalyse dans leur UFR de psychologie.
Et la psychanalyse, elle aime pas beaucoup la science (oui parce que, ça n’est pas une science la psychanalyse) parce qu’elle lui demande de prouver ce qu’elle raconte, et que du coup, elle peut pas.
Je m’égare !

Donc si et quand vous trouvez qu’un·e psy vous a dit quelque chose que la science n’a pas démontré ou a démontré que c’était faux, ce n’est pas forcément la preuve de son incompétence ou de la noirceur de son âme, mais peut-être la simple conséquence de son orientation théorique (et du fait que comme il/elle est humain·e, il/elle ne sait pas tout non plus.)

Exemple de « même la parole des expert·es doit être questionnée » :
Lorsque j’ai découvert le sujet des adultes surdoué·es, j’ai lu et cru tout ce qui était écrit dans le livre « Trop intelligents pour être heureux » par exemple, parce qu’il était écrit par une psychologue qui se déclare spécialiste du sujet du HPI.
Je l’ai cru parce que l’ouvrage était écrit par quelqu’un dont la formation et l’expérience professionnelle apportaient à mes yeux légitimité et crédibilité aux propos qui y étaient tenus. Pourtant une bonne partie des affirmations sur le HPI contenues dans cet ouvrages ont été démontrées fausses ou inexactes par la recherche.

Plus tard j’ai été emballée par l’ouvrage d’une doctoresse en Psychologie et, selon son site, titulaire d’un diplôme en neurosciences. Je suis toujours emballée par cet ouvrage qui pose un regard positif sur le HPI. Mais j’ai depuis revu à la baisse la crédibilité que je lui accordait quand j’ai constaté qu’il était impossible de vérifier les références de l’autrice : pas de nom d’université pour son doctorat, pas de nom de grade ni de diplôme pour sa formation en neurosciences.
Je ne l’accuse pas du tout de mensonge, je la crois volontiers, il n’empêche que faute de pouvoir vérifier ses qualifications et cerner un peu son domaine de connaissances, j’ai choisi de me montrer prudente quant à la fiabilité que j’estime pouvoir prêter à ses propos sur le HPI.

De fait même les propos de professionnel·les et expert·es d’un sujet peuvent être faux. Ou inexactes, incomplets, imprécis.
D’où l’importance pour toutes personnes intéressées par le sujet du HPI (ou tout autre sujet) d’être en mesure de porter un regard critique sur ce que l’on en dit, et de ne pas rester à la merci du premier gourou venu.

Conclusion : s’instruire, et toujours vérifier.

Quoi que vous lisiez sur le HPI, et ce blog en fait partie, vérifiez toujours ces informations.
Confrontez-les à d’autres sources, et principalement aux connaissances de la recherche sur le sujet.
Pour ce faire, une simple recherche de mots clefs sur ces quelques plateformes et/ou bases de données suffira (pour ce qui concerne la psychologie) :

Cairn
Google Scholar
Persée
PubMed
Science Direct

S’il y a bien peu de choses dont on peut dire qu’elles sont vraies sur le HPI, il y en a en revanche beaucoup dont on peut affirmer la fausseté.
Je vous laisse donc, à l’aide entre autre des outils que cet article vous a proposé, vous faire vous-même une idée de la crédibilité que vous pouvez accorder à l’affirmation précédente.

(Et en fait je compte bien profiter de vos yeux de faucons pour me montrer où j’ai moi-même péché et me dire où et si j’appuie mes affirmations sur des études qui vous paraissent fallacieuses. Oui j’ai un côté flemmarde aussi.)

Enjoy !



Gardner, H. (2011). Frames of mind: The theory of multiple intelligences. Hachette UK.

Nusbaum F. , Revol O.,Sappey-Marinier D. (2019), Les Philo-cognitifs : Ils n’aiment que penser et penser autrement…. Odile Jacob

*Gauvrit, N., & Ramus, F. (2017). La légende noire des surdoués. La Recherche521

 

 

5 réflexions sur “Des repères pour analyser les publications sur le HPI

  1. Θωμας dit :

    Bonjour
    Je crains d’être un peu hors de propos, (encore que pas totalement puisque je reste dans le thème des publications scientifiques), mais la thèse de l’ancienne psychologue de mon école, dont j’ai été un « sujet » (puisque c’est le mot) en 2012, vient d’être publiée en ligne.

    Le titre:
    Les habilités d’écriture d’adolescents à haut potentiel intellectuel : étude des habilités graphomotrices, orthographiques et rédactionnelles comparées à celles d’adolescents ordinaires

    Un sujet qui me tient d’ailleurs particulièrement à cœur (je suis passionné par l’écriture alors que je déteste écrire), et qui j’espère a des chances de vous intéresser.
    (Je commence à peine à la lire donc je n’ai pas encore pu tout décortique, mais je vais m’y mettre de ce pas)

    Donc je partage:
    http://www.theses.fr/2018BORD0067
    https://tel.archives-ouvertes.fr/tel-02166086

    Et si vous pouvez me conseiller d’autres blogs qui pourraient être intéressés, je suis preneur.

    Thomas

    J'aime

  2. Ver1976 dit :

    Bonjour,
    Essayez ERIC.

    Beaucoup de références mais un descripteur « gifted » disponible (entre autre) : https://eric.ed.gov/?q=descriptor%3Agifted

    Colonne de gauche :
    Il y a des noms de revues qui paraissent intéressantes ;
    Les auteurs qui reviennent le plus souvent ;
    Les pays qui reviennent le plus souvent (Australie ??) bon après c’est surtout anglophone.

    Pas forcément des revues peer-review donc pas au même niveau que PubMed mais en complément.

    Bonne semaine.

    J'aime

Répondre

Entrez vos coordonnées ci-dessous ou cliquez sur une icône pour vous connecter:

Logo WordPress.com

Vous commentez à l'aide de votre compte WordPress.com. Déconnexion /  Changer )

Photo Google

Vous commentez à l'aide de votre compte Google. Déconnexion /  Changer )

Image Twitter

Vous commentez à l'aide de votre compte Twitter. Déconnexion /  Changer )

Photo Facebook

Vous commentez à l'aide de votre compte Facebook. Déconnexion /  Changer )

Connexion à %s