Aller au contenu

Biais cognitifs les plus courants en médecine et leurs conséquences sur les diagnostics et les traitements/Biais courants rencontrés en médecine et conséquences spécifiques

Une page de Wikiversité, la communauté pédagogique libre.

3. Biais courants rencontrés en médecine et conséquences spécifiques

[modifier | modifier le wikicode]

L’acte médical, qu’il soit diagnostique, thérapeutique ou relationnel, repose sur une série de jugements formulés en situation d’incertitude, sous contrainte temporelle, émotionnelle et cognitive. Dans ce contexte, les biais cognitifs ne sont pas de simples anomalies anecdotiques. Ils s’imposent comme des mécanismes omniprésents et potentiellement délétères, influençant silencieusement mais fortement la qualité des soins.

Les recherches en sciences cognitives ont mis en évidence que ces biais ne sont ni exceptionnels, ni marginaux. Ils structurent notre raisonnement quotidien, y compris dans les environnements hautement spécialisés comme la médecine. Ce constat s’étend bien au-delà de la seule erreur individuelle. Il renvoie à une vulnérabilité systémique, au sein même des institutions de soin, où des stéréotypes implicites, des raccourcis mentaux et des logiques d’action automatiques peuvent avoir des incidences sur les trajectoires diagnostiques, les décisions cliniques et les relations thérapeutiques.

Ce texte vise à illustrer, de manière structurée, les biais les plus fréquemment rencontrés en contexte médical. Leur influence est examinée selon différentes étapes du parcours de soin : de la première rencontre aux décisions diagnostiques, en passant par la manière dont l'information est présentée ou interprétée. Les mécanismes de stigmatisation, les erreurs d’attribution, les illusions de contrôle ou encore l’impact des croyances personnelles y seront analysés à la lumière des données actuelles de la recherche. Comprendre ces biais relève d’une exigence éthique et professionnelle, car derrière chaque raccourci cognitif non identifié, se dessine la possibilité d’un diagnostic erroné, d’un traitement inapproprié, ou d’une rupture dans l’alliance thérapeutique. Identifier, nommer et interroger ces biais constitue un levier fondamental pour renforcer la sécurité des soins, lutter contre les inégalités et promouvoir une médecine plus juste, réflexive et responsable.

3.1 Biais influençant la prise en charge initiale

[modifier | modifier le wikicode]

Dès l’arrivée aux urgences ou lors d’une première rencontre dans une nouvelle unité médicale, la qualité de la prise en charge peut être profondément influencée par des biais cognitifs et des mécanismes de stigmatisation de la part des soignant·e·s. Qu’ils prennent la forme d’une tendance à l’action précipitée, d’une inattention partielle aux symptômes rapportés, ou encore d’une attente passive et minimisante, ces biais souvent inconscients, peuvent orienter la décision clinique et altérer la qualité de la relation patient·soignant.

En effet, de nombreuses études ont mis en évidence le rôle délétère de stéréotypes implicites dans la manière dont les professionnel·le·s de santé écoutent, évaluent et interprètent les plaintes des patient·e·s. La stigmatisation constitue l’un de ces mécanismes particulièrement puissants. Comme le rappellent Knaak et al. (2017)[1], en s’inspirant des travaux pionniers de Goffman, la stigmatisation peut être définie comme « un processus social complexe d’étiquetage, de marginalisation, de dévaluation et de discrimination impliquant une interconnexion de composantes cognitives, émotionnelles et comportementales ».Lorsqu’elle est présente au sein même du système de soins, la stigmatisation constitue un obstacle majeur à l’accès aux traitements, à la réadaptation et à la qualité des soins.

Comme l’explique Cho (2019)[2], certains de ces biais peuvent « causer des préjudices physiques et psychologiques graves aux patients, ainsi que des coûts financiers importants pour le système de santé » et rappelle que plusieurs travaux [1][3][4][5][6] ont permis de mettre en lumière des erreurs diagnostiques fréquentes lorsqu’il s’agit de patients issus de minorités, ou de femmes, en lien avec des biais de genre ou de race.

L’un des exemples les plus étudiés concerne précisément la douleur. Samulowitz et al. (2018)[7], ont montré que « des normes genrées influencent l’expérience et l’expression de la douleur chez les hommes et les femmes, ainsi que leur mode de vie et leurs stratégies de coping ». Ces normes, renforcées par la masculinité hégémonique et l’andronormativité, conduisent à des décisions cliniques différenciées selon le genre, souvent au détriment des femmes, dont la douleur est plus fréquemment banalisée, minimisée ou psychologisée.

Ainsi, les biais cognitifs, qu’ils soient liés à des stéréotypes sociaux, à des raccourcis mentaux ou à des schémas d’action automatiques, interviennent dès les premiers instants de la rencontre médicale, et peuvent compromettre gravement la qualité de la prise en charge. Il apparaît dès lors essentiel de les identifier, les nommer, et les déconstruire, pour tendre vers une pratique plus juste, plus réflexive, et plus égalitaire en santé.

3.1.1 Biais ethniques ou effet d’appartenance ethnique

[modifier | modifier le wikicode]

Le biais ethnique désigne une préférence implicite d’un professionnel de santé pour son propre groupe ethnique, au détriment des patients issus de groupes ethniques minoritaires ou migrants[8]. Ce biais peut se traduire par un manque de volonté ou d'effort pour adapter les soins aux spécificités culturelles des patients migrants, alors que cette volonté constitue un préalable essentiel à la compétence culturelle. Il peut mener à une discrimination involontaire, particulièrement lorsque les soignants sont sous pression, en surcharge cognitive, fatigués, ou qu’ils manquent d’informations suffisantes pour prendre des décisions adaptées[9]. Il peut aussi être accentué par un mauvais accord ethnique entre patient et soignant, des contacts interculturels inappropriés, des stéréotypes, des préjugés, des attitudes politiques ou encore des facteurs institutionnels et organisationnels.

Le biais ethnique implicite contribue aux inégalités en matière de soins en influençant négativement les recommandations médicales, en réduisant l’empathie envers certains patients, en entraînant des prescriptions de médicaments et des décisions de traitement différenciées, ainsi que des interactions de moindre qualité avec les patients issus de groupes ethniques minoritaires.

3.1.2 Biais de genre

[modifier | modifier le wikicode]

Selon la revue de Samulowitz et al. (2018)[10], les normes de genre s’expriment clairement dans le domaine des soins de santé. Elles peuvent être intériorisées et reproduites aussi bien par les patient·es que par les chercheur·es ou les professionnel·les de santé, et conduisent à des biais de genre, c’est-à-dire à des différences de traitement médical non justifiées médicalement entre les hommes et les femmes (Krieger., 2003)[11]. Au cours des dernières années, plusieurs exemples ont mis en lumière ces écarts injustifiés dans la prise en charge de pathologies identiques chez les hommes et les femmes, dans divers domaines médicaux. L’un des domaines les plus fréquemment cités comme touché par le biais de genre est celui de la douleur, en particulier la douleur chronique (Racine et al., 2012)[12]. Malgré cela, on dispose encore de peu de connaissances concrètes sur les façons dont ce biais se manifeste dans la réalité clinique, notamment dans la relation entre patient·e et professionnel·le de santé[13].

La perception selon laquelle les hommes et les femmes auraient des comportements et des besoins fondamentalement distincts est problématique, car elle tend à renforcer des normes de genre stéréotypées. En milieu médical, cela peut conduire à une prise en charge standardisée fondée sur le sexe plutôt que sur les besoins réels de chaque individu, aboutissant à une négligence des spécificités individuelles.

Ce biais s’inscrit dans un rapport de pouvoir inégal entre les genres, souvent au détriment des femmes, qui reçoivent par exemple moins de traitements antalgiques ou voient leurs douleurs davantage psychologisées[14]. Toutefois, les attentes genrées affectent également les hommes, à qui l'on peut attribuer une résistance à la douleur ou une moindre vulnérabilité et peuvent ainsi restreindre l’accès aux soins adaptés. Promouvoir une approche plus équitable profiterait donc à toutes et tous, en garantissant une meilleure qualité de soins

3.1.3 Biais lié au poids

[modifier | modifier le wikicode]

Le biais lié au poids fait référence à des jugements négatifs et des croyances défavorables portées sur un individu en raison de son poids corporel. Ce phénomène conduit à la stigmatisation des personnes obèses, par l'attribution de stéréotypes comme la paresse, le manque de détermination, une intelligence perçue comme inférieure à celle des personnes non obèses, ou encore un manque de volonté d’appliquer les recommandations comportementales[15].

Cette stigmatisation est liée à des inégalités dans la prise en charge de l'obésité, tant en termes d'accès que de qualité des soins[16]. En effet, les médecins consacrent moins de temps à leurs patients obèses, communiquent moins avec eux, proposent moins d'interventions et négligent les examens préventifs, en comparaison avec les patients de poids « normal »[17]. De plus, les expériences ou la simple anticipation d’un mauvais traitement peuvent engendrer du stress, conduire à un évitement des soins, à une méfiance envers les médecins et à une mauvaise observance des traitements chez les patients obèses. Ainsi, la stigmatisation peut nuire à la qualité des soins, même lorsque les professionnels ont l’intention de fournir une prise en charge de qualité[16]. L’étude de Latner et al. (2014)[18], montre également que ces individus peuvent en venir à intérioriser ce biais, ce qui contribue à une diminution de leur qualité de vie liée à la santé mentale.

3.1.4 Biais d’affinité

[modifier | modifier le wikicode]

Le biais d’affinité est un biais cognitif inconscient qui pousse les individus à se rapprocher ou à se sentir plus à l’aise avec des personnes qui leur ressemblent, que ce soit par l’origine, le parcours, la personnalité ou les centres d’intérêt. Ce biais, comme d’autres biais inconscients, peut influencer les relations entre médecins et patients, en affectant par exemple la qualité de l’alliance thérapeutique ou les décisions cliniques[19].

3.1.5 Biais d’inaction (ou biais d’hésitation)

[modifier | modifier le wikicode]

Le biais d’inaction désigne une tendance à éviter l’intervention, en particulier dans les situations cliniques incertaines, par crainte de faire une erreur ou d’être tenu responsable d’une décision médicale jugée inappropriée. Il repose sur le principe éthique de non-malfaisance, amenant les soignants à penser qu’il vaut mieux ne rien faire plutôt que de risquer de causer un tort par une action. Ce biais s’inscrit dans une logique selon laquelle un dommage causé par omission est perçu comme moins grave ou plus acceptable qu’un dommage causé par une action[20]. Ce biais est souvent plus fréquent que le biais d’action, c’est-à-dire la tendance inverse à agir excessivement[21].

Ce biais peut conduire à des retards dans la mise en œuvre de soins urgents, ce qui peut mettre en danger la vie ou l’état de santé du patient. Par exemple, un médecin peut tarder à réaliser un drainage thoracique en cas de pneumothorax suspecté, par peur de se tromper et de provoquer un dommage s’il s’avère qu’il n’y avait pas de pneumothorax. Ces omissions motivées par la peur d’agir à tort peuvent aggraver la situation clinique, retarder la prise en charge adéquate, et nuire indirectement au patient.

3.1.6 Biais d’action

[modifier | modifier le wikicode]

Le biais d’action (ou biais de commission) fait référence à la tendance à privilégier l’action plutôt que l’inaction « c’est-à-dire exécuter des manœuvres non indiquées, s’écartant du protocole, peut être en raison d’un excès de confiance ou de la pression des autres » (ARS) . Croire que faire quelque chose est toujours mieux que ne rien faire, motivé par la bienfaisance[21].

Le biais d’action influence la prise de décision médicale en incitant les professionnels de santé à privilégier l’intervention plutôt que l’inaction, même lorsque celle-ci est non justifiée. Cela peut conduire à des actions qui, bien qu’entreprisent avec l'intention de prévenir des complications, peuvent en réalité entraîner des risques supplémentaires. Par exemple de ce biais a été observé pendant la crise du COVID-19, où l'utilisation de l'hydroxychloroquine, un médicament non prouvé, a été décidée sur la base de l'idée que « faire quelque chose est mieux que ne rien faire »[22].

3.2 Biais liés au diagnostic

[modifier | modifier le wikicode]

Après l’accueil et la première évaluation, la formulation d’un diagnostic constitue une étape décisive dans le parcours de soin. Or, cette phase repose sur une série de raisonnements déductifs et inductifs, souvent réalisés sous pression temporelle et avec des données incomplètes. Dans ce contexte, les biais cognitifs s’avèrent particulièrement influents, car ils peuvent induire des erreurs de raisonnement, réduire la capacité à envisager des hypothèses alternatives, ou conduire à des conclusions prématurées.

La section suivante s’attache donc à détailler les biais les plus fréquemment impliqués dans les erreurs diagnostiques, en s’appuyant sur les données probantes issues des revues systématiques et des recherches en sciences médicales et cognitives.

Le processus diagnostique constitue une mission centrale pour de nombreux professionnels de santé. Il repose sur une série de raisonnements humains, ce qui le rend inévitablement sujet à des erreurs. L’Institute of Medicine (IOM) définit d’ailleurs l’erreur diagnostique comme l’incapacité à établir, dans un délai raisonnable, une explication précise du problème de santé du patient ou à lui communiquer cette explication de manière appropriée.

Les erreurs diagnostiques sont présentes dans toutes les sphères des soins de santé, comme le rappellent Gopal et al. (2021)[21], et leur fréquence varie selon les contextes cliniques. Ces erreurs peuvent résulter de facteurs systémiques mais aussi cognitifs. Ainsi, des revues systématiques portant sur 76 études et analysant plus de 19 000 autopsies ont révélé que des erreurs cliniquement significatives, telles qu’une mauvaise identification de la pathologie sous-jacente ou de la cause principale du décès étaient retrouvées dans 23,5 % à 28 % des cas, aussi bien chez les adultes que chez les enfants hospitalisés.

Ces chiffres ne sont pas isolés : selon un sondage récent[20], environ un médecin sur six commettrait une erreur de diagnostic chaque jour, et ce sont les médecins urgentistes qui l’admettent le plus volontiers (26 % d’entre eux). En effet, les services d’urgence constituent un environnement particulièrement propice à la survenue d’erreurs diagnostiques, en raison notamment de la pression temporelle, du volume élevé de patients et de l’incertitude clinique fréquente.

Au sein de ces erreurs, les biais cognitifs occupent une place centrale. Ils s’inscrivent dans une constellation de facteurs individuels tels que des lacunes en communication, un manque d’expérience ou de connaissances, ou encore l'absence de sollicitation d’un avis extérieur. Dans leur revue systématique, Saposnik et al. (2016)[22] ont montré que dans toutes les études examinées, au moins un biais cognitif ou trait de personnalité influençait les décisions diagnostiques des médecins. Des biais comme l’excès de confiance, la faible tolérance à l’incertitude, l’effet d’ancrage, ou encore les biais de disponibilité et de confirmation, étaient associés à des erreurs diagnostiques dans 36,5 % à 77 % des cas étudiés. Par ailleurs, cinq des sept études incluses ont également mis en évidence un lien entre ces biais cognitifs et des erreurs dans les décisions thérapeutiques.

Face à ces constats, il devient essentiel dans la démarche diagnostique, de savoir identifier, analyser et critiquer les informations échangées lors des discussions cliniques, mais aussi de repérer les failles logiques dans le raisonnement. Détecter les biais cognitifs auxquels tout professionnel peut être confronté est un levier fondamental pour améliorer la qualité du diagnostic pour garantir la sécurité des patients.

3.2.1 Biais d’ancrage

[modifier | modifier le wikicode]

Le biais d’ancrage en médecine correspond à une tendance cognitive à accorder un poids disproportionné à la première information reçue dans un processus de raisonnement clinique, souvent au détriment des éléments pertinents recueillis par la suite. Il s'agit d'une référence implicite et excessive au premier élément d’information acquis sur le patient[20], ce qui conduit à maintenir une impression diagnostique initiale sans réévaluation suffisante à la lumière de nouvelles données.

Par exemple, un clinicien peut supposer qu’une douleur thoracique centrale est liée à un reflux gastro-œsophagien et rester fixé sur cette hypothèse, même si l’anamnèse ultérieure révèle une irradiation dorsale, signe potentiellement évocateur d’une cause cardiaque[23].Cette fixation précoce empêche l’intégration efficace d’informations discordantes et peut altérer la qualité du raisonnement médical.

3.2.2 Biais de confirmation

[modifier | modifier le wikicode]

Le biais d’affirmation (ou biais de confirmation) désigne une tendance cognitive systématique à privilégier les informations qui confirment nos croyances, hypothèses ou attentes initiales, tout en ignorant ou en rejetant celles qui les contredisent[20][24]. En contexte médical, cela peut conduire à des erreurs dans l’évaluation clinique, notamment lorsque le praticien ne cherche ou ne retient que les éléments soutenant une hypothèse diagnostique préconçue, au détriment d’un raisonnement ouvert et fondé sur l’ensemble des données disponibles.

Ce biais influe également sur la perception et l’interprétation du comportement d’autrui, l’observateur évaluant les situations à travers le prisme de ses expériences passées et de ses croyances personnelles[19]. Bien que ces mécanismes soient des adaptations évolutives utiles dans de nombreux contextes, leur impact peut devenir délétère en médecine, en conduisant à une validation prématurée de certaines hypothèses et à une fermeture prématurée du raisonnement clinique

3.2.3 Biais de disponibilité

[modifier | modifier le wikicode]

Le biais de disponibilité désigne la tendance à privilégier un diagnostic plus fréquent ou celui qui vient immédiatement à l'esprit, notamment lorsqu'il a été récemment rencontré. Lorsque des expériences récentes avec une maladie particulière rendent cette maladie plus présente dans l'esprit du médecin (plus « disponible »), cela augmente la probabilité que ce diagnostic soit posé. À l'inverse, les maladies moins fréquemment rencontrées, donc moins « disponibles », ont moins de chances d’être diagnostiquées[21]. Ce phénomène se produit parce que les informations facilement rappelées, souvent récentes ou accessibles, influencent de manière incorrecte la prise de décision[24].

Une étude menée par Mamede et al. (2010)[25] a démontré que le biais de disponibilité peut se produire en réponse à des expériences récentes avec des cas cliniques similaires, surtout lorsque l'on utilise un raisonnement non analytique. Cela conduit à des erreurs diagnostiques. Toutefois, l'étude montre également que le raisonnement réflexif, c’est-à-dire une réflexion plus approfondie sur le cas, peut aider à contrer ce biais.

3.2.4 Biais de conclusion prématurée

[modifier | modifier le wikicode]

Le biais de conclusion prématurée désigne l'erreur qui consiste à accepter un diagnostic avant qu'il n'ait été entièrement vérifié, ou sans prendre en compte toutes les alternatives possibles[26]. Cette tendance se manifeste par une préférence pour la solution la plus simple cognitivement, entraînant l'arrêt prématuré de l'examen et de la collecte d'informations dès qu'une réponse satisfaisante semble émerger (HAS, 2023)

En pratique, une vérification complète est rarement réalisable, et il arrive que des décisions thérapeutiques soient prises malgré l'incertitude qui subsiste[27]. Ainsi, ce biais est particulièrement présent dans des domaines à forte intensité, comme l'anesthésie et les soins intensifs, où le diagnostic se fait sous pression de temps et dans des situations incertaines, augmentant ainsi le risque d'erreur pour les cliniciens.

3.2.5 Biais de surconfiance

[modifier | modifier le wikicode]

Le biais de surconfiance, également appelé effet Dunning-Kruger, fait référence à la tendance d'une personne à surestimer ses capacités et connaissances, au-delà de ce qu'elle maîtrise réellement[21]. Cela se traduit par « une surestimation par un individu de ses propres compétences, connaissances ou jugements »[28], ce qui conduit à une difficulté à reconnaître la nécessité de demander de l'aide et à une croyance en sa propre infaillibilité (ARS).

Le jugement excessivement confiant des cliniciens, un biais cognitif influençant le raisonnement médical, peut entraîner des erreurs diagnostiques. Bien que ce biais soit fréquent dans la littérature psychologique, il varie selon les cultures et les ethnies. Les individus, notamment ceux moins compétents, ont tendance à surestimer leurs capacités, ce qui peut parfois mener à un comportement irrationnel et augmenter le risque d'erreurs de diagnostic[29]. Par exemple, un clinicien peut diagnostiquer une douleur thoracique pleurétique post-traumatique comme une blessure des tissus mous, en négligeant la possibilité d'un pneumothorax et en omettant de demander une radiographie thoracique, ce qui reflète ce biais de surconfiance[21].

3.2.6 Biais du joueur (ou illusion du joueur)

[modifier | modifier le wikicode]

Le biais du joueur est une croyance irrationnelle qui suppose que les résultats précédents d'une série d'événements influencent la probabilité d'un événement futur, même lorsque ces événements sont indépendants et identiquement distribués[30]. Ce phénomène fait référence à la fausse conviction d'un joueur qui pense qu'après avoir obtenu plusieurs faces en lançant une pièce cinq fois, les chances d'obtenir une pile au sixième lancer sont augmentées[21]. Il s'agit d'un effet de récence négatif, irrationnel, où l'on croit à tort que la probabilité d'un événement est déterminée par les événements passés, alors que, en réalité, tous les événements sont indépendants et identiquement distribués.

La revue de Bornstein et Emler (2001)[31] reprend l'exemple de Dawson et Arkes (1987)[32], illustrant comment le paradoxe du joueur pourrait amener un médecin à penser qu'après n'avoir observé aucun des cinq cas habituels d'infarctus du myocarde (IM) pendant le week-end, le prochain patient présentant une douleur thoracique doit nécessairement être un cas d'IM.

3.2.7 Effet de masquage diagnostique

[modifier | modifier le wikicode]

Le masquage diagnostique correspond à la tendance des professionnels de santé à attribuer les symptômes d’un patient à un diagnostic déjà posé (souvent psychiatrique, cognitif ou lié à une déficience intellectuelle) au détriment de l’exploration d’autres causes, notamment somatiques ou psychiatriques comorbides. Ce concept a été introduit en 1982 pour désigner un biais fréquent chez les personnes présentant une déficience intellectuelle, dont les nouveaux symptômes étaient systématiquement interprétés à travers le prisme de leur trouble initial[5].

Depuis, les études ont montré que ce phénomène est largement répandu, quel que soit le type de trouble ou de patient concerné. Par exemple, dès l’arrivée aux urgences, la qualité de la prise en charge somatique des personnes souffrant de troubles mentaux peut être compromise par ce biais[33].

Le masquage diagnostique ne se limite pas aux pathologies psychiatriques ou cognitives : il touche également les personnes appartenant à des groupes sociaux stigmatisés (par exemple en raison de leur origine ethnique, orientation sexuelle, identité de genre, poids ou genre). Il devient alors essentiel d’intégrer la manière dont les identités sociales multiples des patients influencent à la fois leur vécu des soins et la perception qu’en ont les soignants. Une lecture intersectionnelle de ces situations permettrait ainsi d’améliorer la précision diagnostique, en tenant compte à la fois de l’impact des identités sur la relation soignant-soigné et des biais potentiels du clinicien[2].

Un facteur protecteur identifié est la complexité cognitive du clinicien c’est-à-dire sa capacité à considérer plusieurs hypothèses simultanément. Les professionnels dotés de cette compétence seraient plus aptes à repérer d’éventuels troubles comorbides[5].

3.3. Biais liés à la présentation de l’information

[modifier | modifier le wikicode]

La prise de décision en médecine repose sur l’interprétation de données complexes et la projection hypothétique. Cependant, la manière dont ces informations sont présentées influence de façon significative les jugements cliniques et les choix thérapeutiques, tant du côté des professionnels que des patients. Parmi les biais cognitifs les plus saillants figurent les biais de cadrage, du statu quo, du faux consensus et de feed-back, dont l’impact sur la qualité des soins est aujourd’hui bien documenté. Leur compréhension est indispensable pour améliorer les pratiques médicales et réduire les erreurs évitables.

3.3.1. Biais de cadrage (framing bias)

[modifier | modifier le wikicode]

Le biais de cadrage désigne l’influence exercée par la formulation des informations, selon qu’elles sont présentées en termes de gains ou de pertes, sur les décisions des individus[34]. Par exemple, un patient informé que son traitement a 90 % de chances de succès est plus enclin à l’accepter que si on lui annonce 10 % de risques d’échec, bien que les deux messages soient objectivement équivalents.

Ce type de raisonnement hâtif émerge fréquemment lors de la communication des risques associés aux traitements, dépistages ou interventions chirurgicales. Dans le cadre d’un dépistage de cancer, la présentation des résultats en termes de réduction relative du risque modifie substantiellement l’acceptabilité des interventions par rapport à l’évocation de la réduction absolue. Ainsi, si l’on informe un patient que la détection permet de faire baisser le risque de mortalité de 20 % (réduction relative), cela crée souvent une impression d’efficacité importante. Pourtant, ce 20 % est calculé par rapport au risque initial. Si, sans dépistage, 5 personnes sur 100 meurent, et qu’avec dépistage, ce chiffre passe à 4, la réduction absolue est seulement de 1 personne sur 100 (soit 1 %). Les deux formulations décrivent la même réalité médicale, mais le cadrage en réduction relative amplifie l’impression de bénéfice. Ce décalage de perception, qui n’est pas justifié par les données objectives, illustre précisément le biais de cadrage. Des travaux comme ceux d’Akl et al. (2011)[35] ont montré que même des patients bien informés restent sensibles au biais de cadrage dans les décisions médicales, en particulier dans les démarches exploratoires. Une étude de Wolfe[36] en 2025 a encore mis en lumière que la manière dont les options sont formulées influence significativement les décisions des individus, illustrant le poids de ce biais cognitif dans des contextes décisionnels complexes.

Le biais de cadrage inclut des risques de décisions cliniques influencées par la forme de l'information plutôt que par son contenu réel, de sur-utilisation ou sous-utilisation des interventions médicales et de consentement éclairé potentiellement biaisé.

3.3.2. Biais du statu quo (status quo bias)

[modifier | modifier le wikicode]

Le biais du statu quo correspond à la tendance à préférer maintenir la situation actuelle plutôt qu’à envisager le changement, même lorsque ce dernier pourrait être bénéfique[37]. En médecine, il se manifeste notamment lors des renouvellements d’ordonnances qui prolongent les traitements sans réévaluation critique, ou bien dans les réticences face à l’introduction de nouvelles recommandations cliniques.

Les médecins hésitent fréquemment à interrompre des traitements médicamenteux prescrits depuis longtemps, malgré des preuves de leur inefficacité ou de leurs risques, comme certaines prescriptions de benzodiazépines au long cours chez les personnes âgées. Cette inertie thérapeutique est souvent renforcée par des croyances des prescripteurs et des influences sociales qui favorisent le maintien du statu quo[38].

Une revue de littérature par Godefroid et al. (2022)[39] souligne que le biais du statu quo influence significativement les décisions médicales, particulièrement en limitant l'adoption de nouvelles pratiques cliniques. Les auteurs mettent en évidence la nécessité de développer des outils de mesure précis pour identifier et atténuer ce biais dans les processus décisionnels en santé.

Du biais du statu quo peuvent découler la pérennisation de pratiques obsolètes, la perte d’opportunités thérapeutiques et le retard dans l’intégration de l’innovation biomédicale.

3.3.3. Biais du faux consensus (false consensus bias)

[modifier | modifier le wikicode]

Le biais du faux consensus intervient lorsqu’un individu surestime le degré d’accord de ses pairs ou de ses patients avec ses propres croyances et comportements[40]. Dans le cadre médical, ce biais émerge notamment dans la prise de décision partagée, où les médecins projettent leurs propres préférences sur les patients sans vérifier leurs attentes réelles.

Par exemple, un médecin peut supposer qu’un patient préfère éviter une chirurgie invasive alors que ce dernier valorise en réalité la solution curative rapide. Elwyn et al. (2012)[41] insistent sur le fait que ce biais nuit à la qualité de la décision partagée en faussant l’évaluation des préférences. Dans une revue systématique, Saposnik et al. (2016)[22]montrent également que, dans les discussions entre pairs, les cliniciens tendent à croire à tort que leurs collègues adoptent les mêmes stratégies diagnostiques qu’eux, ce qui limite l’interdisciplinarité.

Par ailleurs, la recherche récente de ​​Choi et al. (2025)[42] a révélé que les modèles de langage de grande taille (LLMs) peuvent également manifester ce biais, ce qui souligne son omniprésence et son impact potentiel sur les décisions médicales assistées par l'IA.

Les conséquences du biais du faux consensus incluent des incompréhensions dans la relation médecin-patient, une standardisation artificielle des soins et des entraves à la communication et à la personnalisation des traitements.

3.3.4. Biais de feed-back (feedback bias)

[modifier | modifier le wikicode]

Le biais de feed-back fait référence à la tendance des professionnels à considérer leurs décisions comme optimales en l’absence de rétroaction précise ou à ignorer les retours d’information négatifs[43]. En médecine, ce biais est particulièrement problématique au sein des services dans lesquels le suivi post-consultation est limité. Par exemple, un urgentiste qui ne reçoit pas de mise au point sur l’évolution des patients qu’il a vus a peu de chances de corriger ses erreurs diagnostiques.

Schiff et al. (2017)[44]ont analysé 583 erreurs diagnostiques rapportées par des médecins, soulignant qu’un manque de feed-back constituait l’un des principaux facteurs contribuant à leur répétition.

Le biais de feed-back peut contribuer à la perpétuation d’erreurs cliniques, une moindre capacité d’apprentissage à partir de l’expérience et un excès de confiance injustifié dans les compétences personnelles.

3.4. Biais dans la recherche et la publication scientifique

[modifier | modifier le wikicode]

Au-delà des pratiques cliniques, les biais cognitifs affectent également la production, la sélection et la diffusion des connaissances médicales. Dès lors, ils influencent non seulement ce qui est publié, mais aussi ce qui est considéré comme valide, crédible ou pertinent dans les politiques de santé.

La recherche biomédicale et la publication scientifique sont soumises à des distorsions systémiques qui menacent la validité et la reproductibilité des résultats. Parmi les biais les plus préoccupants figurent le biais d’affinité, le biais de publication et le biais dit « Not-Invented-Here ». Comprendre ces mécanismes est essentiel pour améliorer l’intégrité scientifique, renforcer la confiance envers les données publiées et la justesse des pratiques qu’elle fonde.

3.4.1 Biais d’affinité (affinity bias)

[modifier | modifier le wikicode]

Le biais d’affinité concerne la propension à accorder davantage de crédit, d’attention ou de soutien aux personnes perçues comme similaires à soi en termes de valeurs, de formation ou de réseaux[45]. En recherche, il se manifeste notamment dans les processus de recrutement, d’évaluation de projets, ou d’attribution de financements.

Par exemple, un comité de relecture peut favoriser inconsciemment des articles rédigés par des chercheurs affiliés à des institutions prestigieuses ou connus personnellement, au détriment de travaux innovants provenant de groupes moins visibles. Ceci a été documenté dans des études de Van den Besselaar et Sandström (2016)[46] montrant l’impact des réseaux sociaux académiques sur l’évaluation par les pairs.

Les conséquences du biais d’affinité incluent une réduction de la diversité intellectuelle, une homogénéisation des approches méthodologiques et un frein à l’émergence de perspectives originales.

3.4.2. Biais de publication (publication bias)

[modifier | modifier le wikicode]

Le biais de publication désigne le fait de publier préférentiellement des résultats positifs, statistiquement significatifs ou conformes aux hypothèses de départ, au détriment des résultats négatifs ou nuls, selon une revue systématique menée par Dwan et al. (2013)[47]. Ce biais est particulièrement préoccupant en médecine, où il affecte directement les méta-analyses et les recommandations cliniques. Un exemple frappant est celui des essais cliniques d’antidépresseurs. En 2008, Turner et al.[48] ont montré que les études publiées surestimaient largement l’efficacité des antidépresseurs par rapport aux résultats réels observés lorsqu’on prenait en compte l’ensemble des données, y compris celles des essais non publiés. En 2022, une mise à jour incluant Turner et al.[49] dans le cadre d’une méta-analyse a démontré que, bien que le biais de publication ait diminué pour les antidépresseurs plus récents, il persiste toujours.

Les essais aux résultats positifs restent plus susceptibles d’être publiés que ceux aux résultats négatifs, ce qui gonfle artificiellement les estimations d’efficacité. Malgré des efforts d’enregistrement et de transparence, le biais de publication reste préoccupant. Les auteurs insistent sur la nécessité d’analyser à la fois les publications et les registres d’essais cliniques pour obtenir une vision fiable des effets thérapeutiques.

Le biais de publication a pour conséquence une distorsion de la littérature scientifique incluant des aménagements de résultats pouvant conduire à des prescriptions injustifiées, voire à des effets iatrogènes à large échelle et, à terme, une perte de confiance du public envers le domaine de la recherche.

3.4.3. Biais « Not-Invented-Here » (NIH bias)

[modifier | modifier le wikicode]

Le biais « Not-Invented-Here » (NIH) stipule une inclination à dévaloriser ou ignorer des idées, méthodes ou résultats développés en dehors de son propre groupe, institution ou discipline[50]. Dans le domaine de la santé, ce biais peut entraver l’usage de découvertes bénéfiques, simplement parce qu’elles proviennent d’autres professions ou organisations.

Une étude menée en Allemagne par Huynh et al. (2023)[51] a examiné l’adoption des innovations numériques en santé par les physiothérapeutes. Les résultats ont montré que les physiothérapeutes étaient plus enclins à adhérer aux trouvailles de leurs pairs plutôt qu’à celles élaborées par des médecins. Cette préférence souligne l’impact du biais Not-Invented-Here sur la diffusion des avancées scientifiques. Cependant, l’étude a également révélé que des facteurs tels que la qualité de la collaboration interprofessionnelle et le comportement proactif des physiothérapeutes pouvaient atténuer ce biais et favoriser l’adoption de découvertes externes.

Au-delà des dynamiques professionnelles, le biais NIH affecte aussi l’intégration des connaissances issues de contextes géographiques et économiques différents. Par exemple, des innovations en santé publique développées dans des pays à faibles ou moyens revenus telles que les stratégies communautaires de prévention, les protocoles de soins simplifiés ou les dispositifs médicaux à faible coût peinent souvent à être reconnues et adoptées dans les pays à hauts revenus, malgré des preuves solides de leur efficacité. Une revue de littérature menée par Ishimwe et al. (2023)[52] a mis en évidence que ce transfert d’innovation reste marginal et largement sous-exploité, illustrant parfaitement le biais NIH à l’échelle internationale.

Le biais NIH a pour conséquence une duplication inutile des efforts de recherche, une perte d’efficacité collective et un ralentissement de l’innovation médicale. Pour surmonter ces obstacles, il est essentiel de promouvoir une culture de collaboration interprofessionnelle et internationale, d’encourager l’ouverture aux idées développées en dehors de son propre groupe, et de valoriser les contributions issues des pays à ressources limitées.

  1. 1,0 et 1,1 Knaak, S., Mantler, E., & Szeto, A. (2017). Mental illness-related stigma in healthcare : Barriers to access and care and evidence-based solutions. Healthcare Management Forum, 30(2), 111‑116. https://doi.org/10.1177/0840470416679413
  2. 2,0 et 2,1 Cho, H. L. (2019). Can Intersectionality Help Lead to More Accurate Diagnosis? The American Journal of Bioethics, 19(2), 37‑39. https://doi.org/10.1080/15265161.2018.1557279
  3. Chen, E. H., F. S. Shofer, F. S., Dean, A. J., Hollander, J. E., Baxt, W. G., Robey, J. L., Sease, K. L., & Mills, A. M. (2008b). Gender Disparity in Analgesic Treatment of Emergency Department Patients with Acute Abdominal Pain. Academic Emergency Medicine, 15(5), 414‑418. https://doi.org/10.1111/j.1553-2712.2008.00100.x
  4. Hoffman, K. M., Trawalter, S., Axt, J. R., & Oliver, M. N. (2016). Racial bias in pain assessment and treatment recommendations, and false beliefs about biological differences between blacks and whites. Proceedings Of The National Academy Of Sciences, 113(16), 4296‑4301. https://doi.org/10.1073/pnas.1516047113
  5. 5,0 5,1 et 5,2 Jones, S., Howard, L., & Thornicroft, G. (2008). ‘Diagnostic overshadowing’ : Worse physical health care for people with mental illness. Acta Psychiatrica Scandinavica, 118(3), 169‑171. https://doi.org/10.1111/j.1600-0447.2008.01211.x
  6. Schopen, F. (2017, 27 novembre). The healthcare gender bias : do men get better medical treatment ? The Guardian. https://www.theguardian.com/lifeandstyle/2017/nov/20/healthcare-gender-bias-women-pain
  7. Samulowitz, A., Gremyr, I., Eriksson, E., & Hensing, G. (2018). "Brave Men" and "Emotional Women": A Theory-Guided Literature Review on Gender Bias in Health Care and Gendered Norms towards Patients with Chronic Pain. Pain research & management, 2018, 6358624. https://doi.org/10.1155/2018/6358624
  8. Duveau, C., Demoulin, S., Dauvrin, M., Lepièce, B., & Lorant, V. (2022). Implicit and explicit ethnic biases in multicultural primary care: the case of trainee general practitioners. BMC primary care, 23(1), 91. https://doi.org/10.1186/s12875-022-01698-8
  9. Dehon, E., Weiss, N., Jones, J., Faulconer, W., Hinton, E., & Sterling, S. A Systematic Review of the Impact of Physician Implicit Racial Bias on Clinical Decision Making. Academic emergency medicine : official journal of the Society for Academic Emergency Medicine, 24(8), 895–904. https://doi.org/10.1111/acem.13214
  10. Samulowitz, A., Gremyr, I., Eriksson, E., & Hensing, G. (2018). "Brave Men" and "Emotional Women": A Theory-Guided Literature Review on Gender Bias in Health Care and Gendered Norms towards Patients with Chronic Pain. Pain research & management, 2018, 6358624. https://doi.org/10.1155/2018/6358624
  11. Krieger, Nancy. (2003). Genders, sexes, and health: What are the connections - And why does it matter?. International journal of epidemiology. 32. 652-7. 10.1093/ije/dyg156. 
  12. Racine, M. (2012). A systematic literature review of 10 years of research on sex/gender and pain perception – Part 2: Do biopsychosocial factors alter pain sensitivity differently in women and men? Pain. https://doi.org/10.1016/J.PAIN.2011.11.026
  13. Fillingim, R. B., King, C. D., Ribeiro-Dasilva, M. C., Rahim-Williams, B., & Riley, J. L., 3rd (2009). Sex, gender, and pain: a review of recent clinical and experimental findings. The journal of pain, 10(5), 447–485. https://doi.org/10.1016/j.jpain.2008.12.001
  14. Greenspan, J. D., Craft, R. M., LeResche, L., Arendt-Nielsen, L., Berkley, K. J., Fillingim, R. B., Gold, M. S., Holdcroft, A., Lautenbacher, S., Mayer, E. A., Mogil, J. S., Murphy, A. Z., & Traub, R. J. Consensus Working Group of the Sex, Gender, and Pain SIG of the IASP (2007). Studying sex and gender differences in pain and analgesia: a consensus report. Pain, 132 Suppl 1(Suppl 1), S26–S45. https://doi.org/10.1016/j.pain.2007.10.014
  15. Forhan, M., &Salas, X. R. (2013). Inequities in Healthcare : A Review of Bias and Discrimination in Obesity Treatment. Canadian Journal of Diabetes, 37(3), 205‑209. https://doi.org/10.1016/j.jcjd.2013.03.362
  16. 16,0 et 16,1 Phelan, S. M., Burgess, D. J., Yeazel, M. W., Hellerstedt, W. L., Griffin, J. M., & Van Ryn, M. (2015). Impact of weight bias and stigma on quality of care and outcomes for patients with obesity. Obesity Reviews, 16(4), 319‑326. https://doi.org/10.1111/obr.12266
  17. Bertakis, K. D., & Azari, R. (2005). The Impact of Obesity on Primary Care Visits. Obesity Research, 13(9), 1615‑1623. https://doi.org/10.1038/oby.2005.198
  18. Latner, J. D., Barile, J. P., Durso, L. E., & O’Brien, K. S. (2014). Weight and health-related quality of life : The moderating role of weight discrimination and internalized weight bias. Eating Behaviors, 15(4), 586‑590. https://doi.org/10.1016/j.eatbeh.2014.08.014
  19. 19,0 et 19,1 Sinning, C., & Aržanauskaitė, M. (2021). Breaking the silence on bias : The expectations of being a physician. European Heart Journal - Case Reports, 5(8), ytab256. https://doi.org/10.1093/ehjcr/ytab256
  20. 20,0 20,1 20,2 et 20,3 Jacques, E., & Jacques, J.-M. (2020, octobre). L'erreur de diagnostic en médecine d'urgence - son incidence et ses causes. Revue de Médecine d'Urgence.
  21. 21,0 21,1 21,2 21,3 21,4 21,5 et 21,6 Gopal, D. P., Chetty, U., O'Donnell, P., Gajria, C., & Blackadder-Weinstein, J. (2021). Implicit bias in healthcare: clinical practice, research and decision making. Future healthcare journal, 8(1), 40–48. https://doi.org/10.7861/fhj.2020-0233
  22. 22,0 22,1 et 22,2 Saposnik G., Redelmeier D., Ruff C.C., & Tobler P.N. Cognitive biases associated with medical decisions: a systematic review. BMC medical informatics and decision making, 16(1), 138. https://doi.org/10.1186/s12911-016-0377-1
  23. Hammond, M. E. H., Stehlik, J., Drakos, S. G., & Kfoury, A. G. (2021). Bias in Medicine: Lessons Learned and Mitigation Strategies. JACC. Basic to translational science, 6(1), 78–85. https://doi.org/10.1016/j.jacbts.2020.07.012
  24. 24,0 et 24,1 Ramnath, V. R., McSharry, D. G., & Malhotra, A. (2020). Do No Harm: Reaffirming the Value of Evidence and Equipoise While Minimizing Cognitive Bias in the Coronavirus Disease 2019 Era. Chest, 158(3), 873–876. https://doi.org/10.1016/j.chest.2020.05.548
  25. Mamede, S., Van Gog, T., Van Den Berge, K., Rikers, R. M. J. P., Van Saase, J. L. C. M., Van Guldener, C., & Schmidt, H. G. (2010). Effect of Availability Bias and Reflective Reasoning on Diagnostic Accuracy Among Internal Medicine Residents. JAMA, 304(11), 1198. https://doi.org/10.1001/jama.2010.1276
  26. Croskerry P. (2002). Achieving quality in clinical decision making: cognitive strategies and detection of bias. Academic emergency medicine : official journal of the Society for Academic Emergency Medicine, 9(11), 1184–1204. https://doi.org/10.1111/j.1553-2712.2002.tb01574.x
  27. McSherry, D. (1997). Avoiding premature closure in sequential diagnosis. Artificial Intelligence in Medicine, 10(3), 269‑283. https://doi.org/10.1016/S0933-3657(97)00396-5
  28. Ludolph, R., & Schulz, P. J. (2018). Debiasing Health-Related Judgments and Decision Making: A Systematic Review. Medical decision making : an international journal of the Society for Medical Decision Making, 38(1), 3–13. https://doi.org/10.1177/0272989X17716672
  29. Croskerry, P., & Norman, G. Overconfidence in Clinical Decision Making. The American Journal Of Medicine, 121(5), S24‑S29. https://doi.org/10.1016/j.amjmed.2008.02.001
  30. Kovic, M., & Kristiansen, S. (2019). The gambler’s fallacy fallacy (fallacy). Journal of Risk Research, 22(3), 291‑302. https://doi.org/10.1080/13669877.2017.1378248
  31. Bornstein, B. H., & Emler, A. C. (2001). Rationality in medical decision making : A review of the literature on doctors’ decision‐making biases. Journal of Evaluation in Clinical Practice, 7(2), 97‑107. https://doi.org/10.1046/j.1365-2753.2001.00284.x
  32. Dawson N.V., Arkes H.R., Siciliano C., Blinkhorn R., Lakshmanan M., & Petrelli M. (1988) Hindsight bias: an impediment to accurate probability estimation in clinicopathologic conferences. Medical Decision Making 8, 259–264.
  33. Van Nieuwenhuizen, A., Henderson, C., Kassam, A., Graham, T., Murray, J., Howard, L. M., & Thornicroft, G. (2013). Emergency department staff views and experiences on diagnostic overshadowing related to people with mental illness. Epidemiology and Psychiatric Sciences, 22(3), 255‑262. https://doi.org/10.1017/S2045796012000571
  34. Tversky, A., & Kahneman, D. (1981). The Framing of Decisions and the Psychology of Choice. Science, 211(4481), 453‑458. https://doi.org/10.1126/science.7455683
  35. Akl, E. A., Oxman, A. D., Herrin, J., Vist, G. E., Terrenato, I., Sperati, F., Costiniuk, C., Blank, D., & Schünemann, H. Using alternative statistical formats for presenting risks and risk reductions. Cochrane Library. https://doi.org/10.1002/14651858.cd006776.pub2
  36. Wolfe, C. (2025), Framing Biases in Plea Bargaining Decisions : Insights From the Psychology of Medical Decision Making. Journal Of Behavioral Decision Making, 38(2). https://doi.org/10.1002/bdm.70018
  37. Samuelson, W., & Zeckhauser, R. (1988). Status Quo Bias in Decision Making. Journal of Risk and Uncertainty, 1(1), 7–59. https://doi.org/10.1007/BF00055564
  38. Evrard, P., Pétein, C., Beuscart, J., & Spinewine, A. (2022). Barriers and enablers for deprescribing benzodiazepine receptor agonists in older adults : a systematic review of qualitative and quantitative studies using the theoretical domains framework. Implementation Science, 17(1). https://doi.org/10.1186/s13012-022-01206-7
  39. Godefroid, M., Plattfaut, R., & Niehaves, B. (2022). How to measure the status quo bias ? A review of current literature. Management Review Quarterly, 73(4), 1667‑1711. https://doi.org/10.1007/s11301-022-00283-8.
  40. Ross, L., Greene, D., & House, P. (1977). The “false consensus effect” : An egocentric bias in social perception and attribution processes. Journal of Experimental Social Psychology, 13(3), 279‑301. https://doi.org/10.1016/0022-1031(77)90049-X
  41. Elwyn, G., Frosch, D., Thomson, R., Joseph-Williams, N., Lloyd, A., Kinnersley, P., Cording, E., Tomson, D., Dodd, C., Rollnick, S., Edwards, A., & Barry, M. Shared decision making: a model for clinical practice. Journal of general internal medicine, 27(10), 1361–1367. https://doi.org/10.1007/s11606-012-2077-6
  42. Choi, J., Hong, Y., & Kim, B. (2024). People will agree what I think : Investigating LLM’s False Consensus  Effect. arXiv (Cornell University). https://doi.org/10.48550/arxiv.2407.12007
  43. Arkes, H. R., & Armstrong, J. S. (2001). Overconfidence in Judgmental Forecasting. In Principles of Forecasting (pp. 495–515). Springer US. https://doi.org/10.1007/978-0-306-47630-3_22
  44. Schiff, G. D., Hasan, O., Kim, S., Abrams, R., Cosby, K., Lambert, B. L., Elstein, A. S., Hasler, S., Kabongo, M. L., Krosnjar, N., Odwazny, R., Wisniewski, M. F., & McNutt, R. A. (2009). Diagnostic error in medicine: analysis of 583 physician-reported errors. Archives of internal medicine, 169(20), 1881–1887. https://doi.org/10.1001/archinternmed.2009.333
  45. Greenwald, A. G., & Banaji, M. R. (1995). Implicit social cognition: Attitudes, self-esteem, and stereotypes. Psychological Review, 102(1), 4–27. https://doi.org/10.1037/0033-295X.102.1.4
  46. Van den Besselaar, P., & Sandström, U. (2016). Gender differences in research performance and its impact on careers: a longitudinal case study. Scientometrics, 106(1), 143. https://doi.org/10.1007/s11192-015-1775-3
  47. Dwan, K., Gamble, C., Williamson, P. R., & Kirkham, J. J. (2013) Systematic Review of the Empirical Evidence of Study Publication Bias and Outcome Reporting Bias — An Updated Review. PLOS ONE 8(7): e66844. https://doi.org/10.1371/journal.pone.0066844
  48. Turner, E. H., Matthews, A. M., Linardatos, E., Tell, R. A., & Rosenthal, R. (2008). Selective Publication of Antidepressant Trials and Its Influence on Apparent Efficacy. New England Journal of Medicine, 358(3), 252‑260. https://doi.org/10.1056/NEJMsa065779
  49. Turner, E. H., Cipriani, A., Furukawa, T. A., Salanti, G., & de Vries, Y. A. (2022) Selective publication of antidepressant trials and its influence on apparent efficacy: Updated comparisons and meta-analyses of newer versus older trials. PLoS Med 19(1): e1003886. https://doi.org/10.1371/journal.pmed.1003886
  50. Katz, R., & Allen, T.J. (1982), Investigating the Not Invented Here (NIH) syndrome: A look at the performance, tenure, and communication patterns of 50 R & D Project Groups. R&D Management, 12: 7-20. https://doi.org/10.1111/j.1467-9310.1982.tb00478.x
  51. Huynh, T., Kroh, J., & Schultz, C. (2023). Overcoming the not-invented-here syndrome in healthcare: The case of German ambulatory physiotherapists' adoption of digital health innovations. PloS one, 18(12), e0293550. https://doi.org/10.1371/journal.pone.0293550
  52. Ishimwe, M. C. S., Kiplagat, J., Kadam Knowlton, A., Livinski, A. A., & Kupfer, L. E. (2023). Reversing the trend: a scoping review of health innovation transfer or exchange from low- and middle-income countries to high-income countries. BMJ global health, 8(Suppl 7), e013583. https://doi.org/10.1136/bmjgh-2023-013583