banner
Maison / Blog / Analyse du teint de la peau pour la représentation dans les supports pédagogiques (STAR
Blog

Analyse du teint de la peau pour la représentation dans les supports pédagogiques (STAR

Aug 03, 2023Aug 03, 2023

npj Digital Medicine volume 6, Numéro d'article : 151 (2023) Citer cet article

640 accès

26 Altmétrique

Détails des métriques

Les images représentant des peaux foncées sont considérablement sous-représentées dans le matériel pédagogique utilisé pour apprendre aux médecins de premier recours et aux dermatologues à reconnaître les maladies de la peau. Cela pourrait contribuer aux disparités dans le diagnostic des maladies de la peau selon les différents groupes raciaux. Auparavant, les experts du domaine évaluaient manuellement les manuels pour estimer la diversité des images de peau. L'évaluation manuelle ne s'adapte pas à de nombreux supports pédagogiques et introduit des erreurs humaines. Pour automatiser ce processus, nous présentons le cadre Skin Tone Analysis for Representation in EDucational materials (STAR-ED), qui évalue la représentation du teint dans les supports de formation médicale à l’aide de l’apprentissage automatique. Étant donné un document (par exemple, un manuel au format .pdf), STAR-ED applique une analyse de contenu pour extraire du texte, des images et des entités de tableau dans un format structuré. Ensuite, il identifie les images contenant de la peau, segmente les parties de ces images contenant de la peau et estime le teint à l'aide de l'apprentissage automatique. STAR-ED a été développé à l'aide de l'ensemble de données Fitzpatrick17k. Nous avons ensuite testé STAR-ED en externe sur quatre manuels médicaux couramment utilisés. Les résultats montrent de bonnes performances dans la détection des images cutanées (0,96 ± 0,02 AUROC et 0,90 ± 0,06 score F1) et la classification des tons chair (0,87 ± 0,01 AUROC et 0,91 ± 0,00 score F1). STAR-ED quantifie la représentation déséquilibrée des tons chair dans quatre manuels médicaux : les images des tons chair bruns et noirs (Fitzpatrick V-VI) ne constituent que 10,5 % de toutes les images cutanées. Nous envisageons cette technologie comme un outil permettant aux enseignants en médecine, aux éditeurs et aux praticiens d'évaluer la diversité des tons de peau dans leurs supports pédagogiques.

Les manuels de médecine, les notes de cours et les articles publiés utilisés dans les programmes des principales écoles de médecine ne représentent pas de manière adéquate les tons chair dans les images utilisées pour démontrer les manifestations des maladies cutanées1,2,3. Par exemple, une évaluation manuelle récente de manuels médicaux couramment utilisés a révélé une sous-représentation significative des tons chair Fitzpatrick (FST) V et VI, qui représentent les tons chair bruns et noirs1,2. La pandémie de COVID-19 a encore mis en évidence cette iniquité : l’annotation manuelle des photos publiées des manifestations cutanées du COVID-19 a révélé une sous-représentation des images représentant une peau foncée4.

Étant donné que les maladies de la peau apparaissent différemment selon les carnations, du matériel pédagogique décrivant diverses carnations est nécessaire pour un personnel de santé bien formé1,2,3,4,5. Louie et Wilkes suggèrent que les inégalités raciales en matière de soins de santé (accessibilité, prestation et qualité) sont influencées par le manque de représentation diversifiée dans les supports pédagogiques1. Par exemple, les diagnostics de cancer de la peau (par exemple, mélanome, carcinome épidermoïde) sont considérablement retardés chez les patients de couleur, entraînant une morbidité et une mortalité accrues6.

Une analyse antérieure de documents universitaires liés à la dermatologie (revues et manuels) a montré une sous-représentation des FST V et VI ; cependant, les images ont été annotées et analysées manuellement, c'est-à-dire qu'un expert du domaine a localisé chaque image dans un manuel/journal et a étiqueté le teint. Malheureusement, cette approche manuelle n’est pas réalisable pour un grand corpus en raison de sa nature laborieuse, de la fatigue visuelle de l’opérateur et de l’erreur intra-inter-observateur d’étiquetage du teint1,2,4. L'évaluation automatique de la représentation du teint à l'aide de l'apprentissage automatique (ML) promet d'aider de manière significative à identifier les biais dans les supports pédagogiques médicaux et n'a jamais été réalisée auparavant sur des supports pédagogiques.

Les approches basées sur l'apprentissage automatique pour l'analyse du teint en dermatologie n'étaient auparavant appliquées qu'à des ensembles de données sélectionnés (par exemple, ISIC 20187 et SD-1988), mais pas aux documents universitaires du monde réel. Une approche précédente utilisait l'angle de typologie individuelle (ITA) calculé à partir des valeurs d'intensité des pixels9,10,11 ; les valeurs ITA ont ensuite été mappées sur FST12. Cependant, auparavant, un modèle d'apprentissage automatique formé pour classer le FST directement à partir d'images cutanées fonctionnait mieux dans la catégorisation du FST que l'estimation basée sur l'ITA avec conversion en FST13. Les méthodes basées sur l'ITA dépendent des valeurs brutes des pixels, ce qui les rend plus sensibles aux conditions d'éclairage. Ces modèles précédents ont identifié que les ensembles de données d’images cutanées utilisées pour développer des modèles d’apprentissage automatique en dermatologie sous-représentaient considérablement les tons de peau foncés.

0.9 AUROC) is achieved between the classifiers across the four textbooks confirming the robustness of the framework. Specifically, XGB classifier results in an average AUROC of 0.96 ± 0.02 and F1 score of 0.90 ± 0.06 F1 across the textbooks. To summarize, skin image detection could be done satisfactorily using traditional machine learning classifiers (without sophisticated deep networks). XGB was used for the final STAR-ED pipeline due to its slightly better performance, particularly in its AUROC, which, unlike accuracy, is independent of single prediction thresholds./p>