jbobym commited on
Commit
ef9a6a8
·
verified ·
1 Parent(s): 3366a1b

Add author byline (John Boby Mesadieu, uOttawa) + trim methodology to essentials

Browse files
Files changed (1) hide show
  1. app.py +26 -25
app.py CHANGED
@@ -50,8 +50,14 @@ LOW_CONFIDENCE_THRESHOLD = 0.5
50
  # ---------- Localized strings ---------------------------------------------------
51
 
52
  TITLE: dict[str, str] = {
53
- "en": "# Chronic Wound Classifier — 4-class AZH demo",
54
- "fr": "# Classification des plaies chroniques démo AZH 4 classes",
 
 
 
 
 
 
55
  }
56
 
57
  DESCRIPTION: dict[str, str] = {
@@ -104,37 +110,32 @@ validation croisée à 10 plis groupés par patient ; le point de contrôle dép
104
 
105
  ARTICLE: dict[str, str] = {
106
  "en": """\
107
- **Methodology in one paragraph.** EfficientNet-B0 (ImageNet-pretrained) two-phase fine-tuning:
108
- phase 1 freezes the backbone and trains the 4-class head for 5 epochs at lr=1e-3; phase 2 unfreezes
109
- and fine-tunes the full network for 15 epochs at lr=1e-4. Patient-grouped 10-fold CV ensures the same
110
- patient's images never appear in both train and val. Training and validation under random-stratified
111
- splits would inflate accuracy by ~3–30pp on AZH (we measured this directly); we report the patient-
112
- grouped numbers as the honest evaluation. The shipped checkpoint is the highest single fold on the
113
- held-out Test set; a 10-fold soft-vote ensemble averages 0.7989 on the same set.
114
 
115
  **Out of scope.** Not for clinical decision-making. No claim of diagnostic accuracy on real patient
116
- cohorts. No fairness audit across skin tones (known gap). No mobile / offline build.
 
 
117
 
118
- **Citation.** Anisuzzaman et al. 2022, *Multi-modal wound classification using wound image and
119
- location by deep neural network*, Sci. Rep. 12:20057.
120
  """,
121
  "fr": """\
122
- **Méthodologie en un paragraphe.** EfficientNet-B0 (préentraîné sur ImageNet), affinement en deux
123
- phases : la phase 1 gèle le tronc et entraîne la tête à 4 classes pendant 5 époques (lr=1e-3) ; la
124
- phase 2 dégèle et affine le réseau complet pendant 15 époques (lr=1e-4). La validation croisée à
125
- 10 plis groupés par patient garantit que les images d'un même patient n'apparaissent jamais à la
126
- fois en entraînement et en validation. Les découpes aléatoires stratifiées (sans regroupement par
127
- patient) gonflent l'exactitude de ~3 à 30 pp sur AZH (mesuré directement) ; nous rapportons les
128
- chiffres groupés par patient comme évaluation honnête. Le point de contrôle déployé est la meilleure
129
- fold individuelle sur le jeu de test retenu ; un ensemble par vote doux à 10 plis atteint en moyenne
130
- 0,7989 sur ce même jeu.
131
 
132
  **Hors champ.** Aucun usage de décision clinique. Aucune prétention à une exactitude diagnostique
133
- sur de vraies cohortes de patients. Aucun audit d'équité par teinte de peau (limite connue). Aucune
134
- version mobile ou hors ligne.
 
 
135
 
136
- **Référence.** Anisuzzaman et coll. 2022, *Multi-modal wound classification using wound image and
137
- location by deep neural network*, Sci. Rep. 12:20057.
138
  """,
139
  }
140
 
 
50
  # ---------- Localized strings ---------------------------------------------------
51
 
52
  TITLE: dict[str, str] = {
53
+ "en": (
54
+ "# Chronic Wound Classifier4-class AZH demo\n"
55
+ "*Developed, trained, and deployed by **John Boby Mesadieu** — Université d'Ottawa.*"
56
+ ),
57
+ "fr": (
58
+ "# Classification des plaies chroniques — démo AZH 4 classes\n"
59
+ "*Conçu, entraîné et déployé par **John Boby Mesadieu** — Université d'Ottawa.*"
60
+ ),
61
  }
62
 
63
  DESCRIPTION: dict[str, str] = {
 
110
 
111
  ARTICLE: dict[str, str] = {
112
  "en": """\
113
+ **Approach.** EfficientNet-B0 transfer learning with patient-grouped 10-fold cross-validation on the
114
+ public AZH Chronic Wound Database. The shipped checkpoint reaches 0.8152 top-1 on the held-out test
115
+ set (n=184); the best 10-fold ensemble of the same recipe averages 0.7989.
 
 
 
 
116
 
117
  **Out of scope.** Not for clinical decision-making. No claim of diagnostic accuracy on real patient
118
+ cohorts. No fairness audit across skin tones. No mobile or offline build.
119
+
120
+ **Author.** Developed, trained, and deployed by **John Boby Mesadieu** — Université d'Ottawa.
121
 
122
+ **Dataset citation.** Anisuzzaman et al. 2022, *Multi-modal wound classification using wound image
123
+ and location by deep neural network*, Sci. Rep. 12:20057.
124
  """,
125
  "fr": """\
126
+ **Approche.** Apprentissage par transfert avec EfficientNet-B0 et validation croisée à 10 plis
127
+ groupés par patient sur la base de données publique AZH Chronic Wound Database. Le point de contrôle
128
+ déployé atteint 0,8152 top-1 sur le jeu de test retenu (n=184) ; le meilleur ensemble à 10 plis de
129
+ la même recette atteint en moyenne 0,7989.
 
 
 
 
 
130
 
131
  **Hors champ.** Aucun usage de décision clinique. Aucune prétention à une exactitude diagnostique
132
+ sur de vraies cohortes de patients. Aucun audit d'équité par teinte de peau. Aucune version mobile
133
+ ou hors ligne.
134
+
135
+ **Auteur.** Conçu, entraîné et déployé par **John Boby Mesadieu** — Université d'Ottawa.
136
 
137
+ **Référence du jeu de données.** Anisuzzaman et coll. 2022, *Multi-modal wound classification using
138
+ wound image and location by deep neural network*, Sci. Rep. 12:20057.
139
  """,
140
  }
141