Introduction
Les services des urgences hospitalières font actuellement face à un problème croissant de surpopulation, souvent opérant à pleine capacité ou à proximité de celle-ci. Cette situation impacte divers aspects tels que la sécurité des patients, la confidentialité, la vie privée et la qualité de vie au travail du personnel. Divers facteurs intrinsèques influent sur le fonctionnement, comprenant la disposition du service, les niveaux de dotation en personnel, les temps d'attente et les délais dans les décisions. Les facteurs extrinsèques englobent des aspects tels que le retard lors de la sortie, le manque de disponibilité de lits d'hospitalisation et les pics de demande de patients.
Malgré les avantages potentiels que pourrait apporter l'intégration de l'IA dans les services d'urgence, cette avancée soulève des questions éthiques et juridiques. Des inquiétudes subsistent quant à la préservation de la vie privée des patients, nécessitant la mise en place de mesures robustes pour garantir la protection des informations de santé sensibles traitées par ces systèmes d'IA. Une question centrale se pose également quant à l'impact des biais potentiellement présents dans les données et les algorithmes d'IA sur la perpétuation des inégalités sociodémographiques dans les soins aux patients.
Méthodologie
Les données issues des différentes étapes du passage par le service des urgences sont susceptibles d'être utilisées pour entraîner des modèles d'IA, créés dans le but d'optimiser les services des urgences. Nous avons réalisé une revue de la littérature afin d'identifier des potentielles sources de biais dans les données dans les différentes étapes du processus de passage par le service des urgences. Notamment, les données liées au triage ou aux temps d'attente peuvent être contaminées par des biais. Nous apportons une réflexion sur les mécanismes et les conséquences. Pour une application responsable des modèles d'IA dans la pratique des urgences, les décideurs doivent faire preuve de vigilance, de prudence et prendre des mesures préventives.
Originalité / perspective
Un changement de paradigme consisterait à utiliser ces modèles d'IA précisément pour détecter objectivement les biais. En effet, des ajustements de paramètres des modèles devraient nous permettre de détecter des différences de résultats basées sur des caractéristiques sociodémographiques qui ne peuvent être expliquées médicalement. Nous proposons ainsi d'explorer l'utilisation de ces modèles pour surveiller les biais qui pourraient conduire à des inégalités de santé aux urgences
Références
- Adam, H.; Balagopalan, A.; Alsentzer, E.; Fotini, C.; and Ghassemi, M. 2022. Mitigating the impact of biased artificial intelligence in emergency decision making. Communications Medicine, 2(1).
- Banco, D.; Chang, J.; Talmor, N.; Wadhera, P.; Mukhopadhyay, A.; and Lu, X. 2022. Sex and Race Differences in the Evaluation and Treatment of Young Adults Presenting to the Emergency Department With Chest Pain. J Am Heart Assoc., 11(10)
- Buslon, N.; Cortes, A.; Catuara-Solarz, S.; and Cirillo, R. M., D. 2023. Raising awareness of sex and gender bias in artificial intelligence and health. Front Glob Womens Health, 4: 970312
- Chenais, G.; Lagarde, E.; and Gil-Jardine, C. 2023. Artificial Intelligence in Emergency Medicine: Viewpoint of Current Applications and Foreseeable Opportunities and Challenges. Med Internet Res., e40031
- Ghazaryan, N.; and Autry, A. 2023. Gender Bias in the Emergency Department. Emerg Med J., 40(4): 240â24