The Healthcare Divide – 2e épisode

The Digital Therapist

Description

L’intelligence artificielle modifie rapidement le secteur des soins de santé. Bien qu’elle crée de nouvelles possibilités de traitement, les façons dont l’IA perpétue et amplifie les préjugés suscitent des préoccupations constantes. Nous explorons les promesses et les dangers de cette technologie émergente dans le domaine de la santé mentale avec les créateurs de l’application Mind-Easy et un chercheur en santé numérique.

Invités

Dalia Ahmed et Akanksha Shelat, deux des cofondatrices de l’application Mind-Easy.

Nelson Shen, scientifique de projet à l’Unité des innovations numériques du Centre des interventions complexes de CAMH.

Transcription

The Healthcare Divide, traduction de la transcription du balado

2e épisode

Dr Alika Lafontaine Avant de commencer, j’aimerais vous informer que nous parlons de santé mentale et de suicide dans cet épisode. Si vous traversez une crise de santé mentale ou si vous avez simplement besoin de parler à quelqu’un, nous vous encourageons à consulter le site parlonssuicide.ca. Nous inclurons d’autres ressources dans les notes de l’émission.

Akanksha Shelat Il existe déjà une pénurie évidente de thérapeutes et de cliniciens dans le monde. Et ce nombre diminue considérablement lorsque l’on parle de cliniciens compétents sur le plan culturel.

Dr Alika Lafontaine Le système de santé canadien devrait offrir un accès égal à tous. Mais en réalité, il s’agit d’un système de nantis et de démunis. Je m’adresse aux personnes qui ont vécu ces inégalités de première main et à celles qui s’efforcent de les faire évoluer.

Dalia Ahmed Il y a des lacunes dans la façon dont nous utilisons l’IA et le domaine doit encore se développer pour que nous ayons le sentiment qu’il s’agit d’un outil que nous pouvons utiliser tout le temps de différentes façons. Mais le fait de savoir qu’il s’agit d’un outil qui peut nous aider aujourd’hui est la meilleure façon de voir les choses.

Dr Alika Lafontaine Les soins de santé font actuellement l’objet d’un débat important sur la façon dont l’intelligence artificielle pourrait modifier presque tous les aspects de la prestation des services de santé. Dans cet épisode, nous parlerons de ce que l’introduction de l’IA signifie pour le domaine de la santé mentale et de la façon dont elle pourrait amplifier les inégalités existantes si nous n’y prenons pas garde. Je suis le Dr Alika Lafontaine, anesthésiste et premier médecin autochtone à avoir dirigé l’Association médicale canadienne. De la Fondation canadienne des relations raciales… voici The Healthcare Divide.

Maya IA Bonjour ! Bienvenue sur Mind-Easy.

Dr Alika Lafontaine Alors, vous voulez parler à Maya ?

Hailey Choi Oui. Voulez-vous cliquer sur le bouton de démarrage ?

Dr Alika Lafontaine Bien sûr, je vais cliquer sur démarrer ici. Voyons ce que Maya a à dire.

Maya IA Faisons le point chaque jour. Il n’y a pas de bonne ou de mauvaise réponse. Je suis là pour vous aider… [fondu sonore]

Dr Alika Lafontaine Maya est le nom d’un avatar dans une application de bien-être appelée Mind-Easy. Avec ma productrice Hailey, nous avons testé l’application.

Maya IA Comment vous sentez-vous aujourd’hui ?

Dr Alika Lafontaine On me propose différentes options. Triste, stressé. Heureux. Calme. En colère. Oui, je me sens plutôt calme aujourd’hui, alors je vais cliquer sur le bouton «calme». Nous verrons bien où cela me mènera.

Maya IA Se sentir calme et être dans un état de relaxation ne sont pas toujours les émotions les plus faciles à atteindre. Il est donc agréable de prendre le temps d’apprécier pleinement cette sensation. Voyons ce que l’on ressent… [fermeture en fondu]

Dr Alika Lafontaine Bien que sa voix ait une qualité robotique et algorithmique, la vidéo semble humaine. Maya est une femme noire, habillée en tailleur, debout devant un arrière-plan simple. Elle n’est qu’un des nombreux avatars de cette application. Si vous passez à une leçon en arabe, par exemple, l’avatar change. Sa couleur de peau et ses manières ont changé.

Avatar arabe [parlant arabe]

Dr Alika Lafontaine Les avatars donnent des leçons sur des sujets tels que «Tenir tête à votre critique intérieur», «Faire face à une fausse couche» et «Défier la procrastination». Je clique sur ce dernier.

Maya IA Avez-vous peur de l’échec ? Essayez-vous d’être parfait ? Une fois que vous avez identifié la cause première, vous pouvez commencer à travailler pour la surmonter. N’oubliez pas que vous n’êtes pas paresseux. Vous êtes simplement humain. Nous avons tous des moments de procrastination… [disparition]

Dr Alika Lafontaine C’est une très bonne affirmation, en fait.

Maya IA L’essentiel est de ne pas laisser cette question prendre le dessus sur votre vie.

Dr Alika Lafontaine Rappelez-vous que vous n’êtes pas paresseux. Vous êtes simplement humain.

Hailey Choi Hmm. Y a-t-il quelque chose que vous avez remis à plus tard récemment ?

Dr Alika Lafontaine Vous savez, il y a toute une série de tâches que j’ai remises à plus tard récemment. J’ai l’habitude de nettoyer le garage au début de l’été. Cela fait environ quatre semaines.

Dr Alika Lafontaine Nous avons enregistré cet extrait pendant l’été. Je n’ai toujours pas nettoyé mon garage.

Dr Alika Lafontaine Je vais cliquer sur terminer. Oh, et je viens de commencer ma séquence d’un jour.

Dr Alika Lafontaine La raison pour laquelle nous essayons cette application est pour explorer la question de savoir comment l’intelligence artificielle change le domaine de la santé mentale. L’une des préoccupations de longue date à l’égard de l’intelligence artificielle est qu’elle amplifie les préjugés à l’encontre des personnes marginalisées.

[extrait sonore] Députée Pat Kelly Que se passe-t-il lorsque l’intelligence artificielle se dérègle ?

[extrait sonore] Députée Michelle Rempel Garner Un homme se serait suicidé après avoir interagi avec un chatbot d’IA.

[extrait sonore] Professeur Woodrow Hartzog Les systèmes d’intelligence artificielle sont notoirement biaisés en fonction de la race, de la classe sociale, du sexe et des aptitudes.

Dr Alika Lafontaine Les algorithmes ne valent que ce que valent les données sur lesquelles vous les entraînez. Et des études ont prouvé à maintes reprises que la recherche médicale n’est pas à la hauteur lorsqu’il s’agit de représenter les communautés marginalisées.

[extrait sonore] Sénateur Josh Hawley Je pense que ce que nous apprenons sur les potentialités de l’IA est exaltant.

[extrait sonore] Député Ryan Williams L’IA est déjà à l’œuvre dans le domaine des diagnostics médicaux. Elle aide les médecins à détecter des maladies comme le cancer, ce qui permet une découverte plus précoce et de meilleurs résultats thérapeutiques.

[extrait sonore] Député Mark Gerretsen L’IA va transformer pratiquement tous les aspects de notre vie…

Dr Alika Lafontaine D’autre part, l’IA est utilisée pour créer un nouvel accès aux soins dans un domaine où les ressources humaines ne peuvent pas répondre à la demande. C’est là que les fondatrices de Mind Easy ont pensé qu’elles pouvaient faire la différence. J’ai rencontré deux des cofondatrices de Mind Easy, Dalia Ahmed et Akanksha Shelat, pour parler de leur application et du rôle croissant de la technologie dans le domaine de la santé mentale.

Dalia Ahmed Je m’appelle Dalia. Je suis la cofondatrice et la responsable clinique de Mind Easy. J’ai une formation clinique, je suis donc psychothérapeute diplômée et qualifiée.

Akanksha Shelat Je m’appelle Akanksha Shelat. Je suis une des trois cofondatrices de Mind Easy, ainsi que la directrice technique. J’ai deux diplômes en informatique et en sciences cognitives de l’Université de Toronto, je suis donc une développeuse full stack.

Dr Alika Lafontaine Avec Alexandra Assouad, Dalia et Akanksha ont développé Mind Easy pour remédier à la faible disponibilité des services de santé mentale et au manque de soins de santé mentale personnalisés et culturellement adaptés.

Akanksha Shelat Les deux domaines sur lesquels nous nous concentrons sont, d’une part, la compréhension du fait qu’il n’y a pas assez de capital humain dans le monde pour cibler tous les groupes démographiques et toutes les identités sur lesquels nous voulons nous concentrer. D’autre part, dans le secteur actuel de la santé mentale et dans la façon dont la plupart des gens le comprennent, il s’agit essentiellement de savoir si l’on suit une thérapie ou si l’on n’en suit pas. Il n’y a pas d’entre-deux. C’est pourquoi nous utilisons des avatars numériques qui vous ressemblent, qui parlent comme vous, qui sonnent comme vous !

Dr Alika Lafontaine L’idée est que l’avatar peut aider les utilisateurs à se sentir à l’aise, ce qu’ils n’obtiendraient peut-être pas avec un thérapeute qui ne partage pas leurs origines culturelles.

Akanksha Shelat Vous savez, tous les cliniciens qu’ils rencontrent, ils ont l’air différents d’eux et ils doivent passer par tout ce processus de, je suis déjà en train de gérer le stress et maintenant c’est encore à moi de vous éduquer et de comprendre ce que je traverse. Nous éliminons donc tout cela et nous fournissons toutes nos ressources par l’intermédiaire d’avatars à l’apparence humaine.

Dr Alika Lafontaine Les fondatrices de Mind Easy étaient tous des étudiantes de l’étranger vivant au Canada, ce qui a influencé leur approche pour l’application.

Akanksha Shelat Je suis originaire d’Inde et j’ai été élevée au Moyen-Orient. Dalia est originaire du Yémen et a grandi au Moyen-Orient. Notre troisième cofondatrice, Alexandra, est originaire du Liban. Alors que nous faisions face à la pandémie ensemble, je pense que nous avions toutes le sentiment de reconnaître que, dans ce domaine, il n’y avait pas autant d’informations et de ressources destinées spécifiquement aux groupes minoritaires. On entend beaucoup de gens suivre des thérapies. On entend beaucoup de gens, vous savez, qui essaient vraiment de trouver le bon clinicien. Mais personne n’aborde vraiment la question de savoir si les gens sont différents et si les gens des différentes parties du monde vivent ces facteurs de stress différemment.

Dr Alika Lafontaine D’une certaine manière, il s’agissait d’une initiative très personnelle.

Dalia Ahmed Vous savez, je suis originaire du Yémen. Il y a la guerre au Yémen. C’est un peu comme être capable de digérer tout cela. Il y a des thérapeutes qui connaissent très bien le sujet. Ils vivent à Detroit. J’ai vécu à Toronto, par exemple, et je n’ai pas pu accéder à cette thérapie. Je n’ai pas pu obtenir cette validation, cette reconnaissance ou ces interventions spécifiques potentielles qui pourraient parler à mon identité. C’était trop loin. Il y avait toutes ces barrières en place.

Dr Alika Lafontaine Un rapport de 2019 de la Commission de la santé mentale du Canada affirme que les immigrants, les réfugiés, les populations ethnoculturelles et racialisées sont moins enclins à chercher un traitement de santé mentale que les autres Canadiens. Et plus susceptibles de recourir aux salles d’urgence si leurs problèmes de santé mentale atteignent un point de rupture. Les raisons de ce fossé sont notamment les barrières linguistiques, l’accès limité aux services, la peur et la stigmatisation. Le rapport indique également, je cite : «Dans de nombreux cas, les soins de santé mentale traditionnels sont incompatibles avec les valeurs, les attentes et les modèles des populations immigrées et réfugiées». Retour à Akanksha.

Akanksha Shelat Ce n’est pas comme si d’autres cultures et d’autres endroits ne pratiquaient pas la psychothérapie. Vous savez, si vous allez en Asie de l’Est, ils ont une version. Si vous allez en Asie du Sud, il y a une autre version. Je pense qu’en Amérique du Nord, nous pensons parfois que notre façon de faire est celle qui fonctionne, ce qui n’est pas nécessairement vrai. Nous avons donc mis en place un réseau de plus de 70 experts avec lesquels nous travaillons dans le monde entier. Il s’agit d’experts qui ont passé toute leur vie au sein de cette population, qui ont appris d’elle, et pas seulement de ce qui est courant, mais de la façon dont elle perçoit la santé mentale. Qu’il s’agisse du langage qu’ils utilisent autour de la santé mentale ou des interventions qui fonctionnent réellement dans ces espaces.

Dr Alika Lafontaine La recherche soutient la thèse selon laquelle il existe un fossé à combler entre les besoins des populations culturellement diverses et les soins de santé mentale culturellement spécifiques. Par exemple, le Centre de toxicomanie et de santé mentale (CAMH) de Toronto note que les Sud-Asiatiques présentent des taux relativement élevés de troubles de l’anxiété et de l’humeur, mais qu’ils sont 85 % moins susceptibles de chercher à se faire soigner pour ces problèmes que les autres Canadiens. CAMH a constaté que l’utilisation d’approches thérapeutiques tenant compte de la culture, qu’il appelle la TCC adaptée à la culture, donne des résultats plus positifs que la TCC traditionnelle. En travaillant et en étudiant dans le domaine de la psychothérapie, Dalia a vu ce type de travail novateur.

Dalia Ahmed Rencontrer des ressources culturellement adaptées a été une expérience époustouflante, dans laquelle je me suis demandée pourquoi il n’y avait pas cela partout. Pourquoi ? C’est la raison pour laquelle les gens n’ont pas accès aux thérapies, parce qu’ils n’ont pas accès à des ressources qui leur parlent de la manière dont ils comprennent, communiquent et vivent leur vie. Il y a peut-être un moyen d’apporter des changements évolutifs grâce à cette approche qui permet d’inclure, vous savez, la diversité, d’inclure différentes voix et d’en faire une approche d’efficacité collective qui peut vraiment servir un ensemble diversifié de personnes.

Dr Alika Lafontaine Je sais que l’IA a connu son heure de gloire. Dans une certaine mesure, c’est presque devenu un mème. Mais j’ai vu que dans quelques interviews que vous avez publiées, vous avez parlé de l’IA et du rôle qu’elle joue dans tout cela. Peut-être pourriez-vous nous en dire un peu plus à ce sujet.

Akanksha Shelat En effet, lorsque les gens pensent à l’IA aujourd’hui, je pense qu’ils imaginent ChatGPT et vous savez, certaines des tendances qu’ils observent. Mais presque tous les objets que nous utilisons contiennent une certaine forme d’IA. L’une d’entre elles est évidemment l’avatar lui-même. Il y a beaucoup de suivi qui se fait dans les coulisses. Il y a donc un mécanisme qui évalue, ok, cette personne est à ce stade et c’est donc de cette manière qu’elle doit être guidée. Il y a donc une certaine évaluation qui se produit. Nous souhaitons étendre ce mécanisme de plus en plus au fur et à mesure que nous avançons. Mais lorsque nous avons commencé, c’était avant le boom de ChatGPT, et nous nous efforçons maintenant d’en incorporer beaucoup plus. Mais nous voulons aussi faire attention à la manière dont nous l’intégrons. Vous avez peut-être vu qu’il y a en fait un boom dans les chatbots qui sont comme des compagnons de santé mentale et des coachs de santé mentale ou autre. Et il est en fait très facile de les briser. Il est très, très facile de dire quelque chose d’inapproprié et qu’il vous réponde quelque chose d’inapproprié. Nous cherchons donc à savoir comment travailler avec certains de ces grands modèles de langage et comment incorporer non seulement le langage lui-même, qui devient de plus en plus performant. Par exemple, si vous parlez à ChatGPT en hindi, il vous répondra en hindi. Mais il n’y a pas d’informations cliniques derrière pour vous donner quelque chose qui soit cliniquement utile, plutôt que de vous dire simplement, oh, vous ne vous sentez pas bien. D’accord, très bien. Allez vous promener. Vous savez, c’est l’étendue de ses connaissances.

Dalia Ahmed Oui, je pense que l’IA a été très utile pour créer une solution évolutive. Nous avons également été en mesure de fournir des ressources au Moyen-Orient, après des périodes de crise où il n’y a pas de cliniciens disponibles ou de ressources dans les centres communautaires traditionnels pour l’éducation. C’est donc là que je vois que l’évolutivité est vraiment, vraiment utile. J’ai grandi au Moyen-Orient où le sujet de la santé mentale était tabou. J’étudiais la psychologie et les gens se moquaient de moi en me disant que je n’allais pas trouver de travail. Aujourd’hui, je peux dire que nous pouvons fournir quelque chose qui peut encore être… que les gens peuvent regarder en privé chez eux. Cela peut être quelque chose de vraiment, vraiment étonnant. Et comme je ne viens pas du monde de la technologie, j’ai été époustouflée par toutes les choses, vous savez, par l’accessibilité qui a été rendue possible grâce à cela.

Dr Alika Lafontaine On dirait que vous avez fait beaucoup d’efforts pour vous assurer que tout cela est basé sur des choses qui fonctionnent et pour aller à la rencontre des humains qui interagissent. Mais l’une des promesses de l’IA est évidemment l’évolutivité dont vous avez parlé. Nous disposons donc aujourd’hui d’une IA générative qui parvient si bien à nous convaincre qu’il s’agit d’un être humain que nous nous contentons parfois de faire ce qu’elle nous dit parce que nous supposons qu’elle doit savoir de quoi elle parle. C’est de l’IA, n’est-ce pas ?

Akanksha Shelat Oui.

Dr Alika Lafontaine Et je pense qu’avec les progrès des images génératives et de la vidéo, vous savez, il sera de plus en plus difficile de dire. S’agit-il d’une personne ? Y a-t-il une personne derrière cette machine ? Ou s’agit-il simplement de la machine ? D’après vos deux points de vue dans l’espace, où pensez-vous que tout cela puisse tourner mal ?

Akanksha Shelat C’est vraiment drôle que vous posiez cette question parce que je ne sais pas si c’est parce que je suis une personne cynique en général, mais j’ai l’impression que, de nous trois, j’ai toujours été celle qui est, comme, excessivement prudente, vous savez, même lorsque nous avons vu certaines des autres tendances apparaître dans le Web3 et certaines des autres transformations de l’IA qui se sont produites au cours des deux ou trois dernières années, j’ai toujours été la personne qui se disait : » mmm, ça a l’air douteux «. Je n’en suis pas sûr ! Nous avons vu certains de ces assistants IA et chatbots ne pas avoir la capacité de… oubliez l’empathie, je veux dire, c’est une autre conversation, aussi. Mais même ce sentiment de, juste parce que quelqu’un dit qu’il veut se faire du mal et qu’il peut peut-être rationaliser sa propre conversation avec vous, ne signifie pas qu’il devrait se faire du mal à lui-même. N’est-ce pas ? En tant qu’humains, nous pouvons dire «non, ne vous faites pas de mal», mais il devient très facile pour nous de convaincre la machine que je fais cela parce que j’ai ces trois raisons logiques de le faire et que la machine dira «oui, vous avez raison, faites-le». Et c’est une pensée tellement effrayante que cela peut aller dans cette direction extrême. C’est ce à quoi nous pensons toujours, je pense, en tant qu’entrepreneurs dans le domaine de la santé mentale et de l’IA. C’est notre travail, littéralement, de penser aux pires scénarios et de nous demander comment nous pouvons les éviter. Comment ne pas s’engager sur cette pente glissante ? Et la seule chose qui, je pense, nous motive suffisamment pour rester dans cet espace, c’est que ce changement est en train de se produire, que nous en fassions partie ou non.

Dalia Ahmed Nous n’essayons pas de remplacer la thérapie. Je ne pense pas que nous remplacerons un jour les thérapeutes. Je pense qu’il est important d’avoir des thérapeutes. Mais il faut optimiser leurs ressources. L’autre élément est que les données qui existent ne sont pas quelque chose en quoi nous pouvons avoir confiance et que nous pouvons utiliser très facilement. Savoir qu’il s’agit d’un outil qui peut nous aider, je pense que c’est la meilleure façon de voir les choses.

Akanksha Shelat Oui, et je pense que nous n’avons même pas abordé le fait que, d’un point de vue technique, ce sont des humains qui dissèquent ces données et les humains sont intrinsèquement biaisés. Et donc, vous savez, qu’est-ce qu’on fait à ce sujet ? C’est ce que je pense. Je pense que ce sont de bonnes questions à poser. Et je pense que plus nous l’incorporons dans des situations où nous pouvons faire confiance à un clinicien ou à un humain pour valider et comprendre si cette machine et cette IA font ce qu’il faut. Je ne pense pas que nous serons remplacés de sitôt.

Dr Alika Lafontaine D’autres personnes ont posé cette même question : Que faire en cas de biais dans les données ? Une étude réalisée en 2022 par une équipe de chercheurs de CAMH et de l’Université de Toronto a révélé de sérieuses lacunes dans la collecte et l’utilisation des données raciales pour la recherche sur la santé mentale. Le problème n’est pas seulement qu’il n’y a pas assez de données. C’est aussi que les méthodes pour les mesurer sont incohérentes. Environ un tiers des études examinées ne donnaient pas de définition claire de la race ou de l’ethnicité. En outre, les groupes marginalisés – les autochtones en particulier – ont souvent été totalement exclus de ces études en raison de la petite taille des échantillons. L’étude évoque également l’IA. On peut y lire ce qui suit : «Les progrès rapides de l’apprentissage automatique font qu’il est important de revoir la façon dont la race ou l’ethnicité sont mesurées et opérationnalisées dans la recherche sur la santé mentale, car les préjugés peuvent être amplifiés lorsqu’ils sont intégrés dans les données et les modèles d’apprentissage automatique.» Nelson Shen est l’un des coauteurs de cette étude.

Dr Nelson Shen Vous savez, nous avons fait une analyse et nous avons trouvé que, vous savez, même la façon dont nous opérationnalisons le terme «race» dans les ensembles de données peut signifier beaucoup de choses différentes. Et, vous savez, il est souvent utilisé comme indicateur de la discrimination. Mais je pense que nous devons être très prudents sur la façon dont nous structurons ces données.

Dr Alika Lafontaine Le Dr Shen est scientifique de projet à CAMH. Il fait partie du Digital Mental Health Lab, où sa recherche consiste à faire participer les cliniciens, les patients et d’autres personnes à des initiatives de santé numérique et d’IA. Selon le Dr Shen, même avec les meilleures intentions, une technologie prometteuse peut creuser l’écart entre les nantis et les démunis.

Dr Nelson Shen Les bonnes intentions ne suffisent pas. Je veux dire, mon exemple préféré est une application que je déteste vraiment, mais Pokemon Go, c’est juste parce que tout le monde a toujours la tête baissée. Mais vous savez, Pokemon Go, avec de bonnes intentions, et je pense qu’elle a transformé les choses dans la mesure où elle a incité les gens à être actifs sans vraiment y penser, n’est-ce pas ? Vous avez des gens qui se promènent dans toute la ville et qui font face à leur téléphone. Mais nous avons rapidement constaté que les gens commençaient à qualifier Pokemon Go de raciste parce que tous les bons Pokemon se trouvaient dans les zones à forte densité, dans les zones urbaines, alors que les personnes vivant dans des zones plus éloignées ou dans des zones à faible statut socio-économique n’avaient pas de bons Pokemon dans les parages. Et pourquoi cela ? Parce qu’ils n’ont pas été très attentifs à la façon dont ils ont conçu les algorithmes et qu’ils ont utilisé les cartes d’une application précédente qui était essentiellement blanche, aisée et commerciale. Et c’est ce qui s’est passé, n’est-ce pas ? C’est ainsi qu’une application potentiellement bien intentionnée a été qualifiée de raciste.

Dr Alika Lafontaine Mais dans l’ensemble, le Dr Shen reste optimiste.

Dr Nelson Shen Il se passe beaucoup de choses et les gens sont très enthousiastes. Vous savez, l’année dernière, avec toute l’IA générative, les gens sont très enthousiastes à l’idée d’utiliser l’IA dans les soins de santé et dans tous les aspects de la vie, en fait.

Dr Alika Lafontaine Il est enthousiasmé par les façons dont l’intelligence artificielle peut aider les patients à obtenir un meilleur accès et les fournisseurs à distribuer des soins plus personnalisés. Le triage, qui consiste à déterminer la nature et l’urgence des soins dont chaque patient a besoin, en est un exemple.

Dr Nelson Shen Récemment, une annonce a été faite avec Kids Health Phone, en collaboration avec le Vector Institute de l’Université de Toronto, où l’on utilisera l’IA pour comprendre qui est au bout du fil en analysant sa voix, ses schémas d’élocution, ses choix de mots, afin de fournir des services plus personnalisés et plus précis. Ainsi, en cas de risque élevé, il est possible de faire appel à des intervenants en cas de crise. En revanche, si le risque est faible, il est possible d’avoir une conversation avec un chatbot.

Dr Alika Lafontaine Les nouvelles technologies ont également révolutionné la manière dont les médecins peuvent collecter des données en temps réel et les utiliser pour prédire l’évolution du parcours de santé d’un patient. Et puis il y a les possibilités de traitement : aider l’IA et les cliniciens à travailler ensemble de manière plus transparente.

Dr Nelson Shen Il y a la thérapie cognitivo-comportementale, qui est une pratique courante pour de nombreux troubles mentaux. Il existe donc de nombreux traitements guidés pour lesquels les recommandations de l’IA remplacent les consultations en personne. Mais ce que nous constatons, c’est qu’il faut aussi que les gens soient là.

Dr Alika Lafontaine Vous savez, en tant que clinicien, je pratique l’anesthésie. Je lis des milliers de pages de dossiers médicaux chaque mois. Il est clair qu’il y a beaucoup de biais et souvent des inexactitudes dans ces dossiers médicaux. Les patients sont étiquetés d’une manière ou d’une autre. Et, vous savez, cela influence vraiment la manière dont vous les traitez et interagissez avec eux dans le cadre des soins de santé. Vous savez, vous avez des modèles d’apprentissage automatique et des algorithmes formés sur ces mêmes données. Comment pensez-vous que cela affectera les patients au fur et à mesure que ces modèles d’apprentissage continueront à mûrir et deviendront une partie plus importante de la réception des soins de santé ?

Dr Nelson Shen Je pense qu’il faut que tout le monde comprenne ce que ces données vont faire, n’est-ce pas ? Tout le monde commence à comprendre que si les données ne sont pas correctes ou qu’elles sont entachées de préjugés, les inégalités existantes seront exacerbées. Donc, si nous continuons à former et à utiliser, c’est un cycle perpétuel qui va continuer à exacerber les inégalités existantes. Par ailleurs, les données ne sont pas complètes. Certaines personnes hésitent à s’engager dans cette voie. Et, vous savez, parfois, sur le lieu de soins, ils ne sont pas aussi ouverts ou ne veulent pas partager les données et ces grands ensembles de données. Cela pose également un problème. C’est vrai ? Car s’ils ne participent pas, en essayant de protéger leur propre vie privée, ils peuvent aussi, par inadvertance, créer des inégalités basées sur les données que nous utilisons pour entraîner l’IA. Il s’agit donc d’un risque sérieux. Et je ne sais pas quelle est la solution à ce problème. Je pense que nous sommes en train d’essayer de trouver cette solution.

Dr Alika Lafontaine Avez-vous des idées sur la façon dont, selon votre point de vue et votre expérience, nous pourrions atténuer ce problème à l’avenir ? Je sais que personne n’a résolu ce problème, mais d’après ce que vous savez, comment pourrions-nous le résoudre ?

Dr Nelson Shen L’approche que nous adoptons, tant du point de vue clinique que du point de vue des patients, consiste à faire beaucoup de travail d’engagement, dans tous les domaines, qu’il s’agisse de consultation ou de participation à la conception de ces solutions avec les gens. Ainsi, dans le cadre de mon travail avec Inforoute Santé du Canada, nous avons mené des enquêtes pancanadiennes pour évaluer la situation de la protection de la vie privée au sein de la population. Nous avons constaté que plus on fait confiance au système, plus on est disposé à partager ses données. Il s’agit donc en grande partie de savoir comment instaurer la confiance dans le système.

Dr Alika Lafontaine J’aimerais revenir sur ce point de la confiance. Si nous dépendons tellement de la confiance dans le système, quel est le danger unique que courent les communautés marginalisées, vous savez, les communautés qui ont besoin d’équité ? Parce que la confiance a tendance à être plus faible si vous avez eu de mauvaises expériences ou moins d’accès aux soins de santé. Sommes-nous en train de créer une situation dans laquelle ces personnes continueront à être exclues ? Ou bien, comment tracer notre chemin vers un avenir où nous n’aggraverons pas les inégalités ?

Dr Nelson Shen Vous savez, c’est là qu’un engagement vraiment significatif est nécessaire pour comprendre où vous en êtes et comment vous pouvez combler le fossé qui existe.

Dr Alika Lafontaine C’est manifestement une de vos passions. Qu’est-ce qui vous enthousiasme le plus dans l’avenir ? Et l’autre aspect de cette question : qu’est-ce qui vous effraie le plus, en regardant l’avenir, si cela devait arriver ?

Dr Nelson Shen Dois-je commencer par le négatif ou le positif ? [Rires] Vous savez, ce qui m’effraie le plus, c’est qu’il y a encore beaucoup d’incertitude sur ce qu’est l’IA et sur son avenir. Et vous savez, comment le public la perçoit. Je pense que nous devons commencer à collaborer davantage dans notre approche de l’IA. Qu’est-ce qui me passionne ? Ce qui m’a poussé à me lancer dans l’informatique de santé, c’est l’idée d’autonomiser les patients et de leur donner les outils dont ils ont besoin pour mieux prendre soin d’eux. En ce qui me concerne, je m’intéresse à la manière dont l’IA peut être utilisée pour défendre les intérêts des patients. Et être une plateforme pour eux. Dans le domaine de la santé mentale, nous avons nos propres histoires, mais souvent nous ne savons pas comment les raconter. Comment pouvons-nous utiliser l’IA pour nous aider à raconter cette histoire ? Nous aider à utiliser les bons mots pour ne pas être discriminés, mais aussi pour pouvoir partager nos riches expériences avec les gens, afin qu’ils ne nous voient pas sous un jour aussi stigmatisé, mais qu’ils comprennent vraiment ce que sont nos expériences. Oui, ce sont mes craintes et mes rêves. Ha.

Dr Alika Lafontaine L’inertie contre le changement en médecine peut être assez forte. L’histoire et la tradition font autant partie de la pratique médicale que la science et l’humanité. Pour être plus concret, les changements majeurs dans la pratique médicale prennent 17 ans. De temps en temps, cependant, une crise écrasante donne de l’élan. Les choses qui semblaient ne jamais devoir changer le font soudain. Il existe peu de domaines de la médecine où la crise est plus grave que celle de la santé mentale. Et la situation va s’aggraver. Aujourd’hui, 6,7 millions de Canadiens sont aux prises avec une maladie mentale et un Canadien sur deux aura déjà souffert d’une maladie mentale à l’âge de 40 ans. Les conséquences du manque d’accès sont désastreuses, qu’il s’agisse du lourd fardeau de la souffrance individuelle ou du coût permanent pour la société canadienne dans son ensemble. Quel est donc l’avenir de l’accès à la santé mentale au Canada ? Résoudrons-nous les problèmes d’accès grâce à la technologie ou remplacerons-nous les prestataires par l’intelligence artificielle ? Nos invités d’aujourd’hui me font penser que l’avenir ne sera probablement pas l’un ou l’autre, mais une nouvelle voie où nous fusionnerons la disponibilité et l’efficacité de la technologie avec le jugement et l’humanité des prestataires de soins de santé. La technologie ne remplacera pas les gens. Mais les personnes qui n’utilisent pas la technologie seront probablement remplacées par des personnes qui l’utilisent. Nous avançons vraiment dans l’inconnu. Mais pour les personnes qui luttent contre la maladie mentale, nous leur devons de faire l’effort de traverser l’obscurité pour trouver ce qu’il y a de l’autre côté.

Rester au courant

Obtenir les dernières nouvelles. En savoir plus. S'impliquer.