Peut-on se passer des psychiatres et les remplacer par l’IA

Photo: iStock

 

 

L’intelligence artificielle a investi de nombreux domaines de la médecine, y compris la psychiatrie pour laquelle des applications sur smartphone et des agents conversationnels, les chatbots, existent, mais dont l’efficacité par rapport au jugement d’un professionnel doté d’empathie et de raisonnement reste à prouver.

Si les nouvelles technologies peuvent beaucoup apporter à la psychiatrie, le jugement clinique humain surclasse encore l’intelligence artificielle. Avec la crise sanitaire, l’idée de proposer des suivis de santé mentale réalisés par une intelligence artificielle a ressurgi, mais l’idée n’est pas nouvelle, car en 1966 avait été lancé le premier programme de dialogue dédié à la psychiatrie, nommé Eliza.

Le développement récent de l’intelligence artificielle a permis d’améliorer et de développer les programmes de dialogue, les robots thérapeutes et des systèmes de détection de l’état de santé à la voix.

Actuellement, il existe plus d’une vingtaine de robots thérapeutes validés par des études scientifiques en psychiatre et certaines de ces études indiquent que les patients pourraient développer de vraies relations thérapeutiques avec ces systèmes informatisés et que certains se sentiraient plus à l’aise avec un agent conversationnel qu’avec un thérapeute humain.

L’intérêt de ces professionnels numériques serait d’être disponible en permanence et de pouvoir proposer des décisions objectives, réplicables, dénuées de jugement, mais Inversement, l’absence de présence physique peut être vécue comme un manque par les patients, tout comme l’impossibilité de reconnaître toutes les difficultés vécues par les patients, rendant difficile la formulation de réponses appropriées et une orientation éventuelle vers un service d’assistance dédié.

Le psychiatre, au travers de son entretien avec les patients, peut percevoir des signaux importants tels que des idées suicidaires ou des violences familiales que ne sont pas capables de reconnaître les chatbots actuels. Lorsque le psychiatre pose un diagnostic, il s’agit de l’étape finale d’un processus dépendant d’un modèle interne, un ensemble de processus mentaux, explicites ou implicites qui permet de poser le diagnostic. Il peut alors être pertinent d’analyser la façon dont est conçu et utilisé le modèle interne du psychiatre lorsqu’il pose un diagnostic afin de mieux entraîner l’IA chargée de l’imiter.

Les demandes d’hospitalisation en psychiatrie ont fortement augmenté. Certains services sont saturés et les listes d'attente n'en finissent plus de s'allonger .(Illustration : ©Adobe stock)

Cette problématique pose la question de la similarité entre un modèle interne humain d’un psychiatre et un programme informatique. La formulation d’un diagnostic en psychiatrie passe par trois étapes principales : 

  1. La collecte d’information et leur organisation : le psychiatre assemble de nombreuses informations qu’il classe selon leur pertinence et peut ainsi les associer à des profils préexistants. Une IA pourra aussi, lors de son échange avec le patient, définir un profil et poser un diagnostic

  2. la construction du modèle : tout au long de sa carrière, le psychiatre formule des diagnostics dont l’issue est connue, l’expérience permettant de renforcer le lien entre une décision et sa conséquence. Une IA pourra arriver aux mêmes résultats grâce à sa formidable base de données pouvant contenir plus de cas qu’un psychiatre pourrait voir tout au long de sa carrière

  3.  l’utilisation du modèle : le psychiatre va utiliser son modèle interne pour prendre en charge de nouveaux patients. Pour une IA, la prise en charge de nouveaux patients dépendra notamment du coût du matériel et du temps nécessaire à son entraînement.

 

Au quotidien, la pratique professionnelle du psychiatre peut être influencée par un ensemble de facteurs subjectifs allant par exemple de la formation suivie à son état émotionnel, facteurs auxquels l’IA ne serait pas soumise.

Pour autant, une IA présente aussi une part de subjectivité, particulièrement parce qu’elle a été conçue par un ingénieur humain, et pour comparer les processus de réflexion du psychiatre avec ceux de l’IA, il faudrait aussi les comparer avec ceux de son développeur. Ce dernier possède son propre modèle interne qu’il utilise pour paramétrer et automatiser l’IA et les techniques qu’utilisera l’IA pour fonctionner vont aussi dépendre des choix humains effectués au moment de la conception.

Les facteurs qui influencent le codeur de l’IA dans son travail vont se répercuter dans la conception et ultérieurement sur les décisions que l’IA sera amenée à prendre, donc sur le diagnostic qu’elle formulera, de la même manière que le psychiatre qui est influencé par des facteurs subjectifs personnels. L’autre influence subjective à laquelle est soumise une IA est celle de la base de données sur laquelle elle est entraînée.

Les personnes qui créent et mettent en forme les bases de données ont leur propre subjectivité qui va, par exemple, influencer le type de données collectées ou les mesures choisies pour commenter et analyser la base de données. Les IA reproduiront ainsi les biais subjectifs présents dans les bases de données sur lesquelles elles sont entraînées.

Si l’IA et le psychiatre peuvent être tous deux influencés par des facteurs subjectifs, ce dernier dispose des qualités relationnelles et emphatiques qui lui permettent d’adapter son modèle face au patient qu’il rencontre, ce que l’IA n’arrive pas encore à faire de manière satisfaisante.

Le psychiatre dispose aussi de souplesse dans la collecte d’informations lors de son entretien clinique, comme la possibilité de revenir à des symptômes identifiés des semaines avant l’entretien ou faire évoluer l’échange en temps réel en fonction des réponses obtenues, alors que l’IA reste pour l’instant limité à un schéma préétabli et rigide. Une autre limite de l’IA propre à la psychiatrie est l’absence de présence physique, alors même que la base d’une consultation clinique est une rencontre entre deux personnes, caractérisée par la parole et la communication non verbale, telle que les gestes, la position du corps dans l’espace ou la lecture des émotions sur le visage.

La présence physique d’un psychiatre constitue une part importante de la relation patient/soignant et une part importante du processus de soin. Si les progrès de l’IA en psychiatrie vont dépendre des progrès en robotique, une meilleure compréhension de la façon dont raisonnent les psychiatres permettra de mieux prendre en compte les facteurs à intégrer dans le développement des IA dédiées à la pratique clinique. Ces analyses croisées, tenant compte à la fois de la subjectivité du psychiatre et du codeur, devraient permettre de développer une vraie interdisciplinarité entre IA et médecine pour, au final, bénéficier au plus grand nombre.

https://www.futura-sciences.com/tech/actualites/intelligence-artificielle-psys-bientot-remplaces-intelligence-artificielle-100178/

 

 

Share on
Facebook
Twitter
LinkedIn
Pinterest

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

unnamed - 2022-10-12T131359.371

Peut-on se passer des psychiatres et les remplacer par l’IA

Photo: iStock
   

L’intelligence artificielle a investi de nombreux domaines de la médecine, y compris la psychiatrie pour laquelle des applications sur smartphone et des agents conversationnels, les chatbots, existent, mais dont l’efficacité par rapport au jugement d’un professionnel doté d’empathie et de raisonnement reste à prouver.

Si les nouvelles technologies peuvent beaucoup apporter à la psychiatrie, le jugement clinique humain surclasse encore l’intelligence artificielle. Avec la crise sanitaire, l’idée de proposer des suivis de santé mentale réalisés par une intelligence artificielle a ressurgi, mais l’idée n’est pas nouvelle, car en 1966 avait été lancé le premier programme de dialogue dédié à la psychiatrie, nommé Eliza.

Le développement récent de l’intelligence artificielle a permis d’améliorer et de développer les programmes de dialogue, les robots thérapeutes et des systèmes de détection de l’état de santé à la voix.

Actuellement, il existe plus d’une vingtaine de robots thérapeutes validés par des études scientifiques en psychiatre et certaines de ces études indiquent que les patients pourraient développer de vraies relations thérapeutiques avec ces systèmes informatisés et que certains se sentiraient plus à l’aise avec un agent conversationnel qu’avec un thérapeute humain.

L’intérêt de ces professionnels numériques serait d’être disponible en permanence et de pouvoir proposer des décisions objectives, réplicables, dénuées de jugement, mais Inversement, l’absence de présence physique peut être vécue comme un manque par les patients, tout comme l’impossibilité de reconnaître toutes les difficultés vécues par les patients, rendant difficile la formulation de réponses appropriées et une orientation éventuelle vers un service d’assistance dédié.

Le psychiatre, au travers de son entretien avec les patients, peut percevoir des signaux importants tels que des idées suicidaires ou des violences familiales que ne sont pas capables de reconnaître les chatbots actuels. Lorsque le psychiatre pose un diagnostic, il s’agit de l’étape finale d’un processus dépendant d’un modèle interne, un ensemble de processus mentaux, explicites ou implicites qui permet de poser le diagnostic. Il peut alors être pertinent d’analyser la façon dont est conçu et utilisé le modèle interne du psychiatre lorsqu’il pose un diagnostic afin de mieux entraîner l’IA chargée de l’imiter.

Les demandes d’hospitalisation en psychiatrie ont fortement augmenté. Certains services sont saturés et les listes d'attente n'en finissent plus de s'allonger .(Illustration : ©Adobe stock)

Cette problématique pose la question de la similarité entre un modèle interne humain d’un psychiatre et un programme informatique. La formulation d’un diagnostic en psychiatrie passe par trois étapes principales : 

  1. La collecte d’information et leur organisation : le psychiatre assemble de nombreuses informations qu’il classe selon leur pertinence et peut ainsi les associer à des profils préexistants. Une IA pourra aussi, lors de son échange avec le patient, définir un profil et poser un diagnostic

  2. la construction du modèle : tout au long de sa carrière, le psychiatre formule des diagnostics dont l’issue est connue, l’expérience permettant de renforcer le lien entre une décision et sa conséquence. Une IA pourra arriver aux mêmes résultats grâce à sa formidable base de données pouvant contenir plus de cas qu’un psychiatre pourrait voir tout au long de sa carrière

  3.  l’utilisation du modèle : le psychiatre va utiliser son modèle interne pour prendre en charge de nouveaux patients. Pour une IA, la prise en charge de nouveaux patients dépendra notamment du coût du matériel et du temps nécessaire à son entraînement.

 

Au quotidien, la pratique professionnelle du psychiatre peut être influencée par un ensemble de facteurs subjectifs allant par exemple de la formation suivie à son état émotionnel, facteurs auxquels l’IA ne serait pas soumise.

Pour autant, une IA présente aussi une part de subjectivité, particulièrement parce qu’elle a été conçue par un ingénieur humain, et pour comparer les processus de réflexion du psychiatre avec ceux de l’IA, il faudrait aussi les comparer avec ceux de son développeur. Ce dernier possède son propre modèle interne qu’il utilise pour paramétrer et automatiser l’IA et les techniques qu’utilisera l’IA pour fonctionner vont aussi dépendre des choix humains effectués au moment de la conception.

Les facteurs qui influencent le codeur de l’IA dans son travail vont se répercuter dans la conception et ultérieurement sur les décisions que l’IA sera amenée à prendre, donc sur le diagnostic qu’elle formulera, de la même manière que le psychiatre qui est influencé par des facteurs subjectifs personnels. L’autre influence subjective à laquelle est soumise une IA est celle de la base de données sur laquelle elle est entraînée.

Les personnes qui créent et mettent en forme les bases de données ont leur propre subjectivité qui va, par exemple, influencer le type de données collectées ou les mesures choisies pour commenter et analyser la base de données. Les IA reproduiront ainsi les biais subjectifs présents dans les bases de données sur lesquelles elles sont entraînées.

Si l’IA et le psychiatre peuvent être tous deux influencés par des facteurs subjectifs, ce dernier dispose des qualités relationnelles et emphatiques qui lui permettent d’adapter son modèle face au patient qu’il rencontre, ce que l’IA n’arrive pas encore à faire de manière satisfaisante.

Le psychiatre dispose aussi de souplesse dans la collecte d’informations lors de son entretien clinique, comme la possibilité de revenir à des symptômes identifiés des semaines avant l’entretien ou faire évoluer l’échange en temps réel en fonction des réponses obtenues, alors que l’IA reste pour l’instant limité à un schéma préétabli et rigide. Une autre limite de l’IA propre à la psychiatrie est l’absence de présence physique, alors même que la base d’une consultation clinique est une rencontre entre deux personnes, caractérisée par la parole et la communication non verbale, telle que les gestes, la position du corps dans l’espace ou la lecture des émotions sur le visage.

La présence physique d’un psychiatre constitue une part importante de la relation patient/soignant et une part importante du processus de soin. Si les progrès de l’IA en psychiatrie vont dépendre des progrès en robotique, une meilleure compréhension de la façon dont raisonnent les psychiatres permettra de mieux prendre en compte les facteurs à intégrer dans le développement des IA dédiées à la pratique clinique. Ces analyses croisées, tenant compte à la fois de la subjectivité du psychiatre et du codeur, devraient permettre de développer une vraie interdisciplinarité entre IA et médecine pour, au final, bénéficier au plus grand nombre.

https://www.futura-sciences.com/tech/actualites/intelligence-artificielle-psys-bientot-remplaces-intelligence-artificielle-100178/

   
Facebook
Twitter
LinkedIn
Pinterest

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

[mailpoet_form id="1"]