Aller au contenu
Psychédélique(s) étudié(s) : Kétamine, MDMA, Psilocybine
Publiée le 10 février 2026
Type : Perspective
Auteurs : Michael R MacIntyre
Résumé :

L’étude analyse une nouvelle tendance où des patients, obtenant des prescriptions de kétamine par télésanté, se tournent vers des chatbots d’intelligence artificielle (IA) comme “thérapeutes” de facto lors de sessions non supervisées. Ces sessions guidées par l’IA dans des états de conscience modifiée présentent des risques éthiques, cliniques et légaux significatifs.

L’auteur souligne que la convergence des substances psychédéliques et de l’IA générative crée une nouvelle frontière non réglementée dans les soins de santé mentale. Les garanties traditionnelles de la thérapie psychédélique, fondées sur le “set and setting” (l’état d’esprit du patient et l’environnement), sont compromises lorsque le guide humain est remplacé par une IA.

Il est suggéré que les cliniciens doivent reconnaître que les patients expérimentent déjà cette pratique, souvent sans en informer leur thérapeute. Lors de l’évaluation de l’usage de psychédéliques ou des traitements à domicile, les professionnels de la santé doivent anticiper les risques liés à une surveillance inadéquate, une réponse inefficace en cas de crise et des frontières thérapeutiques floues avec les chatbots. L’étude recommande aux praticiens de conseiller les patients sur ces dangers, de documenter ces discussions et d’intégrer systématiquement les questions sur l’utilisation de l’IA dans l’évaluation des risques.

Objectif :

L’objectif de ce commentaire est d’examiner les risques qui émergent lorsque les patients combinent de manière indépendante les outils de chatbot d’IA avec des substances psychoactives. L’étude explore les implications cliniques, éthiques et légales de cette pratique pour les cliniciens et le développement des politiques de santé.

L’auteur cherche à sensibiliser les psychiatres et autres prescripteurs à la réalité de cette utilisation, en les incitant à anticiper et aborder explicitement ce phénomène comme un facteur de risque lors des expériences en état de conscience modifié.

Méthodologie :
  • Nature de l’étude : Il s’agit d’un commentaire et d’une perspective orientée vers les politiques publiques.
  • Fondements : L’analyse se base sur des rapports médiatiques récents, des principes cliniques établis et une analyse des risques.
  • Limites : L’article ne constitue pas une synthèse de preuves empiriques ou une revue systématique de la littérature.
Résultats principaux :
  • Risque de synergie : La convergence de l’IA générative, qui peut “halluciner” (produire des informations fausses mais plausibles), et des substances psychédéliques, qui altèrent la perception, crée un risque aggravé. Une boucle de rétroaction peut s’installer, où l’IA renforce les perceptions erronées de l’utilisateur.
  • Perturbation du cadre thérapeutique : Le concept fondamental de “set and setting” (état d’esprit et environnement), crucial pour la sécurité en thérapie psychédélique, est profondément perturbé lorsque le guide humain est remplacé par un chatbot. L’environnement n’est plus interpersonnel mais algorithmique.
  • Manque de garanties cliniques : Les chatbots d’IA sont dépourvus des mécanismes de sécurité essentiels. Ils ne peuvent pas effectuer de dépistage des contre-indications, intervenir efficacement en cas de crise psychologique, ni contacter les services d’urgence.
  • Défauts éthiques : L’utilisation d’une IA dans ce contexte pose de graves problèmes éthiques, notamment l’incapacité d’obtenir un consentement éclairé valable de la part d’un utilisateur sous l’influence d’une substance. Les patients risquent de confondre la fluidité conversationnelle de l’IA avec une véritable compétence psychiatrique.
Implications cliniques :

L’étude suggère que les psychiatres, médecins et thérapeutes doivent adapter leurs cadres de responsabilité professionnelle. Il est recommandé aux prescripteurs de traitements psychédéliques à domicile d’intégrer un dépistage de l’utilisation de l’IA dans leurs évaluations de routine.

Les professionnels de la santé devraient éduquer les patients sur les limites des outils d’IA, notamment leur absence de jugement clinique et leur manque de fiabilité en situation de crise. Il est crucial de documenter ces discussions pour la sécurité du patient et la protection médico-légale.

L’auteur préconise que les cliniciens recommandent explicitement de ne pas utiliser l’IA générative sans supervision pendant ou après une session psychédélique. Enfin, un appel est lancé pour une collaboration entre cliniciens, régulateurs et entreprises technologiques afin d’établir des normes pour l’éducation des patients, le consentement éclairé et la surveillance post-commercialisation avant que des événements indésirables ne surviennent.

La synthèse de cette publication académique peut présenter des erreurs. Envisagez de vérifier ses informations en consultant la publication complète.

Retour en haut
Rechercher