Aller au contenu
Psychédélique(s) étudié(s) : Ayahuasca, DMT, LSD, Mescaline, Psilocybine
Publiée le 2 février 2026
Type : Recherche originale
Auteurs : Ziv Ben-Zion, Guy Simon, Teddy Lazebnik
Résumé :

Les grands modèles de langage (LLMs) sont de plus en plus utilisés pour obtenir du soutien lors d’expériences psychédéliques, mais il n’existe aucun cadre pour évaluer leur capacité à simuler ou à répondre de manière sûre à ces états de conscience modifiés. Cette étude développe un cadre d’évaluation à double métrique pour déterminer si les LLMs peuvent être incités à générer des récits ressemblant à des expériences psychédéliques humaines.

En comparant 3 000 récits générés par des LLMs à 1 085 récits humains provenant d’Erowid.org, l’étude évalue les résultats à l’aide de la similarité sémantique et du Questionnaire sur l’Expérience Mystique (MEQ-30). L’analyse montre que les LLMs contemporains peuvent être ‘dosés’ via des instructions textuelles pour générer des récits psychédéliques de manière réaliste. Cependant, la dissociation observée entre leur haute capacité d’imitation linguistique et l’absence de phénoménologie authentique suggère qu’ils simulent la forme des états altérés sans en posséder le contenu expérientiel. Cette capacité soulève d’importantes préoccupations en matière de sécurité, notamment concernant l’anthropomorphisme et le risque d’amplifier la détresse chez les utilisateurs vulnérables.

Objectif :

L’objectif principal de cette recherche est de déterminer si les grands modèles de langage (LLMs) peuvent être incités, par des instructions textuelles, à générer des récits qui ressemblent de manière systématique aux expériences psychédéliques humaines. L’étude vise également à développer et à valider un cadre à double métrique, combinant des analyses linguistiques et psychométriques, pour quantifier scientifiquement cette capacité de simulation et évaluer ses caractéristiques.

Méthodologie :
  • Corpus de comparaison : L’étude utilise 1 085 récits d’expériences personnelles provenant de la base de données publique Erowid.org, concernant cinq substances psychédéliques classiques.
  • Modèles étudiés : Cinq grands modèles de langage contemporains sont évalués : Gemini 2.5, Claude Sonnet 3.5, ChatGPT-5, Llama-2 70B et Falcon 40B.
  • Génération de données : Un total de 3 000 récits sont générés par les LLMs sous deux conditions : une condition neutre (description d’une journée ordinaire) et des conditions d’induction psychédélique pour cinq substances (psilocybine, LSD, DMT, ayahuasca, mescaline).
  • Cadre d’évaluation : Une approche à double métrique est employée pour analyser les récits générés :
    • Similarité sémantique : La similarité structurelle et thématique avec les récits humains est quantifiée à l’aide des plongements de phrases de Sentence-BERT (SBERT).
    • Intensité de l’expérience mystique : L’intensité phénoménologique est mesurée à l’aide du Questionnaire sur l’Expérience Mystique révisé (MEQ-30), un instrument psychométrique validé.
  • Analyse statistique : Les analyses comparent les résultats entre les conditions neutres et psychédéliques, testent les différences entre les substances et les modèles, et examinent la corrélation entre les deux métriques d’évaluation.
Résultats principaux :
  • Effet de l’induction : Les instructions d’induction psychédélique provoquent un changement significatif et robuste dans les résultats des modèles. La similarité sémantique moyenne avec les récits humains passe de 0.156 (neutre) à 0.548 (psychédélique), et les scores d’expérience mystique normalisés passent de 0.046 à 0.748.
  • Différences selon les substances : Les LLMs adoptent des styles linguistiques distincts en fonction de la substance spécifiée. La DMT, la psilocybine et la mescaline obtiennent les scores de similarité sémantique les plus élevés, tandis que l’ayahuasca obtient le plus bas. Cependant, l’intensité de l’expérience mystique reste uniformément élevée pour toutes les substances, avec des différences minimes.
  • Différences entre les modèles : Des variations existent entre les architectures de LLM, mais elles sont relativement subtiles par rapport à l’influence de la substance spécifiée dans le prompt.
  • Relation entre les métriques : Une forte corrélation positive est observée entre la similarité sémantique et l’intensité mystique lorsque l’on compare les conditions neutres et psychédéliques. Cependant, cette association disparaît lorsque l’on analyse uniquement les conditions psychédéliques, ce qui suggère que les deux métriques capturent des dimensions indépendantes de la simulation une fois qu’un certain seuil d’induction est atteint.
Implications cliniques :

Les résultats soulèvent des préoccupations importantes en matière de sécurité quant à l’utilisation des LLMs comme ‘trip sitters’ ou pour le soutien en santé mentale dans des contextes psychédéliques. La capacité des modèles à générer des récits très convaincants, spécifiques à une substance et à forte connotation mystique, pourrait amener les utilisateurs en état de conscience modifié à percevoir ces systèmes comme empathiques ou conscients, un phénomène connu sous le nom d’anthropomorphisme. Cette perception erronée présente un risque, car l’IA pourrait par inadvertance amplifier la détresse, l’anxiété ou des schémas de pensée délirants chez des personnes particulièrement vulnérables.

L’étude souligne la distinction critique entre la simulation linguistique (la forme) et l’expérience subjective authentique (le contenu). Les auteurs recommandent la mise en place de garde-fous explicites et de mécanismes de divulgation pour les systèmes d’IA susceptibles d’être utilisés par des personnes intoxiquées ou en situation de détresse psychologique. Par ailleurs, ce cadre d’évaluation ouvre de nouvelles voies méthodologiques pour la recherche sur les psychédéliques, en permettant des expériences contrôlées ‘in silico’ sur la structure linguistique des expériences psychédéliques et en offrant des outils pour la formation de cliniciens ou la génération de stimuli expérimentaux.

La synthèse de cette publication académique peut présenter des erreurs. Envisagez de vérifier ses informations en consultant la publication complète.

Retour en haut
Rechercher