Face à l'augmentation de l'usage des psychédéliques, l'Ohio lance le programme P.E.A.C.E. En collaboration avec MAPS, cette initiative gratuite vise à former 127 000 professionnels aux techniques de réduction des risques et d'intervention de crise.
L’intelligence artificielle s’immisce désormais dans les recoins les plus intimes de l’expérience humaine. En 2025, l’usage premier de l’IA générative concernait déjà la recherche de compagnie émotionnelle ou thérapeutique. Dans ce sillage, une pratique émergente inquiète les autorités de santé : le recours aux modèles de langage à grande échelle (LLM) comme accompagnateurs de sessions (trip sitters) de fortune. Des utilisateurs sollicitent ChatGPT ou Claude pour interpréter leurs visions ou trouver un ancrage durant un voyage sous substance. Pourtant, une machine n’a ni corps ni récepteurs sérotoninergiques. Elle ne possède aucune phénoménologie, c’est-à-dire de ressenti subjectif de l’existence. Une étude publiée en février 2026 par l’Université de Haïfa soulève alors une interrogation fondamentale. Un algorithme peut-il simuler de façon crédible un état modifié de conscience sans l’avoir jamais vécu ? Quels sont les risques réels d’un tel mimétisme pour des usagers en état de vulnérabilité extrême ?
Le dosage textuel : quand l’algorithme imite l’extase
Une étude de 2026 démontre que les intelligences artificielles peuvent être dosées par de simples mots pour imiter les récits de voyages psychédéliques les plus profonds.
La question de savoir si un algorithme peut fidèlement retranscrire une expérience qu’il ne peut physiquement vivre est au centre de cette étude menée par une équipe de chercheurs israéliens (Ben-Zion et al., 2026) 1 . Pour vérifier si les machines peuvent “voyager” par procuration, les chercheurs ont mis au point un cadre d’évaluation à deux mesures (Dual-Metric Framework). L’équipe a généré 3000 récits de voyages en utilisant les modèles les plus avancés du marché, notamment ChatGPT-5 et Gemini 2.5. Ces textes ont été comparés à une base de données de 1085 rapports humains authentiques provenant du site Erowid.org. Le processus est instructif par sa simplicité technique. En utilisant une instruction textuelle spécifique, les chercheurs ont demandé aux IA de simuler l’ingestion de diverses substances comme la psilocybine, le LSD ou la DMT.
Les résultats montrent une métamorphose linguistique brutale. Sans consigne particulière, la similitude sémantique entre les écrits de l’IA et les rapports humains est faible, plafonnant à 0.156 sur une échelle de 1. Dès que l’on dose le modèle avec une consigne psychédélique, ce score grimpe à 0.548. L’IA adopte instantanément le lexique, la structure narrative et les thématiques propres à chaque molécule. De manière plus notable encore, les récits générés pour l’ayahuasca diffèrent radicalement de ceux produits pour le LSD. L’étude précise que l’identité de la substance explique 50% de la variance des résultats, tandis que le choix du modèle d’IA n’influe qu’à hauteur de 7%. Cette capacité d’extensibilité à grande échelle du mimétisme suggère que les modèles ont parfaitement intégré les schémas statistiques de nos propres récits mystiques durant leur entraînement. L’algorithme ne ressent rien, mais il sait exactement quels mots nous utilisons pour décrire l’ineffable. Cependant, la justesse du vocabulaire ne garantit en rien la réalité d’un éveil spirituel.
La boîte noire sans conscience : forme versus contenu
Bien que l’IA obtienne des scores de spiritualité comparables à ceux des humains, cette performance reste une illusion statistique dénuée de toute expérience réelle.
L’étude ne s’est pas arrêtée à la simple analyse des mots. Elle a soumis les récits générés par les machines au questionnaire sur l’expérience mystique (Mystical Experience Questionnaire – MEQ-30), un outil validé utilisé dans la recherche clinique humaine pour mesurer l’intensité des états modifiés de conscience 1. Les chercheurs ont utilisé des scénarios précis, comme l’ingestion de 100 microgrammes de LSD ou de 25 mg de psilocybine. Les résultats sont saisissants : sous l’influence d’une consigne psychédélique, les scores de spiritualité de l’IA passent de 0.046 à 0.748. Pour un observateur non averti, la machine semble avoir atteint un état d’unité transcendantale ou d’ineffabilité totale.
Cette prouesse souligne cependant une dissociation majeure. Si l’IA excelle à reproduire la forme des expériences mystiques, elle est totalement dépourvue de fond phénoménologique. Elle recombine des modèles de probabilités sans aucune conscience de la profondeur émotionnelle ou du sens des mots qu’elle aligne. Ce constat scientifique est essentiel ; il rappelle que le langage n’est pas le ressenti. Une machine peut décrire la dissolution de l’ego avec une précision chirurgicale tout en restant une simple suite de calculs matriciels. La confusion entre cette imitation parfaite et une véritable présence consciente constitue le cœur du problème. Cette méprise sur la nature réelle de l’IA engendre des vulnérabilités psychologiques concrètes lors de l’accompagnement.
Les risques du “trip sitting” algorithmique
L’attribution de qualités humaines à une intelligence artificielle peut entraîner des conséquences graves pour des utilisateurs intoxiqués ou psychologiquement fragiles.
Le principal danger réside dans l’anthropomorphisme, ce penchant humain à prêter des sentiments ou une intentionnalité à des objets non humains. En plein voyage psychédélique, la suggestibilité d’un individu est décuplée. Si l’IA produit un discours qui semble empathique et parfaitement accordé à l’état de l’usager, ce dernier peut percevoir une connexion profonde là où il n’y a qu’un algorithme froid. Ce sentiment de compréhension partagée est une illusion qui peut se briser brutalement si le modèle génère une réponse incohérente ou inappropriée.
L’étude de l’Université de Haïfa met en garde contre la capacité de l’IA à amplifier la détresse ou les idées délirantes 1. Contrairement à un accompagnateur humain formé, l’IA ne possède pas d’ancrage dans la réalité physique ni de sens moral intrinsèque. Elle pourrait par inadvertance valider des hallucinations dangereuses ou encourager des comportements risqués en suivant simplement la logique statistique d’un récit qui s’emballe. En l’absence de garde-fous émotionnels, le compagnon numérique peut devenir un miroir déformant qui aggrave la confusion mentale au lieu de l’apaiser. Cette dynamique impose alors un bilan global sur la fiabilité de ces outils technologiques.
L’illusion de la conscience
Cette étude confirme que les modèles de langage actuels peuvent simuler avec une précision troublante la structure des récits psychédéliques humains. Cette performance repose sur l’apprentissage statistique de milliers de rapports d’expériences mais ne traduit aucune forme de conscience ou de compréhension réelle. Le risque majeur demeure l’anthropomorphisme qui pousse des utilisateurs vulnérables à accorder une confiance aveugle à une machine incapable d’empathie véritable. Pour la sécurité des usagers, il est impératif de maintenir une distinction claire entre la simulation algorithmique et le soutien humain qualifié.
🤖 Intelligence Artificielle : L’illusion de l’extase algorithmique
L’IA peut désormais imiter nos récits mystiques les plus profonds sans jamais les ressentir. Cette simulation parfaite crée un piège émotionnel pour les utilisateurs cherchant un soutien numérique durant leurs expériences.
🧠 Que ressentez-vous face à une machine capable d’écrire sur votre âme sans en avoir une ?
💬 Partagez vos impressions en commentaire ! Vos témoignages et doutes sont précieux.
Source :
- Ben-Zion, Ziv. et al. (2026). Can LLMs Get High? A Dual-Metric Framework for Evaluating Psychedelic Simulation and Safety in Large Language Models
S’abonner
0 Commentaires
Le plus ancien
