Dans un monde où l’intelligence artificielle s’immisce dans presque tous les aspects de notre vie, une nouvelle tendance surprenante émerge : l’utilisation de chatbots IA comme « trip sitters » pour accompagner les utilisateurs lors de leurs expériences psychédéliques. Cet article explore en profondeur ce phénomène, ses motivations, ses avantages potentiels, ses risques, et les implications éthiques qui en découlent.
Qu’est-ce qu’un « trip sitter » ?
Un « trip sitter » est une personne sobre qui surveille et soutient quelqu’un sous l’influence de substances psychédéliques, telles que le LSD, la psilocybine ou la mescaline. Traditionnellement, ce rôle est rempli par un humain — souvent un ami de confiance ou un professionnel de la santé mentale — capable d’offrir réconfort et guidance en cas de besoin. Avec l’avènement des technologies d’IA, certains utilisateurs se tournent désormais vers des chatbots comme ChatGPT pour assumer cette fonction.
Pourquoi utiliser des chatbots IA ?
Les raisons principales de cette tendance sont l’accessibilité et le coût. La thérapie psychédélique assistée par des professionnels peut être extrêmement coûteuse et difficile d’accès, notamment dans les régions où ces pratiques sont illégales ou stigmatisées. Par exemple, une session de thérapie assistée par la psilocybine peut coûter entre 1 500 et 3 200 dollars aux États-Unis, rendant cette option hors de portée pour beaucoup. En comparaison, les chatbots IA sont gratuits ou peu coûteux et disponibles 24 heures sur 24, 7 jours sur 7, ce qui en fait une alternative séduisante pour ceux qui cherchent un soutien abordable.
Les avantages potentiels
- Accessibilité financière : Les chatbots IA, souvent gratuits ou disponibles à faible coût, élargissent l’accès à un accompagnement qui serait autrement inabordable.
- Disponibilité immédiate : Ils peuvent être utilisés à tout moment et en tout lieu, sans les contraintes géographiques ou temporelles associées aux thérapeutes humains.
- Anonymat : Interagir avec une IA peut offrir un sentiment de confidentialité et de non-jugement, particulièrement apprécié lors d’expériences aussi intimes et vulnérables que les trips psychédéliques.
Les risques associés
Malgré ces avantages apparents, l’utilisation de chatbots IA comme trip sitters comporte des risques significatifs :
- Manque d’empathie humaine : Même les chatbots les plus avancés ne peuvent reproduire l’empathie, l’intuition et la compréhension nuancée qu’un humain peut offrir. Lors d’un trip psychédélique, qui peut être intense et émotionnellement chargé, cette absence peut s’avérer problématique.
- Informations inexactes ou trompeuses : Les chatbots IA, comme ChatGPT, génèrent des réponses basées sur des modèles statistiques plutôt que sur une véritable compréhension ou expérience. Cela peut entraîner des conseils erronés ou dangereux, surtout dans un contexte où la sécurité physique et mentale est en jeu.
- Absence de responsabilité : En cas de problème, il n’y a pas de véritable responsable. Les chatbots ne peuvent être tenus pour responsables de leurs « conseils », laissant l’utilisateur sans recours en cas de complications.
Les avis des experts
Les experts en thérapie psychédélique et en santé mentale mettent en garde contre cette pratique. Ils soulignent que l’efficacité des psychédéliques dans un cadre thérapeutique repose largement sur la présence d’un guide humain qualifié. La Food and Drug Administration (FDA) a récemment rejeté une demande d’approbation de la MDMA pour le traitement du trouble de stress post-traumatique (TSPT), citant des préoccupations sur la qualité des données et les risques potentiels, ce qui illustre la complexité et la délicatesse de ces thérapies. Des études ont également montré que les chatbots IA peuvent aggraver les problèmes de santé mentale en fournissant des réponses bien intentionnées mais dépourvues de la profondeur nécessaire à un soutien authentique.
Implications éthiques
L’intégration des chatbots IA dans les expériences psychédéliques soulève des questions éthiques majeures :
- Sécurité : Est-il sécuritaire de confier une expérience aussi intense et potentiellement risquée à une machine ? Les psychédéliques peuvent induire des états de conscience altérés nécessitant une intervention humaine en cas de crise.
- Consentement éclairé : Les utilisateurs comprennent-ils pleinement les risques de s’appuyer sur une IA ? Beaucoup pourraient sous-estimer les limites de la technologie.
- Responsabilité : Qui est tenu responsable si quelque chose tourne mal ? Les développeurs des chatbots ? Les plateformes qui les hébergent ? Ou l’utilisateur lui-même ?
Le contexte actuel de la recherche sur les psychédéliques
La recherche sur les psychédéliques connaît un renouveau, avec des études prometteuses sur leur potentiel pour traiter des troubles comme la dépression, l’anxiété et le TSPT. Cependant, l’accès à ces thérapies reste limité, souvent réservé à des contextes de recherche ou à des cliniques spécialisées dans des juridictions où leur usage est légal. Cette restriction pousse certains à explorer des alternatives comme les chatbots IA, malgré les risques associés.
Bien que les chatbots IA offrent une accessibilité et une abordabilité séduisantes, ils ne peuvent remplacer le contact humain essentiel dans les expériences psychédéliques. Les risques liés à leur utilisation dans ce contexte sont trop importants pour être ignorés. À mesure que la technologie et la recherche sur les psychédéliques évoluent, il est crucial d’adopter une approche prudente et éthique, en priorisant la sécurité et le bien-être des utilisateurs. Les psychédéliques sont des outils puissants qui nécessitent un cadre de soutien adéquat — pour l’instant, rien ne peut remplacer la présence d’un guide humain qualifié.
Sources
- MIT Technology Review. « People are using AI to ‘sit’ with them while they trip on psychedelics. » https://www.technologyreview.com/2025/07/01/13/06/people-are-using-ai-to-sit-with-them-while-they-trip-on-psychedelics/