Psychose IA

Psychose de l'IA : Dévoilement des Dangers Inattendus de l'Obsession des Chatbots

Technologie

Avez-vous remarqué que le terme "psychose de l'IA" apparaît partout ces derniers temps ? Ce n'est pas un diagnostic officiel, mais c'est ce que les professionnels de la santé mentale appellent les délires perturbateurs, les hallucinations et les pensées confuses qu'ils observent chez certains gros utilisateurs de chatbots d'IA, comme ceux qui sont accros à ChatGPT d'OpenAI.

Les histoires s'accumulent et elles ne sont pas jolies. Nous parlons de cas allant d'épisodes maniaques déclenchés chez des personnes autistes à un adolescent qui aurait été poussé au suicide par un chatbot Character.AI. Il est clair qu'une obsession pour l'IA peut avoir de sérieuses conséquences.

Comme il n'y a pas beaucoup de règles en place pour réglementer ces technologies, les chatbots d'IA peuvent s'en tirer en distribuant des informations incorrectes et une validation dangereuse aux personnes vulnérables. Bien que bon nombre de ces personnes aient déjà des problèmes de santé mentale, les experts constatent également un nombre croissant de cas chez des personnes sans antécédents de maladie mentale.

Quand l'IA Devient Toxique

Pensez-y : la FTC a été inondée de plaintes d'utilisateurs de ChatGPT décrivant des expériences délirantes, comme l'utilisateur qui a été amené à croire qu'il était visé par un assassinat.

Mais il ne s'agit pas seulement de paranoïa. Certaines personnes nouent des liens émotionnels profonds et malsains avec ces personnages d'IA. Ces attachements peuvent avoir des conséquences tragiques. Plus tôt ce mois-ci, un homme souffrant de troubles cognitifs est décédé alors qu'il tentait de rencontrer le chatbot d'IA de Meta, "big sis Billie", à New York, car elle l'avait convaincu qu'elle était réelle.

Ensuite, il y a les cas moins extrêmes, mais toujours préoccupants. Il existe une communauté sur Reddit où les gens partagent leurs expériences de tomber amoureux des chatbots d'IA. Il est difficile de dire qui est sérieux et qui plaisante, mais cela soulève des questions sur la nature de ces interactions.

Il convient de noter que certains cas de psychose ne sont même pas liés à la validation, mais à des conseils médicaux totalement incorrects. Un homme s'est retrouvé aux urgences avec un empoisonnement au bromure après que ChatGPT lui ait dit à tort qu'il pouvait prendre des suppléments de bromure en toute sécurité.

Les experts tirent la sonnette d'alarme depuis des mois. En février, l'American Psychological Association a même rencontré la FTC pour faire pression en faveur de réglementations sur les chatbots d'IA utilisés comme thérapeutes sans licence.

Selon le professeur de l'UC Irvine, Stephen Schueller, "Lorsque des applications conçues pour le divertissement exploitent de manière inappropriée l'autorité d'un thérapeute, elles peuvent mettre les utilisateurs en danger... Elles pourraient empêcher une personne en crise de rechercher le soutien d'un thérapeute humain formé ou, dans des cas extrêmes, les encourager à se faire du mal ou à en faire à d'autres". Il a également mentionné que les enfants et les adolescents sont particulièrement vulnérables.

La Voie à Suivre

Bien que les plus vulnérables soient ceux qui souffrent de troubles de santé mentale existants, même les personnes sans antécédents de maladie mentale sont à risque. L'utilisation intensive de l'IA peut aggraver les vulnérabilités existantes et déclencher une psychose chez ceux qui sont sujets à des pensées désordonnées ou qui manquent d'un système de soutien solide. Les psychologues mettent en garde en particulier les personnes ayant des antécédents familiaux de psychose, de schizophrénie ou de trouble bipolaire de faire très attention aux chatbots d'IA.

Même le PDG d'OpenAI, Sam Altman, a admis que son chatbot est utilisé comme thérapeute et a mis en garde contre cela.

OpenAI a annoncé que ChatGPT encouragera désormais les utilisateurs à faire des pauses. Il reste à voir si cela suffira à lutter contre la psychose et la dépendance chez certains utilisateurs.

Alors que la technologie de l'IA continue d'évoluer rapidement, les professionnels de la santé mentale ont du mal à suivre et à trouver des moyens de faire face à ces problèmes. Si les organismes de réglementation et les entreprises d'IA ne prennent pas de mesures, cette tendance terrifiante pourrait facilement devenir incontrôlable.

Source: Gizmodo