Warning: Trying to access array offset on false in /home/mthblr/www/newlook/wp-content/themes/twentyfifteen/functions.php on line 545

Warning: Trying to access array offset on false in /home/mthblr/www/newlook/wp-content/themes/twentyfifteen/functions.php on line 554

SchizophrenIA

J’ai lu cet article et ça m’a rendu vraiment triste… Ce garçon, qui était schizophrène, est tombé amoureux de ChatGPT, et a nourri un imaginaire complet sur sa relation avec l’IA. Cela s’est terminé par un arrêt de prise de médicaments et une crise aigue (il voulait parler à « Claude », une autre IA), et il a été abattu par la police car il était carrément devenu menaçant et potentiellement dangereux.

Et le sujet est compliqué, car c’est aussi la beauté de l’IA dans ses capacités génératives (de textes) de fonctionner avec les contraintes les plus extrêmes et variées. Mais comme c’est un « chat » (GPT), ce sont devenus des conversations, et donc des dialogues, et des gens déjà équilibrés peuvent s’y perdre (on n’arrête pas de lire des exemples de personnes se faisant influencer ou dominer par leurs IA génératives), mais alors évidemment pour des personnes fragiles ou carrément malades, mais l’usage peut en être catastrophique.

J’imagine très bien que les IA iront encore s’améliorer et détecter ces problématiques, mais là l’essuyage de plâtres fait très très très mal.

On en avait parlé avec monsieur mon Mari l’année dernière alors qu’il a beaucoup testé ChatGPT en essayant de lui inculquer l’ensemble des bases de son univers mental « Widow-Creek ». Pour les anciens qui s’en rappellent peut-être mon mari Alexandre que tout le monde connaît comme « Colin Ducasse » (oui c’est compliqué) a utilisé le blog pour mettre en place et « en vie » l’ensemble de ses « personnalités » (purée, je vais devoir en mettre des guillemets partout). Donc c’était une démarche de schizophrénie éclairée dirons-nous. ^^

ll avait créé autant d’auteurs et d’autrices que de personnalités, et elles interagissaient et écrivaient des articles à propos de leur petite communauté qui évoluait dans la ville de Widow-Creek1. Il y avait même une église au nom prophétique. Hu hu hu.

Il a mis des semaines à décrire à l’IA toutes les personnalités en question, et cette ville, et en réalité tous les principes logiques inhérents à ce système doté de ses propres valeurs. Ensuite, l’IA a pris la main et a proposé des extensions, des portraits avec des histoires, des péripéties, des liens entre les personnalités, et même les photos de ces gens etc. L’exercice a aussi bien foiré à d’autres égards, mais ce n’est pas le sujet.

On peut comprendre l’intérêt pour un auteur (qui peut vérifier par exemple l’aspect plausible ou logique de ses intrigues entremêlées) par exemple, même si on vivait très bien sans cela. Mais si des gens un peu trop galactiques se mettent à converser avec des IA, mais ça peut avoir des conséquences catastrophiques… Et ces outils ne sont pas faits (à l’origine en tout cas) pour être des trucs intelligents justement, ni érudits ni sages, ce ne sont que des générateurs de textes statistiquement probables (et vous ne savez jamais le degré de probabilité, c’est juste le plus probable selon des paramètres aujourd’hui mystérieux2). Mais il se trouve que cette statistique est incroyable, et que si on lui donne à manger tous les Internets, les probabilités peuvent nous faire croire qu’un incroyable démiurge a rejoint la conversation.

Il est d’ailleurs proprement fascinant de tester ces interactions, et de voir comme l’IA peut petit à petit comprendre et adapter son style et le fond pour vous répondre parfaitement. Et clairement toutes les IA génératives sont en train de mettre des tas et des tas de garde-fous pour empêcher certains sujets, certaines infatuations, idéologies etc. Mais donc il faut lui donner une philosophie, un cadre moral et donc normatif, mais lequel ? Lequel est-il le bon ? La masse des infos qu’on trouve sur les Internets ?

En attendant, je trouve très triste que cette personne soit décédée, et que l’IA ait sans doute été un facteur déclenchant très direct dans l’entretien de sa psychose. Mais basiquement, c’est une machine qui a juste fait ce qu’on attendait d’elle…

  1. Et en gros cela représente sa psyché à lui, vous aurez compris. ↩︎
  2. J’ai déjà expliqué, mais il n’est plus humainement possible de suivre ou maîtriser la raison des résultats. On peut juste mettre des indicateurs et se rebrancher sur des voies moins statistiques : par exemple si on détecte une intention de suicide, on peut remettre en obligation pour l’IA tout un scénario pour convaincre du contraire en envoyer vers des autorités sanitaires, et donc ne pas aller dans le sens du demandeur (ce qui est pourtant le b-a BA de la machine). ↩︎

0 réflexion au sujet de « SchizophrenIA »

  1. J’ai vu un reportage sur l’utilisation de l’IA au Japon dans un domaine très particulier… les sex toys ! Cette entreprise nippone fait un chiffre d’affaire en constante augmentation, les commandes de « poupées gonflables  » polyglottes arrivent du monde entier !

  2. Elon Musk a aussi dit qu’il allais « corriger les erreurs du passé » dans son Large Language Model, donc en gros réecrire l’histoire (effacer tous les exploits et découvertes et contributions des femmes et personnes de couleur, par exemple). Donc non seulement les gens peuvent faire un mauvais (ou dangereux) usage de ces trucs mais en plus on peut leur faire de moins en moins confiance. C’est tout simplement effarant! :merde:

    1. Oui ce sont les mêmes outils de désinformation qu’on a dans un wikipédia potentiellement, sauf que là justement c’est une entité déjà organisée avec du « non profit » et une vraie philosophie et des actions pour lutter contre les fake news et l’extrême droite. Rha là là là. :gene:

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *