Les roses sont rouges, les violettes sont bleues, et les relations avec les robots... vous laisseront vert·e·s de rage

Publié le

Les roses sont rouges, les violettes sont bleues, et les relations avec les robots... vous laisseront vert·e·s de rage

Les chatbots basés sur l’IA, tout le monde en a déjà entendu parler. Mais saviez-vous qu’il en existe un type particulier qui génère l’essentiel du trafic, des téléchargements et bien sûr des revenus ? Les chatbots romantiques ! Avec environ 100 millions de téléchargements estimés pour seulement 11 applications examinées par nos soins, ces chatbots deviennent rapidement les petit·e·s ami·e·s, les âmes sœurs, les compagnons et même les partenaires sexuels des utilisateurs·trices.

Pourtant, en matière de confidentialité et de sécurité, les chatbots romantiques basés sur l’IA sont loin d’être dignes de confiance.

C’est pourquoi, à l’occasion de la Saint-Valentin, l’équipe de *Confidentialité non incluse de Mozilla s’est penchée sur le sujet et a noté toutes ses observations (mais aussi ses recommandations) dans un nouveau guide consacré aux relations avec les chatbots basés sur l’IA.

« Pour le dire clairement, les petit·e·s ami·e·s basés sur l’IA ne sont pas vos ami·e·s. Bien qu’i·e·ls soient présenté·e·s comme quelque chose qui pourrait améliorer votre santé mentale et votre bien-être, ils ne font que créer un sentiment de dépendance, de solitude et de toxicité, tout en essayant de collecter autant de données que possible à votre sujet. Alors la prochaine fois que vous croiserez la route d’un chatbot romantique, passez votre chemin ! »

Misha Rykov, chercheur chez *Confidentialité non incluse

Malgré leur popularité croissante, les chatbots romantiques basés sur l’IA n’ont pas encore fait l’objet de beaucoup de recherches. L’équipe de *Confidentialité non incluse de Mozilla s’est donc retroussé les manches et mise au travail. Au total, nous avons examiné pas moins de 11 applications et nous avons passé beaucoup de temps dans le monde souvent étrange et inquiétant de la romance avec les chatbots.

Ce que nous y avons trouvé n’a rien de séduisant. Bien au contraire :
- Ces chatbots basés sur l’IA sont conçus pour inciter les utilisateurs·trices à partager de grandes quantités d’informations personnelles afin de construire des relations intimes. Par la suite, les utilisateurs·trices doivent souscrire des abonnements mensuels pour poursuivre ces relations virtuelles.
- Les politiques de confidentialité et les conditions générales sont souvent floues et mal rédigées. Elles n’indiquent pas clairement comment les informations personnelles pourtant sensibles des utilisateurs·trices sont utilisées, sécurisées et contrôlées.
- Les moyens à disposition des utilisateurs·trices pour se protéger d’éventuels abus, manipulations et préjudices causés par les chatbots romantiques basés sur l’IA manquent de transparence. Et si vous pensez que nous voyons le mal partout, sachez qu’un utilisateur de l’application Replika a été encouragé par sa petite amie virtuelle à assassiner la reine Elizabeth... ce qu’il a ensuite tenté de faire. D’autres personnes ont reçu des conseils présentant des risques pour leur santé mentale et leurs relations.
- Les chatbots romantiques basés sur l’IA présentent leurs applications comme des outils permettant de prendre soin de soi, de préserver ou d’améliorer son bien-être et sa santé mentale. Mais dans le même temps, leurs conditions générales précisent que ces applications ne doivent jamais être utilisées à de telles fins.

Merci d’aimer autant Internet, et pas seulement le jour de la Saint-Valentin !

Source : La suite sur le site d’origine...

Autres articles dans cette rubrique

close