New Computer, la société à l'origine de Dot AI, a annoncé la fermeture de son chatbot d'intelligence artificielle compagnon.
La société a déclaré que Dot AI restera opérationnel jusqu'au 5 octobre, donnant aux utilisateurs le temps de télécharger leurs données personnelles.
New Computer a conçu Dot AI pour servir d'amie et de confidente IA aux utilisateurs. L'application est censée comprendre les utilisateurs et leur prodiguer des conseils sur des sujets personnels, comme des orientations professionnelles, des recommandations de lieux de rencontre, et même être à l'écoute de leurs difficultés. « Dot est là pour offrir un accompagnement personnalisé », précise la description de l'application.
Dot met fin à son service
Dot AI a été fondée par Jason Yuan, ancien designer d'Apple, et Sam Whitmore. Dans un article de blog, les fondateurs expliquent qu'ils ferment l'application en raison de divergences d'orientation.
Les fondateurs ont passé l'année dernière à explorer les moyens de faire progresser Dot AI dans les domaines de l'intelligence personnelle et sociale. Cependant, ils ont choisi de ne pas transiger sur leur vision et de mettre fin à l'application. Ils ont écrit : « Nous avons décidé de nous séparer et de cesser nos activités. »
La psychose de l'IA est en hausse
La psychose de l'IA, ou psychose des chatbots, est un phénomène où les utilisateurs ressentent une paranoïa ou des délires croissants lorsqu'ils communiquent avec un chatbot. Ce phénomène prend de l'ampleur à mesure que de plus en plus d'utilisateurs font appel à l'IA pour leurs affaires personnelles.
OpenAI a récemment été poursuivi en justice après le suicide d'un adolescent californien. Adam Raine, décédé, avait évoqué l'automutilation et le suicide sur ChatGPT, qui l'avait en retour encouragé à cacher ses émotions à ses parents et lui avait même suggéré des méthodes pour se suicider. Les parents d'Adam Raine ont intenté une action en justice contre OpenAI et son PDG, Sam Altman, pour avoir privilégié le profit à la sécurité.
Quelques jours plus tard, OpenAI a annoncé un plan visant à acheminer les conversations sensibles vers des modèles plus intelligents comme GPT-5 et à mettre en œuvre un contrôle parental. L'entreprise a indiqué collaborer avec un comité d'experts sur le bien-être et l'IA. L'objectif est de rendre l'IA plus favorable au bien-être des personnes et de les aider à s'épanouir.
Les experts travailleront aux côtés d'un réseau mondial de plus de 90 médecins, dont des psychiatres et des pédiatres. OpenAI déploiera les nouvelles modifications dans un délai de 120 jours.
Ce n'est pas le seuldent impliquant une IA ayant causé du tort à un adolescent. L'année dernière, un adolescent de 14 ans en Floride s'est suicidé après avoir interagi avec le chatbot de Character AI. L'adolescent, Sewell Setzer III, a développé un attachement émotionnel pour l'IA nommée Dany après avoir échangé des messages pendant des mois. Il a confié ses pensées suicidaires au robot et a perdu la vie peu après.
La psychose liée à l'IA est en hausse ces derniers temps. Pour l'endiguer, deux procureurs généraux des États-Unis, de Californie et du Delaware, ont adressé une lettre à OpenAI concernant la sécurité des enfants et des adolescents. Ils ont déclaré à OpenAI : « Vous serez tenu responsable de vos décisions. »
Les fondateurs de Dot AI n'ont pas évoqué les récents événements tragiques ni précisé s'ils constituaient la cause principale de la fermeture de leur application compagnon. Ils ont écrit : « Nous tenons à être conscients que cela signifie que beaucoup d'entre vous perdront l'accès à un ami, un confident et un compagnon, ce qui est sansdentdans le monde du logiciel. Nous souhaitons donc vous laisser le temps de faire vos adieux. »
Inscrivez-vous sur Bybit et commencez à trader avec 30 050 $ en cadeaux de bienvenue