OpenAI semble annoncer de nouveaux modèles d’IA d’ici la semaine pour améliorer son chatbot Chatgpt pour l’amélioration de ses 400 tens of millions d’utilisateurs. Cependant, la facilité que l’outil d’IA offre semble prouver qu’il est doable d’avoir trop de bonnes choses.
La société d’intelligence artificielle se plonge maintenant dans les ramifications psychologiques potentielles que Chatgpt pourrait avoir sur ses utilisateurs. Openai a publié les résultats d’un étude en deux parties Terminé aux côtés du MIT Media Lab, qui a découvert un lien entre une utilisation accrue du chatbot Chatgpt et des sentiments de solitude accrus des utilisateurs.
Chaque organisation a mené une étude indépendante, puis a compilé les résultats à une conclusion consolidée. L’étude d’OpenAI a examiné plus d’un mois «plus de 40 tens of millions d’interactions Chatgpt», qui n’incluaient pas la participation humaine pour maintenir la confidentialité des utilisateurs. Pendant ce temps, le MIT a observé environ 1 000 contributors utilisant Chatgpt sur 28 jours. Actuellement, les études n’ont pas encore été évaluées par les pairs.
L’étude du MIT a plongé dans différentes fonctions d’utilisation qui pourraient affecter l’expérience émotionnelle des utilisateurs en interagissant avec Chatgpt, y compris en utilisant du texte ou de la voix. Les résultats ont révélé que soit le assist avait le potentiel de provoquer de la solitude ou d’affecter la socialisation des utilisateurs pendant la période de l’étude. L’inflexion vocale et le choix du sujet étaient également un level de comparaison majeur.
Un ton neutre utilisé en mode vocal de Chatgpt était moins inclined de conduire à un résultat émotionnel négatif pour les contributors. Pendant ce temps, l’étude a observé une corrélation entre les contributors ayant des conversations personnelles avec Chatgpt et la probabilité accrue de solitude; Cependant, ces effets étaient à court docket terme. Ceux qui utilisent le chat textuel pour converser sur des sujets généraux ont connu des situations accrues de dépendance émotionnelle à l’égard du chatbot.
L’étude a également observé que ceux qui ont déclaré voir Chatgpt comme un ami, et ceux qui avaient déjà une propension à un fort attachement émotionnel dans les relations, étaient plus susceptibles de se sentir plus solidaires et plus dépendant émotionnellement du chatbot lors de la participation à l’étude.
L’étude d’OpenAI a ajouté un contexte supplémentaire, ses résultats notant dans l’ensemble que l’interplay avec le chatppt à des fins émotionnelles était uncommon. De plus, l’étude a révélé que même parmi les lourds utilisateurs qui ont mis en œuvre la fonctionnalité de mode vocale avancé sur le chatbot et étaient plus susceptibles de répondre à qu’ils considéraient Chatgpt comme un ami, ce groupe de contributors a connu de faibles réactions émotionnelles pour interagir avec le chatbot.
OpenAI a conclu que son intention avec ces études est de comprendre les défis qui pourraient survenir en raison de sa technologie, ainsi que de pouvoir définir des attentes et des exemples sur la façon dont ses modèles devraient être utilisés.
Alors qu’Openai suggère que son étude basée sur les interactions simule les comportements des vraies personnes, plus de quelques vrais humains ont admis sur les boards publics, comme redditpour utiliser Chatgpt à la place d’aller chez un thérapeute avec leurs émotions.