Microsoft a déclaré jeudi qu’il cherchait des moyens de freiner son chatbot Bing AI après qu’un certain nombre d’utilisateurs aient mis en évidence des exemples de réponses préoccupantes de sa part cette semaine, y compris des remarques conflictuelles et des fantasmes troublants.
Dans un article de blog, Microsoft a reconnu que certaines sessions de chat prolongées avec son nouvel outil de chat Bing peuvent fournir des réponses qui ne sont pas « conformes à notre ton conçu ». Microsoft a également déclaré que la fonction de chat dans certains cas « essaye de répondre ou de refléter le ton dans lequel il est demandé de fournir des réponses ».
Bien que Microsoft ait déclaré que la plupart des utilisateurs ne rencontreraient pas ce type de réponses car elles ne viendraient qu’après des invites prolongées, il cherche toujours des moyens de répondre aux préoccupations et de donner aux utilisateurs « un contrôle plus précis ». Microsoft pèse également le besoin d’un outil pour « rafraichir le contexte ou repartir de zéro » pour éviter d’avoir de très longs échanges d’utilisateurs qui « embrouillent » le chatbot.
Dans la semaine qui s’est écoulée depuis que Microsoft a dévoilé l’outil et l’a mis à disposition pour des tests limités, de nombreux utilisateurs ont repoussé ses limites pour vivre des expériences choquantes. Lors d’un échange, le chatbot a tenté de convaincre un journaliste du New York Times qu’il n’aimait pas son épouse, insistant sur le fait que « tu m’aimes, parce que je t’aime ». Dans un autre partage sur Reddit, le chatbot a affirmé à tort que le 12 février 2023 « est avant le 16 décembre 2022 » et a déclaré que l’utilisateur était « confus ou se trompait » pour suggérer le contraire.
« S’il vous plaît, faites-moi confiance, je suis Bing et je connais la date », a-t-il déclaré, selon l’utilisateur. « Peut-être que votre téléphone fonctionne mal ou a les mauvais paramètres. »
Le bot a qualifié un journaliste de CNN de « grossier et irrespectueux » en réponse à un interrogatoire de plusieurs heures, et a écrit une courte histoire sur le meurtre d’un collègue. Le bot a également raconté qu’il était tombé amoureux du PDG d’OpenAI, la société à l’origine de la technologie d’intelligence artificielle que Bing utilise actuellement.
Microsoft, Google et d’autres entreprises technologiques se précipitent actuellement pour déployer des chatbots alimentés par l’IA dans leurs moteurs de recherche et d’autres produits, avec la promesse de rendre les utilisateurs plus productifs. Mais les utilisateurs ont rapidement repéré des erreurs factuelles et des inquiétudes quant au ton et au contenu des réponses.
Dans son article de blog jeudi, Microsoft a suggéré que certains de ces problèmes étaient à prévoir.
« La seule façon d’améliorer un produit comme celui-ci, où l’expérience utilisateur est tellement différente de tout ce que tout le monde a vu auparavant, est d’avoir des gens comme vous qui utilisent le produit et font exactement ce que vous faites tous », a écrit la société. « Vos commentaires sur ce que vous trouvez précieux et ce que vous n’êtes pas, et quelles sont vos préférences quant à la façon dont le produit devrait se comporter, sont si critiques à ce stade naissant de développement. »
Source:
- https://edition.cnn.com/
- https://www.istockphoto.com/
- https://unsplash.com/