Le nouvel outil ChatGPT garantit que vous n’êtes jamais pris pour avoir utilisé l’IA

0
177

Ils vont AI-ncognito.

Vous n’aimez pas l’idée que des informaticiens regardent vos messages ChatGPT privés ?

Ne pas craindre : la société mère OpenAI a dévoilé un nouveau mode furtif qui protège les conversations des utilisateurs des regards indiscrets des employés, ainsi que des fuites potentielles.

« Nous allons de plus en plus aller dans cette direction en donnant la priorité à la confidentialité des utilisateurs », a déclaré à Reuters Mira Murati, directrice de la technologie de la société de la Silicon Valley, à propos de la mesure de promotion de la confidentialité.

Semblable au « mode incognito » d’un navigateur Web, la nouvelle fonctionnalité, publiée mardi, permet aux purs et durs de l’IA de désactiver « Historique des discussions et formation » dans les paramètres.

Cela signifie – en théorie – que GPT ne stockera plus un recueil des discussions précédentes de l’utilisateur, et celles-ci ne seront pas non plus examinées par des « formateurs d’IA pour améliorer nos systèmes », conformément à la politique stipulée sur le site.

Murati a déclaré que la mesure faisait partie d’une campagne de confidentialité d’un mois visant à mettre les utilisateurs « dans le siège du conducteur » concernant la collecte de données.

« C’est complètement étranger et les modèles sont super alignés : ils font les choses que vous voulez faire », a insisté l’expert en technologie.

Cette mesure intervient au milieu d’une augmentation des problèmes de confidentialité entourant ChatGPT.

Le mois dernier, les régulateurs italiens ont interdit le bot soutenu par Microsoft à la suite d’une violation de données signalée, qui a sonné l’alarme sur la confidentialité des utilisateurs et la sécurité des enfants.

L’agence a déclaré qu’OpenAI n’avait « aucune base légale » pour collecter les données des utilisateurs qui étaient collectées « pour former les algorithmes qui alimentent la plate-forme ».

Les GPTers ont pris conscience du problème après avoir remarqué que leur fonction d’historique affichait des conversations inconnues d’étrangers apparents.

« Nous nous sentons mal à ce sujet », a tweeté le PDG d’OpenAI, Sam Altman, à propos de la fuite, qui, heureusement, n’a pas révélé l’identité des utilisateurs.

 

Source: nypost.com