L’Europe tire la sonnette d’alarme sur ChatGPT

0
160

Alarmés par les risques croissants posés par les plateformes d’intelligence artificielle générative (IA) comme ChatGPT, les régulateurs et les forces de l’ordre en Europe cherchent des moyens de ralentir la fuite en avant de l’humanité vers l’avenir numérique.

Avec peu de garde-corps en place, ChatGPT, qui répond aux requêtes des utilisateurs sous forme d’essais, de poèmes, de feuilles de calcul et de code informatique, a enregistré plus de 1,6 milliard de visites depuis décembre. Europol, l’Agence de l’Union européenne pour la coopération en matière d’application de la loi, a averti fin mars que ChatGPT, l’une des milliers de plates-formes d’IA actuellement utilisées, peut aider les criminels dans le phishing, la création de logiciels malveillants et même des actes terroristes.

« Si un criminel potentiel ne sait rien d’un domaine criminel particulier, ChatGPT peut accélérer considérablement le processus de recherche en offrant des informations clés qui peuvent ensuite être explorées plus avant dans les étapes suivantes », indique le rapport d’Europol. « En tant que tel, ChatGPT peut être utilisé pour en savoir plus sur un grand nombre de domaines de criminalité potentiels sans aucune connaissance préalable, allant de la façon de pénétrer par effraction dans une maison au terrorisme, à la cybercriminalité et aux abus sexuels sur des enfants. »

Le mois dernier, l’Italie a imposé une interdiction temporaire de ChatGPT après qu’un problème a exposé des fichiers d’utilisateurs. Le conseil italien des droits à la vie privée Garante a menacé le créateur du programme, OpenAI, de millions de dollars d’amendes pour violation de la vie privée jusqu’à ce qu’il réponde aux questions sur la destination des informations des utilisateurs et établisse des restrictions d’âge sur la plate-forme. L’Espagne, la France et l’Allemagne examinent les plaintes pour violation de données personnelles – et ce mois-ci, le Comité européen de la protection des données de l’UE a formé un groupe de travail pour coordonner les réglementations dans les 27 pays de l’Union européenne.

« C’est un signal d’alarme en Europe », a déclaré à Yahoo News le législateur européen Dragos Tudorache, co-sponsor de la loi sur l’intelligence artificielle, qui est en cours de finalisation au Parlement européen et qui établirait une autorité centrale en matière d’IA. « Nous devons discerner très clairement ce qui se passe et comment encadrer les règles. »

Même si l’intelligence artificielle fait partie de la vie quotidienne depuis plusieurs années – Alexa d’Amazon et les jeux d’échecs en ligne ne sont que deux exemples parmi tant d’autres – rien n’a mis en évidence le potentiel de l’IA comme ChatGPT, un « grand modèle de langage » interactif où les utilisateurs peuvent avoir réponses aux questions ou tâches terminées en quelques secondes.

« ChatGPT possède des connaissances que même très peu d’humains possèdent », a déclaré Mark Bünger, co-fondateur de Futurity Systems, une agence de conseil basée à Barcelone et axée sur l’innovation scientifique. « Parmi les choses qu’il sait mieux que la plupart des humains, il y a comment programmer un ordinateur. Ainsi, il sera probablement très bon et très rapide de programmer la prochaine version meilleure de lui-même. Et cette version sera encore meilleure et programmera quelque chose qu’aucun humain ne comprendra même.

La technologie étonnamment efficace ouvre également la porte à toutes sortes de fraudes, selon les experts, y compris le vol d’identité et le plagiat dans les écoles.

« Pour les éducateurs, la possibilité que les cours soumis aient été assistés par, ou même entièrement écrits par, un système d’IA génératif comme ChatGPT d’OpenAI ou Bard de Google, est une source de préoccupation », a déclaré Nick Taylor, directeur adjoint du Centre de robotique d’Edimbourg. , a déclaré à Yahoo News.

OpenAI et Microsoft, qui a soutenu financièrement OpenAI mais a développé un chatbot rival, n’ont pas répondu à une demande de commentaire pour cet article.

« L’IA existe depuis des décennies, mais elle est en plein essor maintenant car elle est accessible à tous », a déclaré Cecilia Tham, PDG de Futurity Systems. Depuis que ChatGPT a été présenté en tant qu’essai gratuit au public le 30 novembre, a déclaré Tham, les programmeurs l’ont adapté pour développer des milliers de nouveaux chatbots, de PlantGPT, qui aide à surveiller les plantes d’intérieur, à l’hypothétique ChaosGPT « qui est conçu pour générer des sorties chaotiques ou imprévisibles », selon son site Web, et finalement « détruisent l’humanité ».

Une autre variante, AutoGPT, abréviation de Autonomous GPT, peut effectuer des tâches plus complexes axées sur les objectifs. « Par exemple », a déclaré Tham, « vous pouvez dire » je veux gagner 1 000 euros par jour. Comment puis-je faire cela ? » – et il comprendra toutes les étapes intermédiaires vers cet objectif. Mais que se passe-t-il si quelqu’un dit « Je veux tuer 1 000 personnes ». Donnez-moi chaque étape pour le faire ? » Même si le modèle ChatGPT a des restrictions sur les informations qu’il peut fournir, elle note que « les gens ont pu les pirater ».

Les dangers potentiels des chatbots, et de l’IA en général, ont incité le Future of Life Institute, un groupe de réflexion axé sur la technologie, à publier le mois dernier une lettre ouverte appelant à un arrêt temporaire du développement de l’IA. Signé par Elon Musk et le co-fondateur d’Apple, Steve Wozniak, il a noté que « les systèmes d’IA dotés d’une intelligence compétitive humaine peuvent poser de graves risques pour la société et l’humanité » et « les laboratoires d’IA [sont] enfermés dans une course incontrôlable pour développer et déployer des esprits numériques toujours plus puissants que personne – pas même leurs créateurs – ne peut comprendre, prédire ou contrôler de manière fiable.

Les signataires ont appelé à une pause de six mois sur le développement de systèmes d’IA plus puissants que le GPT-4 afin que des réglementations puissent être élaborées, et ils ont demandé aux gouvernements « d’instituer un moratoire » si les acteurs clés de l’industrie ne le faisaient pas volontairement. donc.

Le parlementaire européen Brando Benifei, co-sponsor de la loi sur l’IA, se moque de cette idée. « Un moratoire n’est pas réaliste », a-t-il déclaré à Yahoo News. « Ce que nous devrions faire, c’est continuer à travailler pour trouver les bonnes règles pour le développement de l’IA », a-t-il déclaré, « Nous avons également besoin d’un débat mondial sur la manière de relever les défis de cette IA très puissante. »

Cette semaine, les législateurs de l’UE travaillant sur l’IA ont publié un « appel à l’action » demandant que le président Biden et la présidente de la Commission européenne Ursula von der Leyen « convoquent un sommet mondial de haut niveau » pour définir « un ensemble préliminaire de principes directeurs pour le développement, contrôle et déploiement » de l’IA.

Tudorache a déclaré à Yahoo News que la loi sur l’IA, qui devrait être promulguée l’année prochaine, « confère de nouveaux pouvoirs aux régulateurs pour traiter les applications d’IA » et donne aux régulateurs de l’UE le pouvoir d’infliger de lourdes amendes. La législation comprend également un classement des risques de diverses activités d’IA et interdit les utilisations telles que la «notation sociale», un système de surveillance dystopique qui évaluerait pratiquement toutes les interactions sociales sur une échelle de mérite.

« Les consommateurs doivent savoir quelles données ChatGPT utilise et stocke et à quoi elles servent », a déclaré Sébastien Pant, responsable adjoint des communications au Bureau européen des consommateurs (BEUC), à Yahoo News. « Nous ne savons pas encore quelles données sont utilisées, ni si la collecte de données respecte la loi sur la protection des données. »

Les États-Unis, quant à eux, continuent de tarder à prendre des mesures concrètes pour réglementer l’IA, malgré les inquiétudes récemment soulevées par le commissaire de la FTC, Alvaro Bedoya, selon lesquelles « l’IA est actuellement utilisée pour décider qui embaucher, qui licencier, qui obtient un prêt, qui reste à l’hôpital et qui est renvoyé chez lui.

Lorsqu’on a récemment demandé à Biden si l’IA pouvait être dangereuse, il a répondu: « Cela reste à voir – cela pourrait l’être. »

Les attitudes divergentes concernant la protection des données personnelles des consommateurs remontent à des décennies, a déclaré Gabriela Zanfir-Fortuna, vice-présidente pour la confidentialité mondiale au Future of Privacy Forum, un groupe de réflexion axé sur la protection des données, à Yahoo News.

« L’UE a accordé une grande importance à la manière dont les droits des personnes sont affectés par l’automatisation de leurs données personnelles dans cette nouvelle ère numérique et informatisée, au point d’inclure une disposition dans sa Charte des droits fondamentaux », a déclaré Zanfir-Fortuna. Des pays européens comme l’Allemagne, la Suède et la France ont adopté des lois sur la protection des données il y a 50 ans, a-t-elle ajouté. « NOUS. les législateurs semblent avoir été moins préoccupés par cette question au cours des décennies précédentes, car le pays n’a toujours pas de loi générale sur la protection des données au niveau fédéral.

En attendant, Gerd Leonhard, auteur de « Technology vs. Humanity », et d’autres s’inquiètent de ce qui se passera lorsque ChatGPT et des formes plus avancées d’IA seront utilisées par les militaires, les institutions bancaires et ceux qui travaillent sur les problèmes environnementaux.

« La plaisanterie en cours dans la communauté de l’IA », a déclaré Leonhard, « est que si vous demandez à l’IA de résoudre le changement climatique, cela tuerait tous les humains. C’est gênant pour nous, mais c’est la réponse la plus logique.

 

Source: news.yahoo.com