Site icon Groupe DPSE | 1er cabinet expert en protection des données à caractère personnel en Afrique

Les risques liés à l’utilisation abusive de chatGPT dans les entreprises et les solutions pour y remédier

Ces dernières années ont vu naitre l’apparition et l’utilisation abusive des chatbots[1] dans divers secteurs d’activités. Et une des technologies les plus à la pointe du développement des chatbots est ChatGpt[2], un modèle de langage formé par l’entreprise OpenAI.


L’avènement de ChatGPT et de certains modèles d’Intelligence Artificielle (IA) a suscité un engouement réel pour tous les utilisateurs. Cependant, lorsque cet engouement est manifesté par les employés dans les entreprises, cela peut devenir inquiétant.

En effet, une fois qu’ils ont compris le mode de fonctionnement et d’exploitation, les employés utilisent ChatGPT pour simplifier leurs tâches, comme répondre à des mails, préparer des présentations ou coder des logiciels. Et le plus inquiétant est que ceux-ci soumettent parfois à ChatGPT, des requêtes contenant des données sensibles. Ainsi, selon une étude de la société de cybersécurité Cyberhaven, « les données produites révèlent que de plus en plus d’employés utilisent ChatGPT sur leur lieu de travail et y collent les données de l’entreprise ».

D’aucuns diront qu’il n’y a pas de souci à se faire, mais prenons le cas tangible d’un médecin qui veut rédiger une note pour un patient et va coller toutes les informations qu’il a sur celui-ci dans ChatGPT en lui demandant de rédiger cette note et de la dater. Cependant, si un autre internaute plus tard s’amusait à demander à ChatGPT une note à partir des maladies du patient dont les informations ont été remplit, l’internaute pourrait se retrouver en possession des secrets les plus intimes, puisque l’intelligence artificielle génère les données qu’on lui fournit pour les réutiliser.

Un autre cas est qu’un cadre d’une entreprise pourrait utiliser un document de stratégie pour demander à l’IA de préparer des diapositives des points principaux. Là encore, une recherche ultérieure sur les points principaux de cette entreprise pour l’année X pourrait ressortir ce qui a été préparé pour le cadre.

Face à ces pratiques inquiétantes, d’énormes risques apparaissent tant pour les salariés eux-mêmes, mais surtout pour l’entreprise dans laquelle ils exercent.

Les premiers sont les risques liés aux fuites et divulgation d’informations

Des données minimes soient elles, lorsqu’elles sont rentrées dans ChatGPT pourraient constituer une masse élevée et accrue d’informations vue la manière exponentielle dont ChatGPT croît. Selon la même étude de Cyberhaven, « Au cours de la semaine du 26 février au 4 mars, les employés d’une entreprise moyenne de 100.000 employés ont mis 199 fois des documents confidentiels dans ChatGPT, 173 fois des données client et 159 fois du code source ». Ce qui révèle que l’une des sources des fuites des données des entreprises sont commises par les employés.

L’autre risque le plus alarmant serait la montée en puissance de la cybercriminalité

ChatGPT et certains modèles conversationnels d’IA sont fréquemment utilisés par les cybercriminels pour améliorer leurs stratégies et leurs attaques. Par ricochet, grâce aux données personnelles et sensibles (données de leur société) rentrés par leurs employés dans ChatGPT, les pirates pourraient avoir la tâche aisée d’opérer comme bons leur semblent. Même les débutants ont la facilité de coder les logiciels malveillants.

C’est la raison principale pour laquelle les sociétés comme JP Morgan la banque d’investissement, Amazon Walmart, Verizon, Apple ont décidé pour certaines d’interdire et restreindre l’utilisation des chatbot à base d’IA à tous leurs employés. Car leur utilisation, en plus du risque de livrer des secrets professionnels d’entreprises et des données personnelles, permettrait aux hackers d’utiliser les outils d’IA pour se rapprocher de la manière d’écrire des mails ou des notes des entreprises. Ce qui rendrait leurs tentatives de phishing plus faciles.

Quelles solutions pour remédier à ces risques ?

La sophistication des outils numériques, bien qu’elle soit indispensable à l’être humain, pourrait lui causer d’énormes dangers dans le cadre de sa vie professionnelle et sa vie privée.

Pour donc remédier à tous ces risques, la première solution demeure la sensibilisation et la formation au même titre de tous les collaborateurs, notamment des dirigeants des sociétés jusqu’aux simples employés. Et les formations relatives à la protection des données à caractère personnel prennent en compte tous les risques liés aux domaines de la cybersécurité et des données personnelles.

Au regard de tous ces risques, Groupe DPSE offre des formations de pointe générales et spécialisées en fonction des secteurs d’activités (Santé, Ressources Humaines, Finance, Marketing et Communication, Logistiques, Juridique, Informatique, etc.)  à toutes les entreprises publiques et privées afin d’accompagner leurs employés à des formations de qualité.

La deuxième solution primordiale est que tous les organismes publics et privés s’engagent dans la démarche réelle de mise en conformité relative à la protection des données à caractère personnel. Cette démarche, en plus d’être une exigence légale, est un véritable levier de performance, de solutions et de gains de marchés auprès de partenaires et d’investisseurs. Groupe DPSE, cabinet leader et pionnier dans la protection des données à caractère personnel, est prêt à vous accompagner dans cette démarche qualité de mise en conformité.

De plus, Groupe DPSE met à votre disposition les outils de mise en conformité tels que le Registre des traitements et vous conduit à être éligible à la certification ISO/IEC 27701


[1] Selon Bot : quel agent conversationnel est fait pour vous ? (journaldunet.fr) Chatbot est un agent conversationnel qui communique par écrit en langage naturel Le chatbot permet d’améliorer la relation client, en étant disponible rapidement et à tout moment. Le chatbot peut également fournir des réponses personnalisées en fonction du profil du client.

[2] Le sigle ChatGpt signifie Generative Pre-trained Transformer en anglais ou « Transformateur Générique Pré-entrainé. Il s’agit d’un outil conversationnel établi à partir d’une intelligence artificielle (IA) et développé par OpenIA, société spécialisée en (IA). En d’autres termes, c’est un modèle de langage entraîné par OpenAI qui est capable de générer du texte à la demande en utilisant une intelligence artificielle de pointe. Le nom « ChatGPT » vient de la combinaison des termes « chat » et « GPT », qui signifient respectivement « conversation » et « modèle de transduction de langage prédictif ». Cela reflète la capacité de ChatGPT à simuler des conversations humaines de manière convaincante.

Quitter la version mobile