Illustration: un personnage au premier plan tend un document marqué "Confidentiel" vers un écran d'ordinateur dessiné en manière de visage d'ogre, monstrueux. Cet ordinateur étend des sortes de tentacules autour du personnage.
La voracité de l'intelligence artificielle est sans fin. Le volume des données collectées par les services en ligne basés sur cette technologie est important et incontrôlable. Illustration | BIC-MC
PeurNumérique

IA: des services à utiliser avec précaution

Entre peur, enthousiasme ou fascination, les services en ligne, notamment de traduction automatique et d’intelligence artificielle, ne laissent personne indifférent. S’ils font désormais partie de notre quotidien, leur utilisation est loin d’être anodine et exige d’adopter des mesures de sécurité indispensables. Quelques informations pratiques pour nous aider à dompter leur mémoire d’éléphant.

La voracité de l'intelligence artificielle est sans fin. Le volume des données collectées par les services en ligne basés sur cette technologie est important et incontrôlable. Illustration | BIC-MC
13 minutes de lecturePublié le 31 oct. 2023

C’est tellement tentant… Vous devez traiter un dossier encore confidentiel, mais vous n’avez pas le temps de lire la centaine de pages qu’il contient. Pourquoi ne pas demander à des outils d’intelligence artificielle (IA) de vous en faire un résumé ou de le traduire pour en faciliter la compréhension ? C’est là que les mises en garde sont nécessaires.

S’ils font parfois des erreurs – pas question donc de leur accorder une confiance aveugle ! –, ces outils, qui se nourrissent de toutes les informations qu’on leur donne, peuvent également bien sûr s’abreuver des données confidentielles et personnelles que nous leur transmettons. C’est là que cela peut devenir problématique !

Pour prendre la mesure des dangers potentiels liés à l’utilisation de l’intelligence artificielle – ChatGPT, le plus connu, ou tout autre site IA ou de traduction –, la Gazette s’est approchée des professionnels de la sécurité à la Direction générale du numérique et des systèmes d’information (DGNSI). Passage en revue de quelques conseils de base.

Trois règles fondamentales

Si vous envisagez d’utiliser un service de traduction ou d’IA, il est important de prendre quelques précautions pour protéger vos données personnelles et celles de votre employeur. «Tout d’abord, assurez-vous que vous utilisez un service connu et répertorié. Ensuite, ne saisissez pas d’informations sensibles ou confidentielles de votre service. Enfin, soyez vigilant concernant les informations que vous partagez avec les autres. Si vous publiez des données au sein ces outils, il faut en effet s’assurer que vous faites confiance à la personne à qui vous transmettez les informations », indique-t-on avec fermeté du côté de la DGNSI.  

Le principe de base est de ne jamais envoyer de documents (PDF, Word, etc.) sensibles ou internes sur les versions gratuites des traducteurs automatiques.

Decio ValeriAnalyste sécurité au Centre opérationnel de sécurité de la DGNSI

Un « gratuit »… payant !

Mais dans la pratique, qu’est-ce que cela signifie ? «Le principe de base est de ne jamais envoyer de documents (PDF, Word, etc.) sensibles ou internes sur les versions gratuites des traducteurs automatiques, par exemple, puisque le “gratuit” est payé par l’utilisation de ces mêmes documents pour entraîner les fameux algorithmes qui nourrissent l’intelligence artificielle. C’est le cas notamment du service de traduction automatique DeepL. Dans sa version gratuite, les textes que vous insérez dans cet outil sont sauvegardés pour entraîner le système neuronal de la firme allemande qui le gère», prévient Decio Valeri, analyste sécurité au Centre opérationnel de sécurité de la DGNSI.

« En plus des inexactitudes ou fausses informations – appelées “hallucinations” –, une autre piste de sensibilisation, dont on ne parle pas assez souvent, est que ChatGPT et consorts peuvent générer du contenu qui enfreint les droits d’auteur», précise encore notre interlocuteur. Voilà un autre point auquel il faut être attentif.

Des choses à garder pour soi

Du côté de la DGNSI, on conseille aussi d’anonymiser les documents à traduire en substituant les informations personnelles ou sensibles par des informations génériques. «Une autre piste est de vérifier les paramètres de confidentialité et notamment d’activer les exclusions d’“entraînement” et l’effacement des échanges, qui ne sont, bien sûr, –jamais activés par défaut», souligne encore Decio Valeri.

Les informations personnelles, telles que nom, adresse ou numéro de téléphone, n’ont pas non plus à figurer dans ces outils, et la vigilance est plus que jamais de mise concernant les informations que nous partageons avec les autres interlocuteurs via les services de traduction et d’IA. «Les informations financières, médicales, personnelles sensibles, telles que les opinions politiques ou religieuses, sont aussi à garder pour soi», nous préviennent les experts de la DGNSI.

Une « voracité » qui inquiète

Le volume des données collectées par ces services en ligne est tellement important et incontrôlable qu’il ne manque pas d’inquiéter les politiques et certaines grandes entreprises. En Italie par exemple, l’autorité de protection des données a bloqué provisoirement l’accès à ChatGPT en début d’année pour mener une enquête sur de possibles violations de la législation sur la protection des données du pays. Plus récemment, Samsung a interdit l’utilisation de ChatGPT ou de n’importe quelle IA générative à son personnel à la suite d’un incident malheureux, qui a fait craindre à la firme sud-coréenne des dangers pour ses données confidentielles.

Nous voilà donc prévenus : la publication de documents professionnels en attente de validation ou qui ne sont pas encore rendus publics pour en tirer des résumés, des synthèses ou des traductions n’est pas une bonne idée et cette action est absolument déconseillée. D’autre part, ne prenez pas de décisions hâtives après une simple consultation des informations transmises par ces services en ligne, croisez vos sources. Il est important également de protéger sa sphère privée, car tous ces sites externes sont voraces et n’oublient rien…

On ne le dira jamais assez : l’intelligence artificielle doit être apprivoisée, enseignée et utilisée en toute connaissance de cause pour proposer – avec une sécurité maximale – les indéniables atouts qu’elle a à offrir aux générations futures. (MHJ)

Comment exclure les données introduites : 

Support Google

Support Openai

Les hallucinations de l’IA :

Wikipedia

Quelques mesures prises contre ChatGPT :

ICT Journal : le cas italien

01net : le cas Samsung

Un enseignant debout se penche au-dessus d'une élève de 10 ou 12 ans, qui travaille devant un ordinateur. Derrière, d'autres élèves, également sur leurs ordinateurs.Un document a été transmis aux enseignantes et enseignants vaudois de l’école obligatoire, afin de décrire les risques et les opportunités liés à l’utilisation d’une IA. Photo | Jacob Lund

ChatGPT à l’école

Les outils d’intelligence artificielle et de traduction questionnent la relation à l’apprentissage et au savoir. Ils viennent donc tout naturellement interroger l’institution de l’école.

Si, à l’heure actuelle, aucune directive spécifique n’est émise à ce sujet par l’Etat du côté du Département vaudois de l’enseignement et de la formation professionnelle (DEF), le fonctionnement de l’IA, son impact sur la société et son usage sont développés dans le programme d’Education numérique déployée dans le canton.

Un document a été transmis aux enseignantes et enseignants vaudois de l’école obligatoire, afin de décrire les risques et les opportunités liés à l’utilisation d’une IA. Ce document permet aussi de leur adresser des recommandations pratiques ou encore de mettre en lumière les pistes pédagogiques à privilégier dans le cadre scolaire. En parallèle, une vidéo explicative* sur le fonctionnement des outils d’IA a été mise à disposition, ainsi qu’une note interne régulièrement mise à jour.

Au postobligatoire (gymnases et écoles professionnelles), les enseignantes et enseignants ont souhaité recevoir davantage d’informations au sujet de ChatGPT et des outils similaires dans un cadre éducatif. Cela a été fait et la démarche se poursuit. (MHJ)

* Vidéo explicative du Département de l'enseignement et de la formation

Faut-il faire confiance à ChatGPT ? Réponse de l’intéressé

Nous avons posé la question à ChatGPT. Voici le texte – non retouché par la rédaction – qu’il nous a proposé.

«Faire confiance à ChatGPT, ou à tout autre système d’intelligence artificielle implique de prendre en compte plusieurs facteurs. Voici quelques éléments à considérer :

  1. Nature des informations : ChatGPT peut fournir des informations générales sur une variété de sujets. Cependant, pour des informations spécifiques, complexes ou sensibles, il est préférable de vérifier auprès de sources spécialisées ou de professionnels.
  2. Vérification croisée : Si l’exactitude est cruciale, il est toujours recommandé de vérifier les informations obtenues par ChatGPT à partir de plusieurs sources fiables.
  3. Limites de connaissance : ChatGPT a une connaissance limitée basée sur les données jusqu’en septembre 2021. Il peut ne pas avoir les informations les plus récentes ou spécifiques à des événements après cette date.
  4. Contexte et interprétation : Parfois, ChatGPT peut mal interpréter une question ou fournir des réponses génériques qui ne tiennent pas compte du contexte. Utiliser des formulations claires et spécifiques peut aider à obtenir des réponses plus précises.
  5. Esprit critique : Il est important d’utiliser un esprit critique lors de l’utilisation de ChatGPT. Si une réponse semble douteuse ou ne correspond pas à ce que vous attendez, il peut être utile de rechercher des informations supplémentaires.
  6. Consultation d’experts : Pour des questions professionnelles, juridiques, médicales ou techniques importantes, il est recommandé de consulter des experts dans le domaine plutôt que de se fier uniquement aux réponses de ChatGPT.

En résumé, ChatGPT peut être utile pour obtenir des informations de base, des idées générales et des conseils simples. Cependant, pour des informations critiques, complexes ou spécifiques, il est préférable de faire preuve de prudence, de vérifier les informations auprès de sources fiables et d’utiliser ChatGPT comme complément à d’autres sources et expertises humaines.» (ChatGPT)

Continuez votre lecture