Retour à la page précédente
Large Language Models in Cybersecurity
Friday 05 July 2024 12:00

L’apparition de nouvelles cybertechnologies s’accompagne également de nouvelles menaces et répercussions. Le Cyber-Defence Campus de l’Office fédéral de l’armement armasuisse publie pour la deuxième fois une étude en libre accès sur ce thème. Cette étude met en lumière les risques et les défis liés à l’utilisation de l’intelligence artificielle (IA) générative en ce qui concerne la cybersécurité. Elle a vocation à aider les spécialistes et les décideurs de l’administration publique et de l’économie à évaluer les risques liés à l’utilisation de cette technologie et à définir les mesures de sécurité appropriées.

 

 

Le développement et la diffusion de l’intelligence artificielle posent des défis majeurs en matière de sécurité dans le cyberespace. Les modèles d’apprentissage automatique en particulier, qui permettent de générer des textes, des images ou des vidéos (et mieux connus sous le nom « d’intelligence artificielle (IA) générative ») sont toujours plus performants. Leur utilisation est désormais largement répandue au sein de la population. Cependant, l’IA générative comporte des risques d’abus considérables, à l’image des infox vidéo, des messages falsifiés ou des tentatives de fraude. Dans le même temps, l’utilisation raisonnée de l’IA peut aussi avoir des effets positifs.

Influence des Large Language Models sur la cybersécurité

L’étude révèle que la manipulation et le mauvais usage des algorithmes d’apprentissage peuvent compromettre la sécurité des applications d’IA. Par exemple, les modèles d’apprentissage automatique peuvent générer des textes ou des logiciels contenant des erreurs parfois subtiles, mais difficilement repérables. Les grands modèles de langage (Large Language Models, LLM) ont révolutionné la compréhension du langage et sont déjà utilisés dans des applications et des produits déterminants pour la sécurité. Les LLM permettent de mieux lutter contre les cyberattaques, mais des acteurs mal intentionnés peuvent également utiliser les LLM pour créer à peu de frais des programmes malveillants, des messages de phishing et des chatbots malveillants.

Renforcement de la cybersécurité

Aujourd’hui, les LLM sont conçus en majorité à l’étranger. Il est important pour les acteurs étatiques comme la Suisse de comprendre en conséquence quelles sont les dépendances vis-à-vis de ces éditeurs étrangers ainsi que les risques qui en découlent. Cette étude en libre accès fournit de précieuses informations aux spécialistes et aux décideurs dans le domaine de la cybersécurité. Fruit du travail commun du CYD Campus et de la Haute École Spécialisée de Suisse occidentale (HES-SO), cette étude explique la nécessité de preter attention aux développements technologiques qui affichent une progression rapide et de prendre des mesures proactives.

Les principales conclusions de l’étude sont les suivantes :

• L’IA générative et en particulier les grands modèles de langage (LLM) présentent de nouvelles menaces considérables en matière de cybersécurité.

• L’État, l’économie et la société doivent utiliser l’IA générative avec précaution.

• Pour permettre le développement et l’utilisation de l’IA générative en toute sécurité, il convient de mettre en place des contrôles de sécurité dans la chaîne de traitement des données.

À propos du Cyber-Defence Campus

Le Cyber-Defence Campus a été créé en janvier 2019 afin de mieux anticiper les développements dans le domaine cyber. Il sert d’interface entre le DDPS, l’industrie et la science dans le domaine de la recherche, du développement et de la formation en matière de cyberdéfense. Le Cyber-Defence Campus est rattaché à l’Office fédéral de l’armement armasuisse.