L’informatique moderne permet de réaliser des choses presque impensables il y a 20 ou 30 ans, notamment avec l’avènement de l’intelligence artificielle (IA) grâce à la mise en place de réseaux de neurones artificiels et d’algorithmes d’apprentissage sophistiqués. L’IA était auparavant l’une des technologies du futur de la science-fiction. Aujourd’hui, elle s’invite dans tous les foyers avec les assistants personnels (Alexa, Siri, Google Assistant…), les systèmes de chatbot, etc. En tentant de simuler l’intelligence humaine, l’IA permet des traitements de données du big data en temps réel et de pousser toujours plus loin la puissance de calcul du cloud computing. Oui, mais tout n’est pas rose. Et, les dérives relayées par les médias ces dernières semaines (photos truquées) ne sont que la partie visible de l’iceberg. Le piratage informatique a pris une nouvelle dimension avec l’IA. On parle même de cyberguerre et l’OTAN ne plaisante pas à ce sujet.
Alors, les progrès de l’intelligence artificielle constituent-ils vraiment une menace pour la sécurité des systèmes d’information ? Nous verrons que oui, mais que c’est aussi possible de faire appel à l’intelligence artificielle pour améliorer votre cyberdéfense.
Plusieurs personnalités de l’OTAN, interviewées par Euronews Next fin 2022, partagent la même méfiance vis-à-vis de la place de cette grande avancée technologique dans le domaine de la cybersécurité. Alberto Domingo, directeur technique du cyberespace à l’OTAN, est explicite : « Je pense que l’IA est une menace critique. Le nombre d’attaques augmente de façon exponentielle tout le temps ». De son côté, le secrétaire général adjoint de l’OTAN pour les défis de sécurité émergente, David van Weel, précise que l’IA peut être utilisée par des pirates pour tenter de s’introduire dans les réseaux en utilisant des informations d’identification et de puissants algorithmes d’analyse pour casser les systèmes.
Certes, d’un côté, les cybercriminels peuvent utiliser l’intelligence artificielle et l’apprentissage automatique (machine learning) pour réaliser des attaques plus sporadiques et plus nombreuses. De l’autre côté, comme le souligne David van Weel, « l’intelligence artificielle permet aux défenseurs d’analyser les réseaux plus automatiquement et de repousser les attaques ».
Cependant, une notion et un état d’esprit entrent considérablement en jeu entre cyberdéfenseurs et cyberattaquants : l’éthique. « Nous voulons être des utilisateurs éthiques de l’IA, mais nous ne pouvons pas garantir que nos adversaires […] utilisent l’IA de la même manière ». Cette différence dans la philosophie de chacun crée un déséquilibre.
Et le problème de l’éthique va plus loin. Dans AI and Ethics : Balancing progress and protection, Kerem Gulen met en avant que « l’IA a le potentiel de poser des risques importants pour notre bien-être personnel et collectif ». L’intelligence artificielle et l’apprentissage profond (deep learning) traitent, en effet, des volumes de données plus importants qu’auparavant et sont capables de « prendre des décisions sans surveillance humaine ». L’éthique et la protection des données sont des enjeux majeurs de l’IA et de la cybersécurité.
👉 Consultez aussi Pourquoi l’IA révolutionne-t-elle la cybersécurité ?
L’IA et la cybersécurité font face à des défis importants :
Mais dans un registre un peu différent, une telle intelligence doit aussi répondre à deux enjeux majeurs : la confidentialité des données et la liberté dans le cyberespace. Car, un système d’intelligence artificielle et les autres percées technologiques qui lui sont liées collectent et traitent une énorme quantité de données (big data).
Les assistants intelligents et autres systèmes de traitement des données à base d’IA sont susceptibles d’être piratés ou manipulés par des personnes malveillantes. Et ce risque grandit au fur et à mesure de la complexification des intelligences artificielles, qui ont pour vocation d’être autonomes en automatisant des tâches. La singularité de ce type de machine intelligente expose donc de plus en plus les données personnelles, sensibles et confidentielles à la cybercriminalité.
D’un point de vue éthique, l’IA engendre des préoccupations concernant la prise de décision. D’autant plus si elle est piratée. Grâce à un amas considérable de données, les IA sont capables de prendre des décisions biaisées ou discriminatoires envers les personnes. Des traitements injustes peuvent potentiellement creuser des inégalités sociales existantes (Gulen K., 2023).
De solides principes de confidentialité et de sécurité, à l’image des trois lois de la robotique d’Asimov, sont alors nécessaires pour écarter ce type de risque. À commencer par le cryptage des données et la sécurisation du stockage des données.
Internet et son cyberespace ont été créés en respectant la liberté d’expression et de création. Mais, cet environnement libre pour développer des idées génère de facto des possibilités d’agir mal, au détriment des individus et de la société. Pour réduire, voire éliminer les menaces cybernétiques, l’une des solutions serait de limiter la liberté d’Internet. Mais, la limitation et la réglementation sévère d’Internet ont un coût trop élevé : la liberté sur Internet. Pour Alberto Domingo de l’OTAN, « le prix que nous devons payer pour cela est d’être réaliste et d’accepter qu’il y aura des attaques dans les réseaux ».
Pour faire face à la cybercriminalité, le seul moyen reste donc d’investir dans des solutions et des technologies. On peut même dire qu’il y a urgence à agir prudemment et sûrement pour assurer la sécurité de l’ensemble des données confidentielles pouvant être mal gérées, intentionnellement ou accidentellement.
Nous pouvons résumer notre cheminement de pensée ainsi : l’intelligence artificielle est autant une arme pour les pirates informatiques que pour les hackers éthiques et les ingénieurs en cyberdéfense. L’application de l’IA pour la sécurité numérique a plusieurs avantages :
L’analyse prédictive et ces autres avantages permettent de gérer d’autres défis liés à la cybersécurité, comme la distance géographique entre les systèmes informatiques qui rend difficile tout suivi manuel des incidents. Mais attention à une confiance excessive en l’automatisation et aux capacités de l’IA. Comme le souligne très bien Eddie Segal dans son article The Impact of AI on Cybersecurity, le taux de détection des menaces par IA peut atteindre 95 %, mais avec une quantité remarquable de faux positifs. Le mieux est de combiner à la fois les méthodes traditionnelles et l’IA, pour atteindre un score de détection proche de 100 % tout en minimisant les faux positifs.
© 2023 Groupe Ozitem Mentions légales Politique de confidentialité