Le développement rapide des systèmes d’IA et les tentatives qui cherchent à les introduire partout sont une source d’optimisme et d’inquiétude. L’IA peut aider l’être humain dans divers domaines, et le secteur de la cybersécurité le sait très bien. Chez Kaspersky, nous utilisons l’apprentissage automatique depuis près de 20 ans et nous savons pertinemment qu’il serait impossible de nous protéger contre le vaste éventail de menaces informatiques sans les systèmes d’IA. En parallèle, nous avons aussi identifié divers problèmes associés à l’IA, qu’il s’agisse de la former à partir de données incorrectes, de lancer des attaques malveillantes contre les systèmes d’IA ou d’utiliser l’IA à des fins malhonnêtes.
Plusieurs plateformes de dialogue international et organisations ont déjà développé des principes généraux d’éthique de l’IA (voici les recommandations de l’UNESCO, par exemple) mais des directives plus spécifiques pour le secteur de la cybersécurité doivent encore être acceptées.
Afin d’utiliser l’IA en cybersécurité sans que cela n’ait de conséquences négatives, nous proposons à ce secteur de suivre plusieurs principes d’éthique de l’IA, dont nous avons présenté la première version au Forum sur la gouvernance de l’Internet (IGF) de l’ONU à Kyoto, Japon. Évidemment, toute la communauté de la cybersécurité doit débattre de ces principes et les clarifier, mais nous y adhérons déjà. Quels sont ces principes ? En voici un petit résumé.
Transparence
Les utilisateurs ont le droit de savoir si un fournisseur de sécurité utilise des systèmes d’IA, à quelles fins et comment ces systèmes prennent des décisions. C’est pourquoi nous nous engageons à développer des systèmes d’IA qui soient interprétables autant que possible, avec la mise en place de toutes les mesures de protection nécessaires pour garantir la production de résultats valables. Toute personne peut se familiariser avec notre code et notre processus de travail en visitant un des centres de Transparence Kaspersky.
Sécurité
La manipulation des données saisies pour provoquer des décisions inappropriées est une des menaces que les systèmes d’IA rencontrent. Ainsi, nous pensons que les développeurs d’IA doivent travailler en priorité sur la résistance et la sécurité.
Pour ce faire, nous adoptons tout un ensemble de mesures pratiques pour proposer des systèmes d’IA de qualité supérieure : audits de sécurité spécifiques à l’IA et Red Teaming, utilisation minimum de données tierces et mise en place d’un éventail de technologies pour une protection à plusieurs niveaux. Si possible, nous favorisons une IA basée sur le Cloud (avec toutes les mesures de protection nécessaires) au lieu d’avoir recours aux modèles installés localement.
Contrôle humain
Même si nos systèmes d’apprentissage automatique peuvent fonctionner en autonomie, des experts surveillent constamment les résultats et les performances. Les verdicts donnés par nos systèmes automatisés sont ajustés si besoin et des experts adaptent et modifient les systèmes pour qu’ils résistent aux nouvelles menaces informatiques et/ou extrêmement sophistiquées. Nous associons l’apprentissage automatique et le savoir-faire humain, et nous nous engageons à toujours maintenir cet élément de contrôle humain dans nos systèmes.
Confidentialité
Il est impossible d’entraîner l’IA sans avoir une quantité massive de données, dont certaines qui peuvent être personnelle. Ainsi, l’approche éthique de leur utilisation doit respecter les droits des individus à la confidentialité. En pratique, en sécurité informatique, cela peut inclure diverses mesures : limiter les types et la quantité des données traitées, utiliser des pseudonymes et rendre les données anonymes, réduire la composition des données, garantir l’intégrité des données et adopter des mesures techniques et d’organisation pour protéger les données.
Développée pour la cybersécurité
L’IA en cybersécurité ne doit être utilisée qu’à des fins de défense. C’est une partie intégrante de notre mission pour construire un monde sûr où les technologies de demain améliorent nos vies.
Ouvert au dialogue
Nous croyons que ce n’est qu’en travaillant ensemble que nous pouvons surmonter les obstacles associés à l’adoption et à l’utilisation de l’IA dans le domaine de la sécurité. C’est pourquoi nous promouvons un dialogue avec toutes les parties intéressées afin de partager les meilleures pratiques pour une utilisation éthique de l’IA.
Cliquez ici pour en savoir plus sur nos principes d’utilisation éthique de l’IA en sécurité.