Depuis près de vingt ans, Kaspersky est en première ligne pour intégrer l’intelligence artificielle (IA) dans ses produits et services, en particulier le machine learning (ML). Notre expertise et notre expérience approfondies dans l’application de ces technologies à la cybersécurité, associées à nos ensembles de données uniques, à nos méthodes efficaces et à notre infrastructure avancée de formation de modèles, sont à la base de notre approche de la résolution de défis complexes en matière de ML. Notre centre Kaspersky AI Technology Research Center rassemble des scientifiques des données, des ingénieurs ML, des experts en menaces et des spécialistes de l’infrastructure pour s’attaquer aux tâches les plus difficiles à l’intersection de l’IA/ML et de la cybersécurité. Cette initiative comprend non seulement le développement de technologies appliquées, mais aussi la recherche sur la sécurité des algorithmes d’IA, y compris l’utilisation d’approches prometteuses telles que le ML neuromorphique, la sensibilisation aux risques de l’IA, et bien d’autres choses encore.
Nos technologies et nos produits
Chez Kaspersky, nous avons développé un large éventail de technologies de détection des menaces basées sur l’IA/ML, principalement pour identifier les programmes malveillants. Il s’agit notamment d’un algorithme de réseau neuronal profond permettant de détecter les fichiers exécutables malveillants en fonction de critères fixes, de la technologie ML des arbres de décision pour la création automatisée de règles de détection fonctionnant sur les appareils des utilisateurs, et de réseaux neuronaux permettant de détecter les comportements malveillants des programmes pendant leur exécution. Nous utilisons également un système d’identification des ressources en ligne malveillantes reposant sur les données télémétriques anonymes provenant des solutions installées sur les appareils des clients et d’autres sources. Pour en savoir plus, consultez notre livre blanc Machine Learning for Malware Detection. D’autres modèles, comme le modèle ML pour la détection des faux sites Internet et DeepQuarantine pour la mise en quarantaine des emails de spam suspects, protègent les utilisateurs contre les menaces de phishing et le spam. Grâce à l’infrastructure cloud de KSN, nos développements en matière d’IA sont disponibles presque instantanément pour les particuliers et les entreprises.
Guidés par la promesse de l’IA générative, en particulier les grands modèles de langage (LLM), nous avons construit une infrastructure pour explorer ses capacités et prototyper rapidement de nouvelles solutions. Cette infrastructure, qui déploie des outils de LLM apparentés à ChatGPT, est non seulement accessible aux employés de tous les services pour les tâches quotidiennes, mais sert également de base à de nouvelles solutions. Par exemple, notre portail Kaspersky Threat Intelligence Portal disposera bientôt d’une nouvelle dimension OSINT basée sur le LLM qui fournira rapidement des résumés de rapports sur les menaces pour des IOC particuliers.
Pour renforcer la sécurité des infrastructures de nos clients, nous développons activement des technologies IA adaptées à nos produits et services phares pour les entreprises. Depuis plusieurs années, la solution AI Analyst de Kaspersky Managed Detection and Response contribue à réduire la charge de travail des équipes SOC en filtrant automatiquement les faux positifs. Rien que l’année dernière, cette technologie a permis de résoudre plus de 100 000 alertes sans intervention humaine. Les experts SOC peuvent ainsi réagir plus rapidement aux menaces réelles et consacrer plus de temps aux enquêtes sur les cas complexes et à la recherche proactive des menaces. Une autre de nos solutions, l’évaluation du risque sur l’hôte basée sur l’IA dans Kaspersky SIEM (plateforme Kaspersky Unified Monitoring and Analysis) et Kaspersky XDR, utilise des algorithmes de ML pour rechercher le comportement suspect de l’hôte sans qu’il soit nécessaire de transférer des données en dehors de l’entreprise.
Un autre domaine clé du développement de Kaspersky est l’utilisation de l’IA/ML dans les environnements industriels. Il s’agit notamment de Kaspersky MLAD (Machine Learning for Anomaly Detection), une solution logicielle d’analyse prédictive qui reconnaît automatiquement les signes précoces (cachés) de l’imminence d’une panne matérielle, d’une perturbation des processus, d’une erreur humaine ou d’une cyberattaque au niveau des signaux de télémétrie. En entraînant continuellement le réseau neuronal, MLAD analyse le flux d’événements « atomiques » provenant de l’objet, les structure en modèles et identifie les comportements anormaux. Un autre de nos projets est la plateforme Kaspersky Neuromorphic Platform (KNP), un projet de recherche et une plateforme logicielle pour les solutions IA basées sur les réseaux de neurones à pointes et AltAI, le processeur neuromorphique économe en énergie développé par une société basée en Russie Motive Neuromorphic Technologies (Motive NT), en collaboration avec Kaspersky.
L’adoption généralisée des technologies IA nécessite un contrôle de la sécurité, c’est pourquoi nous avons également mis en place une équipe chargée de la sécurité de l’IA. Elle propose une gamme de services visant à assurer une protection fiable des systèmes d’IA et à déjouer les menaces susceptibles de toucher les données, les processus métier et l’infrastructure de l’IA.
Notre équipe
Par le passé, les tâches basées sur le ML étaient effectuées par des services directement impliqués dans la détection de menaces spécifiques. Cependant, compte tenu du nombre croissant de tâches et de l’importance grandissante des technologies de ML, nous avons décidé de concentrer notre savoir-faire en matière de systèmes basés sur l’IA à un centre de recherche distinct, Kaspersky AI Technology Research Center. Cette initiative s’est traduite par la création de trois équipes principales qui dirigent l’utilisation de l’IA chez Kaspersky :
- Le groupe Detection Methods Analysis Group développe des algorithmes ML pour détecter les programmes malveillants en collaboration avec l’équipe Global Research and Analysis Team (GReAT) et le centre Threat Research Center. Leurs systèmes d’IA pour la détection statique et comportementale des programmes malveillants contribuent directement à la sécurité de nos utilisateurs.
- Le centre Technology Research, qui dépend du département Future Technologies Department, est spécialisé dans la recherche de technologies d’IA prometteuses, le développement de Kaspersky MLAD et KNP, le développement du processeur neuromorphique de nouvelle génération AltAI aux côtés de Motive NT, et la mise à disposition de services AIST pour la sécurité de l’IA.
- L’équipe MLTech est responsable du développement de l’infrastructure ML de l’entreprise pour l’entraînement des modèles ML, la création de modèles de détection des menaces de contenu (phishing et spam), et la mise en œuvre des technologies IA, y compris celles basées sur le LLM, dans nos services et solutions d’entreprise avancés, tels que MDR, Kaspersky SIEM (plateforme de surveillance et d’analyse unifiée), et [NEXT placeholder]Kaspersky XDR[/placeholder].
Cela ne signifie pas que notre expertise en matière d’IA se limite aux équipes susmentionnées. Le domaine de l’IA est actuellement si complexe et multiforme qu’il est impossible de concentrer tout le savoir-faire dans quelques groupes de recherche. D’autres équipes contribuent également beaucoup aux travaux du Centre et appliquent le ML à de nombreuses tâches : technologies de vision artificielle dans l’équipe Antidrone, recherche sur les assistants de codage IA dans les départements CoreTech et KosperskyOS, recherche APT dans GReAT et étude de la législation sur l’IA dans l’équipe Relations gouvernementales.
Nos recherches et nos brevets
Le caractère unique de nos technologies d’IA est attesté par les dizaines de brevets que nous avons obtenus dans le monde entier. Il s’agit avant tout de brevets portant sur des technologies de détection, telles que la détection de programmes malveillants reposant sur les journaux de comportement des programmes, la détection de serveurs malveillants dans la télémétrie, les faux sites et le spam à l’aide du ML. Cependant, le portefeuille de Kaspersky couvre un éventail de tâches beaucoup plus large : des technologies pour améliorer les ensembles de données pour le ML, la détection d’anomalies, et même la recherche de contacts suspects d’enfants dans les systèmes de contrôle parental. Et, bien sûr, nous brevetons activement nos technologies d’IA pour les systèmes industriels et nos approches uniques de réseaux neuronaux pour le traitement des flux d’événements.
De plus, Kaspersky partage activement son expertise en matière d’IA avec la communauté. Certaines études, telles que celles portant sur les algorithmes monotones de ML ou sur l’application des réseaux neuronaux pour la détection du spam, sont publiées dans des articles scientifiques à l’occasion de grandes conférences portant sur le ML. D’autres sont publiées sur des portails spécialisés et lors de conférences sur la sécurité de l’information. Par exemple, nous publions des recherches sur la sécurité de nos propres algorithmes d’IA, en particulier en ce qui concerne les attaques contre les algorithmes de détection du spam et des programmes malveillants. Nous étudions l’application des réseaux neuronaux pour l’analyse des séries temporelles et explorons l’utilisation des réseaux neuromorphiques dans des tâches pertinentes pour l’industrie. Notre plateforme Kaspersky Neuromorphic Platform (KNP) est un logiciel open-source qui sera disponible pour l’utilisation et le développement par l’ensemble de la communauté ML.
La question du développement et de l’application sécurisés de l’IA revêt une importance fondamentale pour nous, car nous devons être en mesure de faire confiance à nos algorithmes et d’être convaincus de leur fiabilité. Parmi les autres sujets abordés, citons notre participation à des défis de cybersécurité qui simulent des attaques contre des systèmes de ML et l’utilisation de technologies avancées telles que les LLM pour détecter les menaces dans les journaux de système et les liens de phishing. Nous parlons également des menaces qui pèsent sur l’IA générative, notamment du point de vue de la protection de la vie privée, des attaques contre divers systèmes basés sur le LLM, de l’utilisation de l’IA par les pirates informatiques et de l’application de nos technologies dans les SOC. Parfois, nous ouvrons la porte et révélons notre fonctionnement interne, en parlant du processus de formation de nos modèles et même des subtilités de l’évaluation de leur qualité.
Sensibilisation
Enfin, la fonction la plus importante du centre de recherche Kaspersky AI Technology Research Center est de sensibiliser nos clients et le grand public aux avantages et aux inconvénients des technologies de l’IA ainsi qu’aux menaces qu’elles représentent. Nos experts au Centre démontrent les dangers des vidéos deepfake. Nous discutons des détails de l’utilisation de l’IA (par exemple, comment ChatGPT affecte le processus d’embauche des développeurs) et partageons nos expériences par le biais de webinaires et de tables rondes.
L’équipe FT Technology Research organise des conférences sur les technologies neuromorphiques avec une piste distincte consacrée aux questions de sécurité de l’IA, y compris les systèmes basés sur l’approche neuromorphique. En collaboration avec notre partenaire, l’Institut de programmation des systèmes de l’Académie russe des sciences (ISP RAS), nous étudions divers vecteurs d’attaque contre les réseaux neuronaux dans les domaines de la vision par ordinateur, du LLM et des séries temporelles, ainsi que les moyens de les protéger. Dans le cadre du partenariat industriel de Kaspersky avec ISP RAS, l’équipe teste des échantillons d’infrastructures de ML fiables.
Nous participons également à l’élaboration de cours éducatifs, notamment un module sur l’utilisation de l’IA dans la cybersécurité à l’Université technique d’État Bauman de Moscou. Un autre exemple est notre module sur l’utilisation sûre de l’IA dans Kaspersky KASAP, notre solution pour sensibiliser les employés aux cybermenaces. Enfin, nous contribuons à la création d’un ensemble de normes internationales pour l’utilisation de l’IA. En 2023, nous avons présenté les premiers principes pour l’utilisation éthique des systèmes d’IA dans la cybersécurité lors du Forum sur la gouvernance de l’Internet.
En résumé, les principales tâches du centre Kaspersky AI Technology Research Center sont le développement des technologies de l’IA, leur application sans risque dans le domaine de la cybersécurité, la surveillance des menaces liées à l’utilisation inappropriée ou malveillante de l’IA, et la prévision des tendances. Toutes ces tâches ont un seul but : assurer le plus haut niveau de sécurité à nos clients.