L'apprentissage automatique contradictoire cherche 脿 manipuler un mod猫le d'apprentissage automatique par des entr茅es trompeuses con莽ues pour provoquer son dysfonctionnement. D茅couvrez ses techniques et pourquoi il est important.
![[Image en vedette] Un groupe d'employ茅s se r茅unit pour discuter de la mani猫re de prot茅ger leur organisation contre l'apprentissage automatique.](https://d3njjcbhbojbot.cloudfront.net/api/utilities/v1/imageproxy/https://images.ctfassets.net/wp1lcwdav1p1/18DUhQWPdANRxwGh3tRF1C/221c6f0f8b801a632a9fc5ad7acd155f/GettyImages-1501883558.jpg?w=1500&h=680&q=60&fit=fill&f=faces&fm=jpg&fl=progressive&auto=format%2Ccompress&dpr=1&w=1000)
Read in English (Lire en Anglais).
L'adversarial machine learning est une technique que les professionnels peuvent utiliser pour 茅tudier les attaques de mod猫les d'apprentissage automatique (machine learning en anglais) afin d'identifier les points faibles et de former une d茅fense contre les attaques malveillantes. Les attaques adverses cherchent 脿 manipuler les mod猫les d'apprentissage automatique en fournissant des 诲辞苍苍茅别蝉 d'entr茅e trompeuses. Ces entr茅es trompeuses entra卯nent un dysfonctionnement du mod猫le d'apprentissage automatique, ce qui risque d'exposer des 诲辞苍苍茅别蝉 ou de perturber la fonction exploit茅e par l'apprentissage automatique.
Malgr茅 son nom, l'apprentissage automatique contradictoire est une description des m茅thodes que vous pouvez utiliser pour 茅valuer les vuln茅rabilit茅s des mod猫les d'apprentissage automatique - il ne s'agit pas d'un type d'apprentissage automatique. L'ing茅nieur logiciel britannique John Graham-Cumming a introduit ce concept en 2004 lorsqu'il a d茅couvert que les spammeurs pouvaient manipuler les applications d'apprentissage automatique pour contourner les filtres anti-spam.
Les attaquants ciblent les mod猫les d'apprentissage automatique pour de nombreuses raisons et avec de nombreuses m茅thodes pour les manipuler. Les r茅sultats de la manipulation de l'IA ou des syst猫mes d'apprentissage automatique vont des r茅sultats incorrects rendus par les applications d'IA g茅n茅rative aux violations de 诲辞苍苍茅别蝉.
L'IA 茅tant un sujet br没lant dans le monde des affaires, jouissant d鈥檜ne popularit茅 croissante et d鈥檜ne attention accrue 脿 mesure que la technologie augmente sa capacit茅 d'automatisation des t芒ches, il est essentiel de comprendre ses vuln茅rabilit茅s pour prot茅ger les entreprises contre les cyberattaques. FRANCE NUM signale que, selon une enqu锚te BVA de mai 2023, 35 pour cent des entreprises de plus de 10 salari茅s utilisent d茅j脿 des technologies li茅es 脿 l鈥檌ntelligence artificielle [].
L'utilisation accrue de l'IA dans les entreprises, et en particulier dans les secteurs qui impliquent l'information et la s茅curit茅 de l'information, souligne l'importance de la s茅curit茅 contre les attaques adverses.
Les mod猫les d'apprentissage automatique s'entra卯nent 脿 effectuer des actions programm茅es en traitant de vastes ensembles de 诲辞苍苍茅别蝉. Ils classent les 茅l茅ments de 诲辞苍苍茅别蝉 en cat茅gories et d茅terminent des actions bas茅es sur ce que le mod猫le peut comprendre en fonction de la fa莽on dont il a 茅t茅 form茅.
L'apprentissage automatique contradictoire consiste 脿 perturber ce flux de travail en introduisant une donn茅e destin茅e 脿 tromper le mod猫le et 脿 l'emp锚cher de fonctionner correctement. Cela peut 茅galement 锚tre utile pour comprendre comment obtenir les r茅sultats souhait茅s en manipulant les 诲辞苍苍茅别蝉.
La manipulation des v茅hicules autonomes est un exemple qui souligne le danger potentiel de l'adversarial machine learning. Ces v茅hicules utilisent des mod猫les d'apprentissage automatique pour interpr茅ter les panneaux de signalisation. De l茅g猫res modifications de ces panneaux, telles que l'apposition d'un autocollant sur un panneau de c茅dez-le-passage ou toute autre modification l茅g猫re du panneau affectant sa classification, peuvent entra卯ner un dysfonctionnement du mod猫le d'apprentissage automatique.听
Les adversaires utilisent deux tactiques principales pour manipuler les mod猫les d'apprentissage automatique : les attaques 芦聽bo卯te noire聽禄 et 芦聽bo卯te blanche聽禄. Dans une attaque bo卯te blanche, le manipulateur a acc猫s au code du mod猫le et peut en contr么ler le fonctionnement interne. En revanche, l'attaquant ne conna卯t que les r茅sultats du mod猫le d'apprentissage automatique lors d'une attaque bo卯te noire. Un adversaire peut toujours manipuler un mod猫le d'apprentissage automatique m锚me s'il n'a pas acc猫s au code du mod猫le.
Les attaques d'apprentissage automatique contradictoire ont g茅n茅ralement le m锚me objectif global, mais utilisent des tactiques diff茅rentes pour l'atteindre. Vous constaterez que ces attaques se classent g茅n茅ralement dans l'une des trois cat茅gories suivantes.
Dans une attaque par empoisonnement, l'adversaire 芦聽empoisonne聽禄 le mod猫le d'apprentissage automatique pour qu'il soit moins performant, en contaminant les 诲辞苍苍茅别蝉 pour provoquer une vuln茅rabilit茅. Les filtres anti-spam de Google fournissent un exemple d'empoisonnement des 诲辞苍苍茅别蝉. Des adversaires ont tent茅 脿 plusieurs reprises de tromper le filtre de Google en signalant des quantit茅s massives d'e-mails comme n'茅tant pas des spams.
Les attaques par 茅vasion ont lieu sur des mod猫les d鈥檌ntelligence artificielle entra卯n茅e. L'adversaire modifie l茅g猫rement une entr茅e pour manipuler la fa莽on dont le mod猫le d'apprentissage automatique la classe. Il peut s'agir, par exemple, de placer un autocollant sur un panneau d'arr锚t pour faire croire au mod猫le d'apprentissage automatique d'une voiture auto-conduite qu'il s'agit d'un panneau de c茅dez-le-passage.
Les attaques par 茅vasion visent souvent 脿 contourner les filtres anti-spam ou anti-malware, les adversaires utilisant un langage trompeur ou marquant les logiciels ou les courriels de mani猫re trompeuse. Les attaquants utilisent des tactiques d'essai et d'erreur pour comprendre les op茅rations d'un mod猫le d'apprentissage automatique. Par exemple, un adversaire peut envoyer un grand nombre de courriels avec des variations de langage et observer ceux qui passent au travers d'un filtre anti-spam.
Une attaque par extraction implique qu'un attaquant manipule un mod猫le d'apprentissage automatique pour cr茅er une r茅plique du mod猫le ou pour voler des 诲辞苍苍茅别蝉 du mod猫le. Comme les attaques par 茅vasion, les attaques par extraction s'appuient souvent sur les d茅ductions que l'attaquant peut faire sur les r茅sultats g茅n茅r茅s par le mod猫le.
Les attaques de type 芦聽adversarial machine learning聽禄 compromettent l'efficacit茅 des mod猫les d'apprentissage automatique. Les manipulations causent des dommages, 茅rodent la confiance dans l'application du mod猫le ou contournent les mesures de s茅curit茅 telles que les filtres pour les contenus nuisibles.
Un exemple contradictoire est un terme qui fait r茅f茅rence aux 诲辞苍苍茅别蝉 d'entr茅e fournies 脿 un mod猫le d'apprentissage automatique afin de le manipuler pour qu'il fonctionne mal. Ces 诲辞苍苍茅别蝉 peuvent sembler inoffensives pour un 锚tre humain, mais elles ciblent la capacit茅 de l'apprentissage automatique 脿 classer correctement les 诲辞苍苍茅别蝉.
Par exemple, les cam茅ras de s茅curit茅 sont parfois exploit茅es par des mod猫les d'apprentissage automatique. Si un adversaire remarque que le syst猫me de s茅curit茅 d'un site tient compte du fait qu'une personne charg茅e de l'entretien entre dans le b芒timent 脿 une certaine heure chaque nuit, le mod猫le d'apprentissage automatique peut autoriser n'importe quelle action 脿 cette heure-l脿 sans alerte de s茅curit茅. Un adversaire qui en prendrait note pourrait potentiellement manipuler le mod猫le d'apprentissage automatique afin qu鈥檌l ne d茅tecte pas une menace si le mod猫le autorise n'importe qui 脿 entrer dans le b芒timent 脿 cette heure-l脿 sans alerte de s茅curit茅.
Les entreprises disposent de plusieurs moyens pour lutter contre l'apprentissage automatique contradictoire, et il devient de plus en plus essentiel pour elles d'茅laborer des strat茅gies 脿 cette fin. Les attaques de type 芦聽Adversarial Machine Learning聽禄 restent dangereuses et augmentent potentiellement le niveau de destruction qu'elles peuvent causer 脿 mesure que les entreprises s鈥檃ppuient davantage sur les applications d'IA. Microsoft d茅pense aujourd'hui plus de 20 milliards de dollars rien que pour la cybers茅curit茅 []. Le secteur de la s茅curit茅 de l'information atteindra 215 milliards de dollars en 2024, soit une augmentation de 14,3 pour cent par rapport 脿 l'estimation de 2023, selon le cabinet Gartner de conseil en gestion [].
De nombreuses entreprises, dont Microsoft et Google, mettent leur code 脿 disposition en tant que code source ouvert afin d'am茅liorer la cybers茅curit茅, en particulier dans un environnement qui 茅volue rapidement, comme celui de l'intelligence artificielle. On pourrait penser que le code source ouvert conduirait plut么t 脿 une augmentation des manipulations parce qu'il est accessible 脿 un grand nombre de personnes. Cependant, le code source ouvert permet 茅galement aux experts du monde entier de transmettre leurs connaissances en mati猫re de mesures de cybers茅curit茅. Les experts en programmation, les chercheurs et les professionnels de haut niveau ayant acc猫s au code, les entreprises peuvent facilement identifier les vuln茅rabilit茅s et les corriger.
Les m茅thodes existantes de d茅fense contre les attaques par adversarial machine learning se heurtent 脿 un probl猫me encore non r茅solu. Les d茅fenses contre les attaques anticip茅es ou d茅tect茅es ne sont pas adaptatives. La maintenance doit 锚tre effectu茅e r茅guli猫rement pour prot茅ger les mod猫les d'apprentissage automatique contre les vuln茅rabilit茅s.
Les programmeurs ajustent les mod猫les d'apprentissage automatique pour qu'ils s'adaptent aux menaces et se prot猫gent des attaques principalement 脿 l'aide de deux techniques.
L'apprentissage par des exemples contradictoires est un protocole dans lequel les humains introduisent dans le mod猫le des exemples contradictoires 鈥 des entr茅es corrompues qui provoquent le dysfonctionnement des mod猫les d'apprentissage automatique. Le mod猫le qualifie alors comme mena莽antes ces 诲辞苍苍茅别蝉 malveillantes connues. De la m锚me mani猫re que le mod猫le d'apprentissage automatique apprend 脿 classer les 诲辞苍苍茅别蝉 dans le cadre de son processus normal, le mod猫le s'entra卯ne 茅galement 脿 rejeter les perturbations. Cette m茅thode implique des efforts de maintenance et de surveillance continus, car les tentatives de manipulation du mod猫le d'apprentissage automatique 茅voluent elles-m锚mes.
La distillation d茅fensive est une m茅thode tr猫s adaptable de formation des mod猫les d'apprentissage automatique pour pr茅venir les attaques. Un 芦聽r茅seau enseignant聽禄 s'entra卯ne sur un ensemble de 诲辞苍苍茅别蝉. Un autre r茅seau, le 芦聽r茅seau apprenant聽禄, utilise les probabilit茅s de classe du r茅seau enseignant 鈥 la probabilit茅 de classification des entr茅es par le mod猫le 鈥 comme cibles douces dans sa propre formation. Comme le r茅seau d'apprentissage fonctionne avec des informations plus nuanc茅es, il est capable de classer les informations 脿 un niveau plus profond.
Vous pouvez approfondir les concepts de l'apprentissage automatique avec le cours Construire des arbres de d茅cision, des SVM et des r茅seaux neuronaux artificiels de CertNexus, propos茅 sur 糖心vlog官网观看, qui peut vous aider 脿 explorer les concepts cl茅s que les praticiens de l'intelligence artificielle doivent conna卯tre. Vous pouvez former et 茅valuer plusieurs composants de r茅seaux neuronaux et optimiser les performances des applications d'IA pour des t芒ches telles que le traitement du langage.
FRANCE NUM. 芦 , https://www.francenum.gouv.fr/guides-et-conseils/pilotage-de-lentreprise/gestion-traitement-et-analyse-des-donnees/exploiter. 禄 Consult茅 le 9 d茅cembre 2024.
Yahoo News. 芦聽, https://finance.yahoo.com/news/microsofts-security-arm-is-now-a-20-billion-per-year-business-213419664.html.听禄 Consult茅 le 9 d茅cembre 2024.
Gartner. 芦聽, https://www.gartner.com/en/newsroom/press-releases/2023-09-28-gartner-forecasts-global-security-and-risk-management-spending-to-grow-14-percent-in-2024.听禄 Consult茅 9 d茅cembre 2024.
脡quipe 茅ditoriale
L鈥櫭﹒uipe 茅ditoriale de 糖心vlog官网观看 est compos茅e de r茅dacteurs, de r茅dacteurs et de v茅rificateurs de fai...
Ce contenu a 茅t茅 mis 脿 disposition 脿 des fins d'information uniquement. Il est conseill茅 aux 茅tudiants d'effectuer des recherches suppl茅mentaires afin de s'assurer que les cours et autres qualifications suivis correspondent 脿 leurs objectifs personnels, professionnels et financiers.