D茅couvrez les offensives et d茅fensives actuelles aliment茅es par l'IA et comment pr茅parer votre organisation 脿 ces deux aspects.
![[Image en vedette] Plusieurs coll猫gues partagent des analyses de donn茅es autour d'une table en bois recouverte d'ordinateurs portables, de tablettes et de documents.](https://d3njjcbhbojbot.cloudfront.net/api/utilities/v1/imageproxy/https://images.ctfassets.net/wp1lcwdav1p1/M8edhfDiRZAF30euOxZ0i/ba839ca1c57a28fc00b676490f693e1a/GettyImages-981250802__1_.jpg?w=1500&h=680&q=60&fit=fill&f=faces&fm=jpg&fl=progressive&auto=format%2Ccompress&dpr=1&w=1000)
Read in English (Lire en anglais).
L'engouement r茅cent autour de l'intelligence artificielle (IA) peut donner une impression de nouveaut茅, mais pour de nombreuses entreprises, l'IA est d茅j脿 une technologie famili猫re. En fait, selon le Forum 脡conomique Mondial 2025, 66 pour cent des organisations anticipent que l'IA aura un impact majeur sur la cybers茅curit茅 en 2025, bien que seulement 37 pour cent disposent des processus n茅cessaires pour 茅valuer les risques de s茅curit茅 li茅s 脿 ces outils avant leur d茅ploiement []. Dans l'article suivant, nous discuterons de l'importance de s'adapter 脿 l'IA pour la cybers茅curit茅 et comment des strat茅gies efficaces impliquent chaque membre d'une organisation.
听
听
听
听
Depuis l'茅mergence d'outils d'IA conviviaux comme Chat-GPT, la demande en mati猫re de ma卯trise de l'IA est 茅lev茅e et continue d'augmenter. L'IA s'est m锚me retrouv茅e au premier plan d'industries traditionnellement peu associ茅es 脿 la technologie, comme les soins de sant茅, la recherche et la gestion. Depuis 2018, le nombre d'entreprises recherchant des employ茅s poss茅dant des comp茅tences en IA a plus que doubl茅 [].
Quelques caract茅ristiques de l'IA la rendent bien adapt茅e 脿 une utilisation d茅fensive en cybers茅curit茅. Pour commencer, elle est capable de dig茅rer des informations beaucoup plus rapidement que les humains, et en quantit茅s bien plus importantes. Elle peut 茅galement 锚tre plus pr茅cise, r茅duisant le risque d'erreurs humaines telles que les faux positifs ou les erreurs de jugement caus茅es par la fatigue due aux alertes. Elle est utilis茅e conjointement avec des outils traditionnels de cybers茅curit茅 tels que les antivirus et les logiciels de d茅tection d'intrusion pour une surveillance en temps r茅el et un confinement imm茅diat des menaces.
D茅tection am茅lior茅e des logiciels malveillants : L'IA peut analyser diff茅rents types de donn茅es pour identifier des caract茅ristiques de fichiers irr茅guli猫res et des mod猫les de code afin de mieux identifier les logiciels, scripts et comportements malveillants.
Analyse de s茅curit茅 : Les registres et journaux de s茅curit茅 des incidents pass茅s peuvent 锚tre analys茅s par l'IA pour d茅couvrir des tendances ou d'autres m茅triques qui seraient chronophages ou difficiles 脿 identifier manuellement pour les analystes de s茅curit茅 humains.
S茅curit茅 proactive : Les outils d'IA peuvent 锚tre entra卯n茅s sur des donn茅es historiques pour pr茅dire et pr茅venir les attaques futures. Par inf茅rence logique, ils peuvent analyser les comportements pr茅c茅dents pour sugg茅rer des solutions possibles et r茅duire les temps de r茅ponse des 茅quipes de cybers茅curit茅.
Surveillance continue : L'IA en cybers茅curit茅 茅limine le d茅lai du temps de r茅ponse humain. Des syst猫mes complexes au niveau de l'entreprise peuvent 锚tre surveill茅s constamment, des r茅seaux aux applications en passant par les appareils qui les ex茅cutent. En cas de violation, ils peuvent agir rapidement, en priorisant les mesures de r茅cup茅ration pour s茅curiser les donn茅es de sauvegarde et maintenir les entreprises op茅rationnelles.
Les ran莽ongiciels seuls devraient co没ter aux victimes environ 265 milliards de dollars par an d'ici 2031 []. Outre le fait d'茅viter des incidents co没teux de cybers茅curit茅, il a 茅t茅 d茅montr茅 que les outils d'IA ont un impact direct sur la rentabilit茅 en automatisant les flux de travail et en augmentant la productivit茅 des employ茅s.
听
听
听
听
De la m锚me mani猫re que l'IA a r茅volutionn茅 la d茅fense en cybers茅curit茅, elle a permis des attaques bien plus complexes et 脿 plus grande 茅chelle. Les mesures de cybers茅curit茅 traditionnelles, comme les logiciels antivirus qui s'appuient sur des signatures de menaces, peuvent 茅chouer en raison de la nature adaptative des cybermenaces actuelles. Actuellement, il n'existe pas aux 脡tats-Unis de l茅gislation f茅d茅rale compl猫te concernant l'IA. Ces circonstances laissent aux entreprises la responsabilit茅 de suivre le rythme des exigences en mati猫re de protection des donn茅es et de confidentialit茅.
Deepfakes : L'IA peut 锚tre utilis茅e pour cr茅er des vid茅os et des audios synth茅tiques imitant des personnes r茅elles. En engageant les victimes dans une conversation avec des personnes apparemment famili猫res, les acteurs malveillants peuvent les convaincre de partager des informations sensibles ou de diffuser de fausses informations.
Algorithmes de devination de mots de passe : Les logiciels de craquage de mots de passe aliment茅s par l'IA comme PassGAN sont capables de deviner des mots de passe courants 脿 sept chiffres en quelques minutes. Pour d'autres types de mots de passe, l'IA a craqu茅 51 pour cent d'entre eux en moins d'une minute, 65 pour cent en moins d'une heure, 71 pour cent en moins d'une journ茅e et 81 pour cent en moins d'un mois [].
Mod猫les d'attaque adaptatifs : Les logiciels m茅tamorphiques et polymorphiques sont capables de modifier leur code pour s'adapter au syst猫me 脿 travers lequel ils se propagent. Ces types d'attaques transformatives peuvent 锚tre difficiles 脿 g茅rer par les m茅thodes de d茅tection traditionnelles, 茅tant donn茅 qu'elles peuvent changer de forme au moment o霉 elles sont d茅tect茅es.
Logiciels malveillants g茅n茅ratifs : Les avanc茅es r茅centes dans les mod猫les g茅n茅ratifs comme GPT-4 permettent 脿 des personnes ayant peu ou pas de connaissances en programmation de g茅n茅rer du code fonctionnel. Entre de mauvaises mains, ces outils peuvent 锚tre sollicit茅s pour cr茅er des logiciels malveillants ou r茅soudre des probl猫mes li茅s au contournement des mesures de d茅fense en cybers茅curit茅.
L'IA ne se contente pas de faciliter les cyberattaques existantes ; elle en cr茅e 茅galement de nouvelles, notamment l'empoisonnement des donn茅es. L'empoisonnement des donn茅es est la manipulation des donn茅es d'entra卯nement de l'apprentissage automatique. Des donn茅es empoisonn茅es sont inject茅es dans une base de donn茅es, corrompant l'algorithme et l'amenant 脿 produire des r茅sultats inexacts. Dans d'autres cas, les attaques d'empoisonnement des donn茅es peuvent cr茅er des vuln茅rabilit茅s cach茅es dans une base de donn茅es, permettant 脿 des acteurs malveillants de contr么ler secr猫tement le mod猫le ou de le tromper pour qu'il fasse confiance 脿 des types de fichiers non s茅curis茅s.
En 2024, le march茅 mondial de l'IA et cybers茅curit茅 repr茅sentait 24,82 milliards de dollars []. D'ici 2034, sa valeur devrait atteindre 146,52 milliards de dollars []. En partie, cette croissance peut 锚tre attribu茅e 脿 une plus grande accessibilit茅. Gr芒ce aux avanc茅es dans la puissance de calcul, les entreprises n'ont plus besoin d'ensembles de donn茅es massifs et de serveurs haut de gamme pour prendre en charge la technologie IA. De nombreuses solutions compl猫tes de cybers茅curit茅 IA sont disponibles aujourd'hui, mais la technologie n'est pas le seul 茅l茅ment que les dirigeants d'entreprise devraient consid茅rer.
Les transformations num茅riques peuvent 茅chouer sans le soutien appropri茅 des utilisateurs. Les outils d'IA ne sont puissants que gr芒ce aux humains qui les utilisent, et les cas de mauvaise utilisation ont augment茅 de plus de 20 fois depuis 2013 []. Envisagez-vous de mettre en 艙uvre des mesures d鈥橧A et cybers茅curit茅 dans votre organisation ? Consid茅rez de commencer par les domaines d'int茅r锚t suivants avant d'introduire une solution technique.
La recherche montre que la formation est le facteur principal pour une adoption r茅ussie de l'IA g茅n茅rative, selon 48 pour cent des employ茅s []. De nombreuses entreprises ont commenc茅 脿 la fournir, mais ces exp茅riences d'apprentissage ne se r茅percutent pas depuis la direction. Plus de 20 pour cent des employ茅s d茅clarent recevoir un soutien minimal ou nul pour obtenir la formation dont ils ont besoin []. La mise 脿 niveau des comp茅tences en IA garantit que votre organisation reste 脿 jour, mais elle peut 茅galement 锚tre une opportunit茅 d'offrir des opportunit茅s 茅gales de croissance et de d茅veloppement pour une main-d'艙uvre plus coh茅sive et efficace.
Si la r茅ticence 脿 s'adapter 脿 une initiative d'IA est une pr茅occupation, soyez assur茅 que les employ茅s appr茅cient g茅n茅ralement le d茅veloppement professionnel. Voici quelques informations sur les programmes de formation des employ茅s :
En 2023, seulement 28 pour cent des actifs en France ont b茅n茅fici茅 d'une formation professionnelle, soit dix points de moins qu'en 2022 []
Le syst猫me fran莽ais impose aux entreprises priv茅es de 11 salari茅s et plus une contribution obligatoire de 1,6 pour cent de la masse salariale pour la formation professionnelle, tandis que les entreprises de moins de 11 salari茅s sont soumises 脿 un taux de 0,55 pour cent []
En mati猫re de droits 脿 la formation, les salari茅s fran莽ais b茅n茅ficient d'un minimum de 24 heures de formation par an (contre 20 auparavant) jusqu'脿 un plafond de 120 heures. Une fois cette limite atteinte, ils acqui猫rent 12 heures suppl茅mentaires par an jusqu'脿 un maximum de 150 heures []
Un exemple de cybermenace qui ne peut 锚tre 茅limin茅e que par la formation des employ茅s est l'ing茅nierie sociale. L'ing茅nierie sociale manipule les gens pour qu'ils divulguent des informations sensibles ou s'engagent dans des t芒ches nuisibles. Cela peut inclure le t茅l茅chargement de logiciels suspects ou l'achat d'articles non autoris茅s avec les fonds de l'entreprise.
Bien que certaines attaques d'ing茅nierie sociale soient facilement rep茅rables, les outils d'IA augmentent leur efficacit茅 et l'茅chelle 脿 laquelle elles peuvent 锚tre men茅es. Par exemple, les emails de phishing contiennent souvent des erreurs grammaticales ou d'orthographe qui suscitent la m茅fiance. Avec l'IA g茅n茅rative comme chatbots, ces emails peuvent 锚tre compos茅s plus rapidement, plus souvent et avec moins d'erreurs. Enseigner aux membres de l'organisation ce que l'IA peut faire et comment elle est utilis茅e est crucial pour prot茅ger les employ茅s et les ressources de l'entreprise.

Voici quelques exemples d'outils de cybers茅curit茅 bas茅s sur l'IA sur le march茅 actuel :
IBM Security Verify : Id茅al pour les environnements de travail hybrides, cette solution de gestion d'identit茅 et d'acc猫s aliment茅e par l'IA fournit une gouvernance de s茅curit茅 automatis茅e sur site et dans le cloud. C'est une approche logiciel en tant que service (SaaS) qui prot猫ge 脿 la fois les membres internes et les clients.
Amazon GuardDuty : Les syst猫mes AWS peuvent obtenir une surveillance continue et une d茅tection de menaces aliment茅e par l'apprentissage automatique (ML) gr芒ce 脿 Amazon GuardDuty. Il cr茅e des rapports de s茅curit茅 d茅taill茅s pour une visibilit茅 accrue et des r茅solutions plus rapides pour votre 茅quipe cyber.
CylanceENDPOINT : CylanceENDPOINT se concentre sur la d茅fense pr茅ventive contre les logiciels malveillants, les menaces zero-day et les exploits de m茅moire sans fichier. Son IA utilise moins de 6 pour cent de la puissance de traitement du CPU, ce qui en fait une option l茅g猫re pour les entreprises avec des syst猫mes natifs dans le cloud, hybrides et sur site.
Les syst猫mes modernes de cybers茅curit茅 doivent 锚tre agiles et adaptables pour faire face 脿 la nature changeante des cybermenaces actuelles. Bien que l'utilisation de l'IA dans les syst猫mes de cybers茅curit茅 soit un excellent moyen de combattre le feu par le feu, des protocoles transparents et collaboratifs sont 茅galement essentiels. Pr茅parez votre 茅quipe au succ猫s avec un plan en deux parties, comprenant une mise en 艙uvre technique soutenue par une formation approfondie des employ茅s.

World Economic Forum. 芦, https://reports.weforum.org/docs/WEF_Global_Cybersecurity_Outlook_2025.pdf. 禄 Consult茅 le 16 avril 2025.
World Economic Forum. 鈥, https://www.weforum.org/stories/2025/01/ai-workplace-skills/.鈥 Consult茅 le 16 avril 2025.
Cybercrime Magazine. 鈥, https://cybersecurityventures.com/global-ransomware-damage-costs-predicted-to-reach-250-billion-usd-by-2031/.鈥 Consult茅 le 16 avril 2025.
AI Incident Database. 鈥, https://incidentdatabase.ai/reports/2962/.鈥 Consult茅 le 16 avril 2025.
Precedence Research. 鈥, https://www.precedenceresearch.com/artificial-intelligence-in-cybersecurity-market.鈥 Consult茅 le 16 avril 2025.
Stanford University. 鈥, https://aiindex.stanford.edu/wp-content/uploads/2024/05/HAI_AI-Index-Report-2024.pdf.鈥 Consult茅 le 16 avril 2025.
McKinsey Digital. 鈥, https://www.mckinsey.com/capabilities/mckinsey-digital/our-insights/superagency-in-the-workplace-empowering-people-to-unlock-ais-full-potential-at-work.鈥 Consult茅 le 16 avril 2025.
Auris Finance. 芦, https://auris-finance.fr/en/in-2023-28-of-the-working-population-have-completed-a-training-programme/. 禄 Consult茅 le 16 avril 2025.
Centre Inffo. 芦, https://www.centre-inffo.fr/content/uploads/2023/03/fpc-en-france-2023-a4-en-march-2023.pdf. 禄 Consult茅 le 16 avril 2025.
Employment Law Worldview. 芦, https://www.employmentlawworldview.com/new-statutory-training-scheme-for-employees-in-france/. 禄 Consult茅 le 16 avril 2025.
脡quipe 茅ditoriale
L鈥櫭﹒uipe 茅ditoriale de 糖心vlog官网观看 est compos茅e de r茅dacteurs, de r茅dacteurs et de v茅rificateurs de fai...
Ce contenu a 茅t茅 mis 脿 disposition 脿 des fins d'information uniquement. Il est conseill茅 aux 茅tudiants d'effectuer des recherches suppl茅mentaires afin de s'assurer que les cours et autres qualifications suivis correspondent 脿 leurs objectifs personnels, professionnels et financiers.