Webinaire
Date de l'événement :
|
Menaces émergentes liées à l’adoption de l’IA et nécessité d’une gestion des risques humains
Participez à notre webinaire pour découvrir comment votre organisation peut adopter l’IA tout en gérant les risques qui l’accompagnent.
Ajouter au calendrier

Alors que les organisations accélèrent l'adoption de l'IA, de nouvelles failles de sécurité apparaissent, non seulement à cause de la technologie elle-même, mais aussi de la façon dont elle se comporte, dont elle est utilisée et dont elle interagit avec les humains. Ces risques sont souvent invisibles pour les contrôles traditionnels, créant un angle mort croissant dans les programmes de sécurité modernes.
Dans cette session, Ashley Rose, fondatrice et PDG de Living Security, et Matt O’Brien, PDG de SnowCrash Labs, examineront cette évolution sous deux angles critiques : la manière dont les comportements pilotés par l'IA introduisent de nouvelles formes de risque, et la façon dont les organisations peuvent gérer ce risque de manière pratique à grande échelle.
Ensemble, ils présenteront comment les organisations peuvent passer de la compréhension de ces menaces à l'action grâce à une approche moderne de gestion des risques humains qui leur permet de :
Préparer les employés à reconnaître et à interagir en toute sécurité avec des systèmes d'IA présentant un comportement inattendu ou à risque
Obtenir une visibilité sur la manière dont les outils et agents d'IA sont consultés et utilisés dans l'ensemble de l'organisation
Identifier les risques à la fois dans les actions humaines et dans les résultats pilotés par l'IA
Mettre en œuvre des actions ciblées et continues pour réduire les risques grâce à une formation adaptative, des analyses et des contrôles
Les participants repartiront avec une compréhension claire de la manière dont l'adoption de l'IA introduit de nouvelles formes de risque, ainsi qu'une voie pratique pour gérer ce risque au sein de leurs équipes, de leurs outils d'IA et des interactions entre eux.
Inscrivez-vous au webinaire ici.



