Ce rôle implique la réalisation de tests de sécurité offensifs avancés sur les systèmes d'IA/ML, y compris les intégrations de LLM et les plateformes GenAI. Le spécialiste agit en tant qu'expert en la matière en sécurité IA/LLM, collaborant avec diverses équipes pour identifier les vulnérabilités, renforcer les contrôles et assurer des déploiements d'IA sécurisés et conformes à l'échelle de l'entreprise.
Concevoir et exécuter des tests d'intrusion complets ciblant les modèles IA/ML, les applications LLM, les pipelines de modèles, les systèmes de récupération, les agents de données et les flux de travail métier basés sur l'IA.,Identifier les vulnérabilités telles que le jailbreaking, l'injection de prompt, l'extraction de modèle, les attaques ML adverses, l'empoisonnement des données, les contournements RAG et la circonvention des garde-fous de sécurité.,Évaluer et développer des outils (y compris des utilitaires internes et des frameworks open source) pour automatiser et étendre les tests de sécurité IA/LLM.,Analyser la gouvernance des données d'entraînement, la conception des garde-fous, les points d'inférence, les prompts système, l'autonomie des agents, la surveillance des modèles et les pipelines ModelOps.,Effectuer des analyses de risques de sécurité et de sûreté sur les déploiements IA/ML nouveaux et existants, y compris les services basés sur le cloud, les API, les places de marché de modèles et les intégrations LLM tierces.,Évaluer les risques de la chaîne d'approvisionnement de l'IA, l'intégrité des dépendances et l'alignement avec les normes d'entreprise et les obligations réglementaires.,Présenter des conclusions claires et exploitables aux parties prenantes techniques et non techniques, y compris des résumés exécutifs, des preuves de concept techniques et des recommandations de remédiation priorisées.,Collaborer avec l'ingénierie, la science des données, le cloud, la cyberdéfense, l'architecture et la gestion des risques pour remédier aux conclusions et améliorer la posture de sécurité de l'IA.,Contribuer aux normes, politiques, objectifs de contrôle et pratiques de renforcement de la sécurité de l'IA à l'échelle de l'organisation.,S'assurer que les tests d'intrusion IA sont conformes aux exigences réglementaires, de confidentialité, de sécurité des modèles et de politique interne.,Maintenir une expertise approfondie des menaces émergentes de l'IA, des frameworks industriels, des méthodologies d'évaluation et des normes de sécurité mondiales.,Participer aux enquêtes sur les incidents de sécurité liés à l'IA/ML, en fournissant une expertise en matière d'analyse des causes profondes et de méthodes d'exploitation.,Soutenir la préparation des audits et aider à la rédaction des réponses de la direction, des plans de remédiation et de la documentation de traitement des risques.
Expérience en tests d'intrusion sur les plateformes IA/LLM, les charges de travail cloud et les environnements soumis à la norme PCI.,Connaissance des frameworks de sécurité (NIST AI RMF, OWASP LLM/ML, ISO 42001, MITRE ATLAS).,Certifications pertinentes : OSCP, CEH, GPEN, CISSP, ou certifications en sécurité IA/ML.,Expérience dans le soutien aux audits, aux revues de conformité et aux activités de réponse aux incidents.
Cette offre d'emploi est soumise à la réglementation provinciale en matière d'emploi.
La Banque Toronto-Dominion et ses filiales sont collectivement connues sous le nom de Groupe Banque TD, l'une des plus grandes banques en Amérique du Nord. La TD offre une vaste gamme de produits et de services bancaires personnels, commerciaux et d'investissement à plus de 27 millions de clients dans le monde. Basée à Toronto, au Canada, la banque exerce ses activités par l'entremise de secteurs clés, notamment les services de détail au Canada et aux États-Unis, ainsi que les services bancaires de gros.
BerryMap utilise des cookies pour fournir des fonctionnalités essentielles, analyser l'utilisation et améliorer votre expérience. Vous pouvez personnaliser vos préférences ci-dessous.