Sagar Joshi

Formateur ISTQB agréé | Directeur général

Rejoignez ma présentation sur : Pourquoi tester les systèmes d’IA remet en question les stratégies de test traditionnelles

Les stratégies de test traditionnelles reposent sur des hypothèses qui ont bien servi les tests logiciels pendant des décennies : le comportement du système est déterministe, les résultats attendus peuvent être clairement définis, les données de test sont neutres et les outils aident à l’exécution plutôt qu’au jugement. Les systèmes basés sur l’IA violent discrètement toutes ces hypothèses. Par conséquent, l’application de stratégies de test traditionnelles aux systèmes d’IA crée souvent un faux sentiment de confiance plutôt qu’une couverture de risque significative.

En savoir plus

Qui est Sagar Joshi ?

Sagar Joshi est un professionnel des tests logiciels, un formateur et un entrepreneur avec plus de 16 ans d’expérience dans les domaines des logiciels automobiles et d’entreprise. Il est le fondateur de SAJO Academy Private Limited, où il se spécialise dans la prestation de formations pratiques de certification ISTQB® alignées sur l’industrie pour les particuliers et les équipes d’entreprise.

Ayant travaillé avec des organisations telles que Bosch, TCS et KPIT, il apporte une solide expertise en gestion des tests, en assurance qualité et en pratiques agiles. Il détient de multiples certifications ISTQB, ainsi que des certifications PMP et Scrum.

Sagar Joshi est également l’auteur de Software Testing Essentials – An ISTQB® Foundation Guide et est animé par une mission claire : aider les testeurs à acquérir des bases solides et à développer des carrières durables grâce à un apprentissage réaliste et pratique.

De quoi Sagar Joshi parlera-t-il ?

Pourquoi tester les systèmes d’IA remet en question les stratégies de test traditionnelles

Les stratégies de test traditionnelles reposent sur des hypothèses qui ont bien servi les tests logiciels pendant des décennies : le comportement du système est déterministe, les résultats attendus peuvent être clairement définis, les données de test sont neutres et les outils aident à l’exécution plutôt qu’au jugement. Les systèmes basés sur l’IA violent discrètement toutes ces hypothèses. Par conséquent, l’application de stratégies de test traditionnelles aux systèmes d’IA crée souvent un faux sentiment de confiance plutôt qu’une couverture de risque significative.

Cette présentation explique pourquoi tester les systèmes d’IA remet en question les stratégies de test traditionnelles, non pas parce que l’IA est plus complexe, mais parce qu’elle change la nature du comportement, de la prise de décision et des connaissances au sein des systèmes. Les modèles d’IA n’exécutent pas de logique prédéfinie ; ils déduisent le comportement des données. Leurs sorties sont probabilistes, dépendantes du contexte et souvent plausibles même lorsqu’elles sont incorrectes. Cela pose des problèmes tels que le problème de l’oracle de test, les biais cachés dans les données de test, les résultats non déterministes, la dérive du modèle et la responsabilité peu claire des décisions.

À l’aide d’exemples de tests pratiques, y compris des données de test générées par l’IA et une conception de test assistée par l’IA, la session montre comment les testeurs peuvent involontairement commencer à traiter la sortie de l’IA comme une « connaissance » plutôt que comme des hypothèses qui nécessitent une validation. Lorsque cela se produit, les stratégies basées sur les résultats attendus, les mesures de couverture et la stabilité de la régression commencent à échouer de manière subtile mais critique.

Plutôt que de promouvoir de nouveaux outils ou techniques d’automatisation, cette session recadre les tests d’IA comme un problème de stratégie. Elle explore comment les testeurs doivent repenser les risques, redéfinir les critères d’acceptation et établir des limites de confiance claires pour les sorties de l’IA. L’accent passe de la validation de l’exactitude à la remise en question des hypothèses et à la décision du moment où la sortie de l’IA peut être utilisée en toute sécurité.

Les participants repartiront avec une compréhension claire des points sur lesquels les stratégies de test traditionnelles échouent pour les systèmes d’IA, des raisons pour lesquelles cela est important et de la manière dont les testeurs peuvent adapter leur réflexion pour tester les systèmes d’IA de manière responsable sans être induits en erreur par des résultats convaincants mais peu fiables.

Inscrivez-vous à ma présentation

* indicates required

A4Q is committed to protecting and respecting your privacy, and we’ll only use your personal information to administer your account and to provide the products and services you requested from us. From time to time, we would like to contact you about our products and services, as well as other content that may be of interest to you. In order to provide you the content requested, we need to store and process your personal data. If you consent to us storing your personal data for this purpose, please tick the checkbox below.

I agree to receive other marketing information and receive one-to-one communication regarding sales, customer services, promotions, or additional information from A4Q and the sponsors.

We use Mailchimp as our marketing platform. By clicking below to subscribe, you acknowledge that your information will be transferred to Mailchimp for processing. Learn more about Mailchimp’s privacy practices.