Bruno Legeard

Chef de AI Lab 

Présentation en français

Rejoignez ma présentation sur: Un agent IA qui sait dire “J’ai un doute”, et qui apprend de vous.
Créer une relation de confiance critique et apprenante entre les professionnels QA et leurs IA de test

En deux ans, l’état de l’art des agents IA d’exécution de tests sur l’IHM a franchi un cap : plus de 85 % de résultats corrects sur des benchmarks significatifs. Le sujet aujourd’hui n’est plus la performance brute, ce sont les cas résiduels, ceux où l’agent se trompe. Et vous ne voulez pas avoir à le surveiller en permanence.
La bonne nouvelle : on sait détecter quand l’agent doute et risque de se tromper.
 
Read More

Qui est Bruno Legeard ?

Chef de AI Lab

Bruno est un professionnel expérimenté des tests logiciels. Depuis années, il a développé une expertise dans l’application des technologies d’IA en support aux activités de test logiciel. Il contribue à la communauté QA, comme auteur d’articles et de livres, et comme animateur du CFTL. Il est l’un auteur de la nouvelle certification ISTQB “Tester avec l’IA générative”.

De quoi va parler Bruno Legeard?

Un agent IA qui sait dire “J’ai un doute”, et qui apprend de vous.
Créer une relation de confiance critique et apprenante entre les professionnels QA et leurs IA de test

En deux ans, l’état de l’art des agents IA d’exécution de tests sur l’IHM a franchi un cap : plus de 85 % de résultats corrects sur des benchmarks significatifs. Le sujet aujourd’hui n’est plus la performance brute, ce sont les cas résiduels, ceux où l’agent se trompe. Et vous ne voulez pas avoir à le surveiller en permanence.
La bonne nouvelle : on sait détecter quand l’agent doute et risque de se tromper. Cela ouvre deux possibilités très utiles : l’agent indique “j’ai un doute”, et un dialogue s’engage entre l’agent IA et le QA pour lever les incertitudes et apprendre.
C’est ce changement de paradigme que je souhaite partager dans cette présentation, en m’appuyant sur deux ans de retour d’expérience. La présentation s’articule autour de trois mécanismes concrets.

Mesurer rigoureusement : un cadre d’évaluation qui va au-delà du verdict final pour mesurer la précision de chaque étape et la reproductibilité des résultats de l’IA lors de l’exécution des tests.

Savoir s’arrêter et dialoguer : quand l’agent doute, il n’invente pas. Après l’exécution, il pose des questions au QA. Un agent qui sait douter est plus fiable qu’un agent qui tranche toujours.

Apprendre, mémoriser et utiliser la connaissance : chaque dialogue forge des items de connaissance dans la mémoire à long terme de l’agent. Ainsi, l’agent ne pose pas deux fois la même question. Il utilise les connaissances acquises pour réaliser correctement sa tâche, en s’adaptant aux pratiques et aux attentes de l’équipe QA pour laquelle il opère.

Ce qui émerge, c’est un nouveau rôle pour le QA : ni surveillant passif ni remplacé, mais éducateur d’un agent IA qui gagne en autonomie tout en laissant au QA le contrôle sur ce qui compte.

Register for my presentation

* indicates required

A4Q is committed to protecting and respecting your privacy, and we’ll only use your personal information to administer your account and to provide the products and services you requested from us. From time to time, we would like to contact you about our products and services, as well as other content that may be of interest to you. In order to provide you the content requested, we need to store and process your personal data. If you consent to us storing your personal data for this purpose, please tick the checkbox below.

I agree to receive other marketing information and receive one-to-one communication regarding sales, customer services, promotions, or additional information from A4Q and the sponsors.

We use Mailchimp as our marketing platform. By clicking below to subscribe, you acknowledge that your information will be transferred to Mailchimp for processing. Learn more about Mailchimp’s privacy practices.