Un test Playwright échoue. Le message d'erreur dit :
TimeoutError: Page.click: Timeout 5000ms exceeded.
waiting for locator("a[href='/international/']")
Le sélecteur est bon. L'élément existe. Alors pourquoi ça marche pas ?
Parce que le bandeau cookies recouvre tout. Ou parce que l'élément est dans un iframe. Ou parce que le DOM a été rechargé en AJAX. Ou parce que le bouton est disabled. Ou parce que tu fais un click() au lieu d'un dblclick().
QA Autopilot diagnostique la vraie cause en une seule commande.
Résultats sur une suite de 7 tests pièges conçus pour piéger les outils de diagnostic :
| Test | Piège | Diagnostic IA | Catégorie | Confiance |
|---|---|---|---|---|
| 🫣 Overlay cookies | Élément recouvert par bandeau | ✅ Bandeau cookies bloque le click | element_obscured |
🟢 95% |
| 🖼️ Iframe invisible | Élément dans iframe, cherché dans main frame | ✅ Contexte iframe manquant | iframe_context |
🟢 95% |
| 👻 Stale AJAX | Locator capturé avant rechargement DOM | ✅ Référence obsolète après AJAX | stale_reference |
🟢 95% |
| ↪️ Redirect silencieux | URL redirigée 301/302 | ✅ Test PASSED (piège détecté) | — | ✅ |
| 🚫 Bouton disabled | Élément visible mais disabled | ✅ Attribut disabled détecté | element_disabled |
🟢 95% |
| 🔤 Regex Unicode | Zinedine vs Zinédine |
✅ Mismatch accent dans regex | encoding_mismatch |
🟢 95% |
| 🫣 Double-click | Consent manager intercepte le click | ✅ Overlay détecté | element_obscured |
🟢 95% |
6/6 diagnostics corrects à 95% de confiance — le 7ème test PASSED (pas de diagnostic nécessaire).
Caution
Tests de +200 lignes : le contexte envoyé à l'IA est volontairement tronqué. Un test E2E doit rester court — un scénario, une responsabilité, moins de 50 lignes. Au-delà, c'est un problème de conception, pas de diagnostic. Refactorisez vos tests avant de chercher la cause d'un échec.
QA Autopilot est un module Python natif — disponible directement sur PyPI :
pip install qa-autopilotC'est tout. Pas de config, pas de serveur, pas de compte. Une ligne.
Avec le chargement automatique du .env :
pip install qa-autopilot[dotenv]Ou depuis les sources :
git clone https://github.com/julienmerconsulting/qa-autopilot.git
cd qa-autopilot
pip install -e .playwright install chromiumCrée un fichier .env à la racine de ton projet :
# OpenAI (défaut)
OPENAI_API_KEY=sk-...
# Ou DeepSeek
BASE_URL=https://api.deepseek.com
API_KEY=sk-...
QA_MODEL=deepseek-chat
# Ou Ollama local (zéro coût)
BASE_URL=http://localhost:11434/v1
API_KEY=ollama
QA_MODEL=llama3Ajoute un seul flag à ta commande pytest :
pytest tests/ --qa-autopilot -vC'est tout. Chaque test en échec reçoit un diagnostic IA automatique.
pytest tests/ --qa-autopilot --html=qa-reports/rapport.html --self-contained-html -vpython -m qa_autopilot tests/test_checkout.py
python -m qa_autopilot tests/test_login.py::test_auth
python -m qa_autopilot tests/ -k "checkout" --headedfrom qa_autopilot import QAInterceptor
# Dans ton test
interceptor = QAInterceptor(page)
interceptor.start()
# ... ton test ...
# En cas d'échec
diagnosis = interceptor.diagnose(error_message, "test_file.py")
print(diagnosis["root_cause"])
print(diagnosis["category"])┌─────────────────────────────────────────────────────┐
│ TON TEST PLAYWRIGHT │
│ │
│ page.goto("https://example.com") │
│ page.click("#submit") ← FAIL │
│ expect(page).to_have_url(...) │
└──────────────────────┬──────────────────────────────┘
│
┌─────────────▼─────────────┐
│ QA AUTOPILOT HOOK │
│ (écoute en parallèle) │
└─────────────┬─────────────┘
│
┌──────────────────┼──────────────────┐
▼ ▼ ▼
┌────────┐ ┌──────────┐ ┌───────────┐
│ DOM │ │ RÉSEAU │ │ CONSOLE │
│Listener│ │ Capture │ │ Capture │
│ (JS) │ │ req/res │ │ err/warn │
└───┬────┘ └────┬─────┘ └─────┬─────┘
│ │ │
└────────────────┼───────────────────┘
│
┌───────────▼───────────┐
│ BUNDLE CONTEXTE │
│ code + erreur + DOM │
│ + réseau + console │
│ + screenshot (opt) │
└───────────┬───────────┘
│
┌───────────▼───────────┐
│ UN PROMPT → IA │
│ (12 catégories) │
│ diagnostic + fix │
└───────────┬───────────┘
│
┌────────────────┼────────────────┐
▼ ▼ ▼
┌────────┐ ┌───────────┐ ┌──────────┐
│Terminal│ │ JSON │ │ Jira │
│ Output │ │ Report │ │ (si bug) │
└────────┘ └───────────┘ └──────────┘
- Hook transparent — Se branche sur la page Playwright via les events natifs
- Capture en parallèle — DOM (listener JS injecté), réseau, console, screenshots
- Détection d'échec — Le hook pytest intercepte le
FAILED - Bundle + Prompt — Tout le contexte part en UN appel IA
- Diagnostic — Cause racine + catégorie + fix concret + rapport JSON
| Icône | Catégorie | Description |
|---|---|---|
| 🎯 | wrong_selector |
Sélecteur cassé, inexistant ou trop large |
| ⏭️ | missing_step |
Étape manquante (cookies, goto, dropdown) |
| ⏱️ | timing |
Race condition, élément pas encore prêt |
| 🫣 | element_obscured |
Élément recouvert par overlay/modal/bannière |
| 🚫 | element_disabled |
Élément trouvé mais désactivé |
| 🔀 | wrong_action |
Mauvaise méthode (click vs dblclick, fill vs type) |
| 🖼️ | iframe_context |
Élément cherché dans le mauvais frame |
| 🔤 | encoding_mismatch |
Problème Unicode/accents/regex |
| 👻 | stale_reference |
Locator obsolète après changement DOM |
| 📊 | test_data |
Assertion avec mauvaise valeur attendue |
| 🐛 | app_bug |
Bug applicatif (pas le test) → génère un ticket Jira |
| 🌐 | network |
Requêtes réseau en échec (4xx/5xx) |
| Variable | Défaut | Description |
|---|---|---|
OPENAI_API_KEY |
(obligatoire si pas de API_KEY) | Clé API OpenAI |
API_KEY |
(optionnel) | Clé pour provider alternatif (DeepSeek, Ollama…) |
BASE_URL |
None (OpenAI natif) |
URL base du provider LLM |
QA_MODEL |
gpt-4.1-mini |
Modèle IA à utiliser |
QA_SCREENSHOT |
0 |
1 pour inclure les screenshots dans le prompt |
QA_REPORT_DIR |
qa-reports/ |
Dossier des rapports |
pytest tests/ --qa-autopilot # Active le diagnostic IA
pytest tests/ --qa-autopilot --headed # Avec navigateur visible
pytest tests/ --qa-autopilot -k "login" # Filtrer par keywordqa-reports/
├── summary_20260223_014751.json # Rapport consolidé du run
├── diag_test_casse_20260223_014713.json # Diagnostic individuel
├── diag_test_casse_20260223_014659.json
├── jira_test_casse_20260223_014659.md # Ticket Jira (si app_bug)
└── rapport.html # Rapport HTML pytest
[
{
"test": "test_element_cache_par_overlay[chromium]",
"category": "element_obscured",
"confidence": 0.95,
"root_cause": "L'élément ciblé est recouvert par le bandeau cookies",
"suggested_fix": "Fermer le bandeau cookies avant de cliquer"
}
]qa-autopilot/
├── qa_autopilot/
│ ├── __init__.py # Exports publics
│ ├── core.py # QAInterceptor + capture
│ ├── prompt.py # Prompt v2 (12 catégories)
│ ├── diagnose.py # Appel IA + retry + JSON mode
│ ├── reporter.py # Rapports JSON + Jira markdown
│ ├── listener.js # DOM listener (injection navigateur)
│ └── plugin.py # Hooks pytest
├── tests/
│ ├── test_casse.py # Suite de tests pièges
│ └── conftest.py
├── examples/
│ └── standalone.py # Exemple d'utilisation directe
├── pyproject.toml
├── LICENSE
└── README.md
Note : La version actuelle est un fichier monolithique
qa_autopilot.py(~600 lignes). Le découpage ci-dessus est la cible pour la v2.
| QA Autopilot | Playwright MCP (23K lignes) | SaaS (Testim, Mabl...) | |
|---|---|---|---|
| Lignes de code | ~600 | 23 000+ | Fermé |
| Installation | pip install |
MCP server + config | Compte + licence |
| Config | 1 flag | 32 outils MCP | Dashboard + intégration |
| Prix | Gratuit + clé OpenAI | Gratuit | 200-500€/mois/user |
| Diagnostic | 12 catégories, 95% | Basique | Variable |
| Vendor lock-in | Zéro | MCP protocol | Total |
Le listener JavaScript injecté dans le navigateur utilise une cascade de sélecteurs en 6 niveaux, du plus stable au moins stable :
| Tier | Stratégie | Exemple |
|---|---|---|
| 1 | data-testid / id / name |
[data-testid="submit-btn"] |
| 2 | aria-label / placeholder / title |
[aria-label="Fermer"] |
| 3 | href (liens) |
a[href="/checkout"] |
| 4 | Parent avec attribut stable | [data-testid="form"] button |
| 5 | Label associé (inputs) | //label[contains(text(),"Email")]//input |
| 6 | CSS court + nth-of-type |
button.primary:nth-of-type(2) |
Chaque sélecteur est validé pour son unicité dans le DOM. Support Shadow DOM inclus.
| Contributeur | Contribution |
|---|---|
| Julien Mer | Auteur original |
| @szwnba | Support multi-provider LLM (DeepSeek, Ollama) + traduction CN |
Les contributions sont bienvenues — issues, bug reports, pull requests.
MIT — Fais-en ce que tu veux.
Créé par Julien Mer — JMer Consulting
QA Architect · 20+ ans d'expérience · Katalon Top Partner Europe