I denne uge kørte jeg fem QA-runder på et SaaS-produkt. 80+ test cases. 15+ bugs fundet og fikset. Alt sammen på én dag.
Ingen Selenium. Ingen Playwright. Ingen QA-tester.
Setuptet
- Jeg beskriver hvad der skal testes — på almindeligt dansk.
- Claude skriver en struktureret test-suite.
- Cowork (Anthropics browser-agent) åbner produktet, logger ind, kører alle tests og returnerer screenshots med PASS/FAIL.
- Claude Code fikser hver bug direkte i kodebasen.
- Ny testrunde verificerer fixes.
30 minutter per runde.
Det vilde er ikke hastigheden. Det er dækningen.
AI-testeren finder ting en menneskelig tester scroller forbi: window.confirm() der fryser i automatiserede miljøer, race conditions ved hurtige dobbeltklik, manglende validering på edge cases som pris 0 kr.
Og den finder ting Playwright aldrig fanger: en knap der “virker” i koden, men er blokeret af en DropdownMenu der sluger click-events. En AI-agent navigerer produktet som en bruger — og ser hvad en bruger ser.
Feedback-loopet er kollapset
Manuelt QA er ikke dødt. Men den feedback-loop der plejer at tage uger — skriv tickets, vent på prioritering, diskutér severity, fix, vent på re-test — den kører på timer.
Fem runder. Én dag. Nul mennesker i QA-stolen.
Stolen er der stadig. Der sidder bare en agent i den.