Die Top-Ten der methodischen Fehler im Software-Test: Platz 10

Typische Schwachstellen eines Testprojektes

Heute ist klar, dass mangelhafte Software unternehmenskritische Risiken in sich birgt. Sie kann ein Unternehmen gar in den Ruin führen. Nur richtig geplante, konzipierte und organisierte Testprojekte unterstützen ein funktionierendes Risikomanagement und liefern verlässliche Qualitätsaussagen zu den getesteten Produkten. In diesem Zusammenhang habe ich meine persönliche Rangliste der zehn häufigsten und schwerwiegendsten Fehler bezüglich Testmethodik zusammengestellt, welche ich in dieser Blog-Reihe vorstellen möchte.

Die Anforderungen steigen kontinuierlich an

Gerade im IT- und Software-Umfeld ändert sich vieles in relativ kurzen Zeitabständen. Doch ein Thema scheint seit Bestehen der Disziplinen konstant zu bleiben: Die Anforderungen an Produkte und Dienstleistungen nehmen ständig zu. Sowohl die Kontinuität als auch die Geschwindigkeit sind hierbei bemerkenswert. Keine andere Branche ist – bezogen auf die Ausmaße –  mit derartigen Herausforderungen konfrontiert wie die IT- bzw. Software-Branche. Umso erstaunlicher ist es, dass trotz dieser Herausforderungen gerade Qualitätsmanagement- und Qualitätssicherungsaktivitäten im Vergleich zu anderen Branchen wenig beachtet werden.

Platz 10: Fehler werden unterschätzt!

In jedem Test werden in der Regel Fehler gefunden. Diese werden bereits vom Test-Team einer ersten Bewertung unterzogen. Im Rahmen weiterer Bearbeitungen wird die Fehlerschwere, d. h. werden mögliche Auswirkungen auf das Business oft korrigiert. Interessanterweise werden die gefundenen Fehler von anderen Bereichen stets als weniger relevant bewertet – im Vergleich zu den Einschätzungen der Testabteilungen. Das heißt, die Fehler werden in Bezug auf deren Schwere oder Priorität oft herabgesetzt. Es kann ja sein, dass Test-Teams Fehler falsch einschätzen, aber alle Einschätzungen sollen dabei stets überzogen sein? Das ist sehr unwahrscheinlich. Dabei ist das Vorgehen, Fehler zu verniedlichen, nicht besonders geschickt. Es ist nur ein vordergründiger „Vorteil“, einer zeitnahen Fehlerbehebung zu entgehen. Aber hierdurch entstehen jede Menge neuer Risiken, welche dann meistens zusätzlich – neben der Fehlerbehebung – zu behandeln sind. Welche weiteren Auswirkungen haben in der Produktion befindliche Defekte auf die Geschäftsprozesse und das Unternehmen? Mit welchen zusätzlichen Kosten ist durch etwaige Ausfälle und Folgefehler (z. B. erhöhte Service-Aufwände, Etablierung von Zwischenlösungen, Schadenersatz, Umsatzausfall, Imageverlust, …) zu rechnen? Lassen sich durch die Ausfälle die Jahresziele des Unternehmens noch erreichen? Wie sieht es mit dem generellen Vertrauen der Anwender in die Software, die IT-Umgebung bzw. die Lösung aus?

Besser ist es, einen Fehler zu überschätzen als ihn zu unterschätzen. Dies fördert eine zeitnahe Behebung des Defekts. Die reinen Fehlerbehebungskosten werden dadurch günstiger sein, als würden die betreffenden Ursachen erst mittel- oder langfristig beseitigt. Die Sekundärkosten für Schadenersatz, Image- und Vertrauensverlust, als Beispiele, bleiben einem bei diesem Ansatz womöglich ganz erspart. Jedoch möchte ich hierbei auch betonen, dass meine Regel nicht dazu missbraucht werden sollte, jeden Defekt nur noch mit der höchsten Fehlerklasse bzw. Priorität zu belegen. Es ist hilfreich, vorab ein Regelwerk mit Beispielen zu entwickeln, wie Fehler bewertet werden sollen. So kann eine einheitliche Bewertung sichergestellt werden.

Das könnte Sie auch interessieren

Bleiben Sie informiert:

its-people hilft Ihnen...

Weitere Blogthemen:

its-people – wir machen Ihre IT moderner,
leistungsfähiger und sicherer

Erfahren Sie bei einem persönlichen Gespräch, wie wir Sie gewinnbringend unterstützen können. Suchen Sie sich einen passenden Zeitpunkt aus. Wir melden uns. Versprochen!