Montag, 4. März 2013

Ist Software mit Null-Fehler-Qualität möglich?



Der Begriff einer Null-Fehler-Produktion wurde Anfang der 60er Jahre von Philip B. Crosby geprägt. Sowohl TQM (Total Quality Management) als auch Six Sigma sehen eine Null-Fehler-Produktion als Ziel an.

In der Softwareentwicklung würde eine Null-Fehler-Qualität (je nach Definition des Fehler-Begriffs) bedeuten, dass alle expliziten, also beispielsweise die in der Anforderungsspezifikation formulierten, und alle impliziten Anforderungen,  beispielsweise gängige Erwartungen an nicht-funktionale Eigenschaften wie die Robustheit, Usability, usw., erfüllt sind. Schon aufgrund des Umfangs und der Komplexität von Software, aber oft auch den Unschärfen einer Anforderungsspezifikation geschuldet, ist es in der Praxis mit ökonomisch vertretbarem Aufwand nicht möglich, die Fehlerfreiheit von Software nachzuweisen.

Null-Fehler-Qualität sollte jedoch als ein ideelles Ziel angesehen werden. Es geht dabei um das Qualitätsverständnis aller an der Entwicklung beteiligten Personen: Fehler an der Software dürfen nicht als „normal“ betrachtet werden, d.h. eine Fehlerrate ungleich Null ist nicht akzeptabel. Dies sollte nicht zu einer „Bestrafung“ der Verursacher führen sondern dazu, dass jeder Fehler einer Ursachenanalyse unterzogen und nach Maßnahmen gesucht wird, vergleichbare Fehler zukünftig zu vermeiden. Hierin liegt der Schlüssel zur kontinuierlichen Verbesserung aller an der Entwicklung beteiligten Bereiche, durch die man sich dem Ziel einer Null-Fehler-Qualität auf jeden Fall annähern kann.

Keine Kommentare:

Kommentar veröffentlichen