「ソフトウェア品質工学の尺度とモデル」を読んだ6

続きまして8章です。8章は信頼度成長モデルの話です。指数モデルや、Goel-Okumotoモデル、ゴンペルツ曲線などなど。


信頼性モデルに対して、1984年に専門家のグループがモデルの評価と比較のための一連の基準を考案した

この基準として、優先度順に、

予測妥当性・能力・仮定の質・適用性・簡潔性

というのがあげられています。予測妥当性と能力の説明の違いがよくわかりませんが後者が「正確さ」といっているので信頼性に近い話なのでしょうか。それ以外については、どれもそうだろうなぁ、というものばかりです。仮定が納得できるものでないと偶然当たっただけかもしれませんしね。適用性は広く使えるか、簡潔性は一般論としてモデルは簡潔であればあるほど良い、というところに合致すると思います。

仮定の質に関しては結果的に適用性によって担保されそうな気もしますが、まぁあまり細かいことは気にしないでおきます。

ところが筆者は別の意見を持っているようです。

もっとも重要な基準は、予測妥当性、簡潔性、仮定の質の順であることを強く主張したい

ここで能力について説明されていましたね。「もっと機能を要求する」と表現されているので、被説明変数の多さ、なのだと推測されます。適用性と能力に関しては、特定の物事を特定の背景で説明することができればよい、という筆者の主張により、優先度が低いと書かれています。

個人的には工学の議論としてより一般的なモデルを作ることは価値があることだと思っていますが、自分が携わるのは特定の製品であるため、実質的には特定の物事を特定の背景で説明できればそれでいい、ということになります。まぁなので、筆者の主張にも同意できます。

あるモデルはときどきいい結果を与え、あるモデルはほとんど普遍的にひどいものであり、常に正確であると信頼できるモデルは1つもない

1992年の記述らしいですが、これが今でも正しいとすると、一般化なんて到底無理というのがアカデミアの中での常識なのでしょうか。


テスト中の欠陥密度とフィールド欠陥密度の差は、圧縮係数と呼ばれる

加速テストという呼び方もありますし、積極的にテストでは欠陥を狙いに行くため、考え方自体は理解できますが、圧縮係数という呼び方は初めて聞きました。まぁでも欠陥が確率的に発生するならそうですが、何も考えずにテストするわけではないですし圧縮という考え方は少し感覚とずれますね。

結果的にテスト実行の時間がかかるから圧縮されていることになるはなりますが、テスト実行がすべて超高速で自動実行される世界になると圧縮ではなくフィールドで使われるすべてのパターン(テストの母空間)からどれだけ抜き出せるかの話になるのかな、と思います。まぁあんまり好きではない言葉ですが、網羅率、ですね。

この記事が気に入ったらサポートをしてみませんか?