La qualité logicielle : une dimension incontournable des projets informatiques

En moins d’un demi-siècle, l’informatique est progressivement passée du statut d’activité confidentielle, réservée aux laboratoires de recherche et à quelques secteurs économiques, à celui de moteur incontournable des activités humaines, dans le domaine professionnel dans un premier temps, puis dans celui des activités personnelles, avec l’arrivée de la « micro-informatique » dans les années 1980, de l’internet « tous publics » à la fin des années 1990 et des outils de mobilité dans la première décennie du 21ème siècle.

Orientée initialement vers la recherche d’une meilleure productivité humaine et d’une fiabilisation des processus (industriels notamment), elle est progressivement devenue le vecteur de nombreuses activités quotidiennes, par sa capacité à connecter entre eux services et gisements d’information, que ce soit pour des entreprises, des services publics ou des individus.

Cette révolution dans nos usages et nos pratiques n’est pas sans contreparties: en confiant nos actions à des automatismes capables de traiter très rapidement de très grandes quantités d’informations selon des schémas potentiellement très complexes, nous prenons le risque de démultiplier les conséquences d’une simple erreur d’inattention, que cette erreur intervienne dans la conception de l’automatisme, dans sa réalisation ou dans son utilisation.

Dès lors que les automatismes auxquels nous avons recours agissent en interconnexion les uns avec les autres, le potentiel de propagation des erreurs peut avoir des conséquences parfois considérables.

Toujours plus de rapidité et de complexité engendre un besoin croissant de garantie de la fiabilité des solutions logicielles qui sont mises à notre disposition.

Ainsi, si la qualité logicielle n’était pas un enjeu majeur dans les années 1970, principalement du fait de la très faible capacité des applications informatiques de l’époque à communiquer entre elles, le recours à un nombre toujours croissant de logiciels, pour notre travail, comme dans nos relations avec les services publics ou pour nos loisirs, sur nos ordinateurs, tablettes, « smartphones » et bientôt dans l’équipement même de nos maisons, nous expose d’autant plus au risque d’une défaillance.

L’expérience acquise par des décennies de développement informatique n’est pas plus un gage de fiabilité des logiciels, que celle acquise dans la fabrication des automobiles ne l’est pour les véhicules qui sortent des chaînes de montage et dont la mise en service est depuis toujours conditionnée à la réussite de nombreux contrôles. Plus l’utilisation d’un outil présente des risques, plus cet outil doit être contrôlé avant d’être confié à son utilisateur.

Pour ces raisons, l’assurance qualité logicielle est aujourd’hui une dimension incontournable des projets informatiques.

Dans le domaine du logiciel, l’activité du test, qui est au cœur de notre activité, s’est professionnalisée au fil du temps jusqu’à devenir, depuis la fin des années 1990, un métier à part entière, avec ses méthodologies, ses processus, ses contraintes et ses outils.