DRS TECHNOLOGIES INC

Décisions


DRS TECHNOLOGIES INC
Dossier no PR-2001-051

TABLE DES MATIÈRES


Ottawa, le jeudi 2 mai 2002

Dossier no PR-2001-051

EU ÉGARD À une plainte déposée par DRS Technologies Inc. aux termes du paragraphe 30.11(1) de la Loi sur le Tribunal canadien du commerce extérieur, L.R.C. 1985 (4e supp.), c. 47;

ET SUITE À une décision d'enquêter sur la plainte aux termes du paragraphe 30.13(1) de la Loi sur le Tribunal canadien du commerce extérieur.

DÉCISION DU TRIBUNAL

Aux termes du paragraphe 30.14(2) de la Loi sur le Tribunal canadien du commerce extérieur, le Tribunal canadien du commerce extérieur détermine que la plainte est fondée en partie.

Aux termes des paragraphes 30.15(2) et (3) de la Loi sur le Tribunal canadien du commerce extérieur, le Tribunal canadien du commerce extérieur recommande que les résultats de l'évaluation de toutes les exigences cotées énoncées dans la demande de propositions, en ce qui a trait au facteur « conséquence de manquer aux exigences » pour les trois propositions reçues, soient annulés. En outre, il recommande que le ministère des Travaux publics et des Services gouvernementaux et le ministère de la Défense nationale réévaluent le facteur « conséquence de manquer aux exigences », y compris les catégories de risques clés sur lesquels il se fonde, pour toutes les exigences cotées, essentielles ou non, énoncées dans les propositions techniques et administratives des trois propositions soumises. La réévaluation se fera strictement, selon les critères et la méthodologie énoncés dans la demande de propositions, y compris le plan d'évaluation. Cela nécessitera la suppression, du logiciel d'évaluation électronique des propositions, des catégories « conséquence de manquer aux exigences » choisies par les spécialistes de domaines donnés, qui sont insérées dans les écrans d'évaluation sous la rubrique « Conseils aux évaluateurs » [traduction], et des résultats estimatifs pour le facteur « conséquence de manquer aux exigences ». Les résultats estimatifs pour le facteur « conséquence de manquer aux exigences » ne seront aucunement utilisés dans la réévaluation. La procédure de passation du marché public se poursuivra, comme il est stipulé dans les documents d'appel d'offres susmentionnés et dans l'Accord sur le commerce intérieur.

La réévaluation sera effectuée par une nouvelle équipe d'évaluation qui se composera d'autres membres que ceux qui faisaient partie de l'évaluation initiale et exclura le quatrième des spécialistes de domaines donnés qui s'occupait de la détermination des résultats estimatifs pour le facteur « conséquence de manquer aux exigences » avant l'évaluation des propositions.

Aux termes du paragraphe 30.16(1) de la Loi sur le Tribunal canadien du commerce extérieur, le Tribunal canadien du commerce extérieur accorde à DRS Technologies Inc. le remboursement des frais raisonnables qu'elle a engagés pour la préparation et le traitement de la plainte.



Patricia M. Close

Patricia M. Close
Membre présidant

Richard Lafontaine

Richard Lafontaine
Membre

Ellen Fry

Ellen Fry
Membre


Michel P. Granger

Michel P. Granger
Secrétaire

L'exposé des motifs suivra à une date ultérieure.
 
 

Date de la décision :

Le 2 mai 2002

Date des motifs :

Le 23 mai 2002

   

Membres du Tribunal :

Patricia M. Close, membre présidant

 

Richard Lafontaine, membre

 

Ellen Fry, membre

   

Gestionnaire de l'enquête :

Paule Couët

   

Agent de l'enquête :

Ronald B. Harrigan

   

Conseiller pour le Tribunal :

John Dodsworth

   

Partie plaignante :

DRS Technologies Inc.

   

Conseillers pour la partie plaignante :

Ronald D. Lunau

 

Phuong T.V. Ngo

   

Intervenantes :

Thales Systems Canada

 

CMC Electronics Inc.

   

Conseillers pour les intervenantes :

Barbara A. McIsaac, c.r.

 

Kris Klein

 

Gregory O. Somers

 

Paul D. Conlin

   

Institution fédérale :

Ministère des Travaux publics et des Services gouvernementaux

   

Conseiller pour l'institution fédérale :

David M. Attwater

 
 
Ottawa, le jeudi 23 mai 2002

Dossier no PR-2001-051

EU ÉGARD À une plainte déposée par DRS Technologies Inc. aux termes du paragraphe 30.11(1) de la Loi sur le Tribunal canadien du commerce extérieur, L.R.C. 1985 (4e supp.), c. 47;

ET SUITE À une décision d'enquêter sur la plainte aux termes du paragraphe 30.13(1) de la Loi sur le Tribunal canadien du commerce extérieur.

EXPOSÉ DES MOTIFS

PLAINTE

Le 18 décembre 2001, DRS Technologies Inc. (DRS) a déposé une plainte auprès du Tribunal canadien du commerce extérieur (le Tribunal) aux termes du paragraphe 30.11(1) de la Loi sur le Tribunal canadien du commerce extérieur 1 . La plainte porte sur un marché public (invitation no W8485-01NA20/B) passé par le ministère des Travaux publics et des Services gouvernementaux (TPSGC) au nom du ministère de la Défense nationale (MDN), pour la fourniture d'un système de gestion des communications (SGC) à bord des aéronefs Aurora CP-140 des Forces canadiennes. Les travaux comprennent, sans s'y limiter, la conception, la construction, l'installation et l'intégration d'une nouvelle solution de SGC pour la flotte d'aéronefs Aurora2 ; la modification de divers sous-systèmes d'aéronef; la fourniture d'un laboratoire d'intégration des systèmes modifiés et d'un simulateur intégré des instruments électroniques de bord modifiés; la fourniture d'un programme de soutien logistique intégré; la fourniture d'activités de gestion de programme nécessaires à la prestation des besoins; la fourniture des données, des droits et des documents nécessaires à la prestation et à l'achèvement réussis de la solution de SGC.

DRS a allégué que, contrairement à plusieurs dispositions de l'Accord sur le commerce intérieur 3 , de l'Accord de libre-échange nord-américain 4 et de l'Accord sur les marchés publics 5 , TPSGC a injustement et incorrectement rejeté la proposition de DRS aux fins d'examen ultérieur, lorsqu'il a appliqué des méthodes d'évaluation partiales, incluant l'application de préférences non divulguées, ce qui, joint à l'omission de tenir compte des renseignements contenus dans la proposition, a mené à l'attribution de résultats injustifiablement bas à sa soumission. Il s'est ensuivi que le produit AVICOM, offert par DRS, a injustement été déclaré inadmissible aux fins d'examen ultérieur, même s'il avait été déterminé que ledit produit répondait à toutes les exigences techniques obligatoires énoncées à l'appendice I de la demande de propositions (DP), ou les dépassait.

Plus précisément, DRS a allégué que TPSGC n'a pas observé les méthodes énoncées dans la DP pour évaluer la conséquence de manquer aux exigences. Elle a aussi allégué que le processus d'évaluation était empreint d'une préférence non divulguée à l'endroit de « l'exécution en vol démontrée » [traduction], qui a teinté les résultats de l'évaluation et en a détruit la fiabilité, et que le processus d'évaluation a fait défaut des points de vue de la transparence et de la prévisibilité relativement au rôle du logiciel d'évaluation, du processus de cotation « par consensus » et du refus de communiquer à DRS les résultats individuels de l'évaluation liés à sa proposition. Enfin, DRS a allégué que certains éléments de sa proposition ont reçu des résultats injustifiablement bas, ce qui reflète la méconnaissance de l'information contenue dans sa proposition, particulièrement considérée dans son ensemble.

DRS a demandé au Tribunal de rendre immédiatement une ordonnance ayant pour effet d'ordonner à TPSGC et au MDN de ne pas adjuger de contrat relatif à ladite invitation à soumissionner jusqu'à ce que le Tribunal ait déterminé le bien-fondé de la plainte. De plus, elle a demandé, à titre de mesure corrective, que le rejet de sa proposition à l'étape 3 du processus d'évaluation soit annulé, que sa proposition fasse l'objet d'une réévaluation objective et impartiale et passe à l'étape 4 du processus d'évaluation en concurrence avec l'autre ou les autres propositions. DRS a aussi demandé le remboursement des frais qu'elle a engagés pour la préparation et le traitement de la plainte.

Le 24 décembre 2001, le Tribunal a avisé les parties qu'il avait décidé d'enquêter sur la plainte, puisque cette dernière répondait aux exigences du paragraphe 30.11(2) de la Loi sur le TCCE et aux conditions énoncées au paragraphe 7(1) du Règlement sur les enquêtes du Tribunal canadien du commerce extérieur sur les marchés publics 6 . Le même jour, le Tribunal a rendu une ordonnance de report d'adjudication de tout contrat relatif à l'invitation jusqu'à ce que le Tribunal ait déterminé le bien-fondé de la plainte. Les 4 et 11 janvier 2002, le Tribunal a avisé les parties qu'il avait autorisé Thales Systems Canada7 (Thales) et CMC Electronics Inc8 . (CMC) à intervenir dans l'affaire.

Le 28 janvier 2002, TPSGC a déposé un rapport de l'institution fédérale (RIF) auprès du Tribunal en application de l'article 103 des Règles du Tribunal canadien du commerce extérieur 9 . Le 5 février 2002, DRS a déposé auprès du Tribunal une requête demandant la production d'autres documents et une prorogation du délai pour répondre au RIF. Le 13 février 2002, le Tribunal a ordonné à TPSGC de déposer d'autres documents relatifs à l'évaluation des propositions. Le 18 février 2002, TPSGC a déposé ces autres documents auprès du Tribunal. Le 1er mars 2002, DRS, CMC et Thales ont déposé leurs observations sur le RIF auprès du Tribunal. Le 5 mars 2002, Thales a déposé ses observations en réponse aux observations de CMC sur le RIF. Le 7 mars 2002, dans une lettre au Tribunal, TPSGC a indiqué qu'il ne solliciterait pas le droit de déposer d'autres observations et a demandé que le Tribunal procède à l'enquête dans les plus brefs délais.

Le 13 mars 2002, le Tribunal a demandé à TPSGC de fournir d'autres renseignements pour compléter le dossier. TPSGC a déposé ces renseignements additionnels auprès du Tribunal le 20 mars 2002. Le 27 mars 2002, Thales a déposé ses observations en réponse et, le 28 mars 2002, DRS a fait de même.

La quantité des renseignements au dossier étant suffisante pour déterminer le bien-fondé de la plainte, le Tribunal a décidé qu'une audience n'était pas nécessaire et a statué sur la plainte sur la foi des renseignements au dossier.

QUESTION PRÉLIMINAIRE

TPSGC a soutenu que le SGC est classé dans le groupe 58 (équipements de télécommunications, de détection et à rayonnement cohérent) de la Classification fédérale des approvisionnements (Federal Supply Classification - FSC). Il a soutenu que la DP est assujettie à l'ACI, mais que, conformément à l'alinéa 1001(1)b) de l'ALÉNA et au paragraphe 2 de la Section A de l'annexe 1001.1b-1 de l'ALÉNA, le SGC n'est pas assujetti à l'ALÉNA. Plus précisément, TPSGC a soutenu que la Note générale 1c) de la Liste du Canada, à l'annexe 1001.2b de l'ALÉNA, prévoit que l'ALÉNA ne s'applique pas aux « marchés relevant de la catégorie FSC 58 ». Il a de plus soutenu que, conformément au paragraphe I(1) de l'AMP et à l'appendice I, Canada, annexe 1 de l'AMP, le SGC n'est pas visé par l'AMP. Plus précisément, la Note générale 1c) de l'appendice I prévoit que l'AMP ne s'applique pas aux « marchés relevant de la catégorie FSC 58 ».

Dans ses observations sur le RIF, Thales a aussi soutenu que les biens et services visés par les marchés publics tenus pour le MDN ou en son nom qui relèvent de la FSC 58 ne sont assujettis ni à l'ALÉNA ni à l'AMP.

Dans ses observations sur le RIF, DRS n'a pas présenté d'observation sur la question de compétence relativement à l'ALÉNA et à l'AMP. Toutefois, elle a encore allégué plusieurs violations des dispositions de l'ACI.

Le Tribunal est d'accord sur l'observation de TPSGC et de Thales selon laquelle ledit marché public est assujetti à l'ACI, mais non à l'ALÉNA ou à l'AMP.

PROCÉDURE DE PASSATION DU MARCHÉ PUBLIC

Le 26 octobre 2000, une lettre d'intérêt et une ébauche de DP10 ont été diffusées par l'entremise du MERX11 . Cette diffusion a été suivie d'une visite de l'emplacement et de réunions d'information à la base des Forces canadiennes Greenwood les 29 et 30 novembre 2000. Huit entreprises, y compris DRS, y ont participé. Le 23 janvier 2001, TPSGC a diffusé la DP afférente à ladite invitation. La date de la clôture de la DP a été le 19 avril 2001. Trois soumissions ont été reçues, à savoir une soumission provenant respectivement de DRS, de CMC et de Thales. La DP comprenait, à l'appendice H, un plan d'évaluation (PÉ)12 ainsi qu'un arbre d'évaluation du projet, joint sous la forme de l'annexe A.

Les dispositions suivantes de la DP sont pertinentes à l'espèce :

[Article 26.2.1]
Il incombe au soumissionnaire exclusivement de soumettre suffisamment de renseignements pour permettre une compréhension complète de ce qu'il propose.
[Article 27.1.1]
L'évaluation de l'offre du soumissionnaire se fondera uniquement sur le contenu de sa proposition en réponse à la DP, l'ÉT, la Spécification, et les documents qui y sont mentionnés par renvoi. Le défaut de communiquer suffisamment de renseignements sur un aspect quelconque peut entraîner la conclusion de non-conformité relativement à cet aspect.
[Article 27.2.3]
Les soumissions jugées techniquement conformes aux critères obligatoires seront ensuite évaluées en conformité avec le plan d'évaluation inclus dans les présentes, pour en déterminer la conformité avec les exigences de gestion et les exigences techniques cotées essentielles énoncées dans l'ÉT et dans la Spécification, et elles doivent obtenir un résultat d'au moins 70 p. 100 pour chacune des exigences de gestion et des exigences techniques pour faire l'objet d'une évaluation ultérieure.

[Traduction]

Les dispositions suivantes du PÉ13 sont pertinentes à l'espèce :

3.4 ÉTAPE 3 - ÉVALUATION DÉTAILLÉE DES EXIGENCES COTÉES, CUMUL DES RÉSULTATS ET CLASSEMENT
Les propositions déclarées conformes à l'étape 2 feront l'objet d'une évaluation détaillée en fonction des exigences cotées relativement aux facteurs de conformité, de capacité et de risque. À la fin des évaluations détaillées (y compris tout ajustement pour tenir compte des écarts dans les résultats individuels), le CÉÉ (chef de l'équipe d'évaluation) 14 appliquera les caractéristiques automatisées du logiciel d'évaluation de projet (LÉP)15 pour calculer les résultats de toutes les propositions en conformité avec la méthode décrite dans le plan[. . .] Les exigences cotées appartiennent à l'une des deux catégories suivantes : exigences essentielles et exigences souhaitables.
3.9 EXIGENCES OBLIGATOIRES PAR OPPOSITION AUX EXIGENCES COTÉES
Afin d'empêcher qu'une proposition ne permette pas de satisfaire aux exigences essentielles du travail afférent au SGC, le MDN a désigné certains articles comme exigences obligatoires. Ces dernières sont précisées à l'appendice I à la DP.
Une exigence obligatoire est une exigence à laquelle il qui doit être satisfait pour que la proposition d'un soumissionnaire fasse l'objet d'examen ultérieur. L'évaluation de la conformité ou de la non-conformité avec les exigences obligatoires précède l'étape de la cotation et toute proposition non conforme sera rejetée.
Les exigences cotées appartiennent à l'une ou à l'autre des deux catégories suivantes : les exigences essentielles et les exigences souhaitables. Les exigences cotées essentielles sont désignées par le mot « doit », « devra » ou « sera ». Les exigences cotées souhaitables sont désignées par le mot « devrait » ou « peut ».
Les exigences cotées sont évaluées relativement à chaque proposition et le résultat est attribué en vue de déterminer le degré de conformité de ladite proposition, la capacité du soumissionnaire à satisfaire à l'exigence et tous risques associés.
3.10 COHÉRENCE ET INTÉGRITÉ DE L'ÉVALUATION
Le processus d'évaluation, les méthodes et l'interprétation des exigences ne seront pas modifiés une fois la DP diffusée aux entreprises sauf par voie de diffusion d'une modification de la DP par TPSGC.
6. MÉTHODE DE COTATION DU VOLET TECHNIQUE ET DU VOLET ADMINISTRATIF
[. . .] Chaque proposition qui satisfait aux exigences obligatoires fera l'objet d'une évaluation par application de la méthode décrite ci-dessous. Une proposition d'un soumissionnaire qui n'obtient pas une note globale de 70 p. 100 (relativement aux exigences cotées essentielles seulement), à la fois pour l'ÉT du SGC et pour la Spécification des performances opérationnelles du SGC, sera rejetée au motif qu'elle ne satisfait pas à une exigence technique ou à une exigence de gestion. Seules les exigences cotées essentielles seront assujetties à une détermination du type réussite ou échec. Le calcul du coût final par point englobera les exigences cotées essentielles et les exigences cotées souhaitables.
6.1 EXAMEN DES EXIGENCES OBLIGATOIRES
Eu égard aux exigences obligatoires, la proposition sera évaluée comme étant « conforme » ou « non conforme ». Une proposition non conforme aux exigences obligatoires sera rejetée.
6.2 CRITÈRES DE L'ARBRE D'ÉVALUATION ET POIDS DÉTERMINÉ
En ce qui a trait au volet administratif et au volet technique de l'évaluation, le PÉ est structuré selon un arbre d'évaluation (AÉ). Ce dernier figure à l'annexe A.
La proposition de gestion est assortie d'un facteur de pondération de 35 p. 100 et comprend les réponses du soumissionnaire aux exigences de l'ÉT énoncées dans la DP. La proposition technique est assortie d'un facteur de pondération de 65 p. 100 et comprend les réponses des soumissionnaires aux exigences de la Spécification des performances opérationnelles du SGC énoncée dans la DP.
La branche principale, Technique et Gestion, de l'AÉ se ramifie en sous-éléments principaux organisés selon les lignes opérationnelles relevées dans les documents de DP pour le projet. Des facteurs de pondération ont été conçus pour garantir le bon équilibre et l'importance relative a été prise en compte. Il convient de prendre en note que les facteurs de pondération déterminent la mesure de l'incidence de chaque élément de la proposition sur les notes globales.
6.3 FACTEURS DE PONDÉRATION
Les facteurs de pondération assortis aux critères d'évaluation (c.-à-d. l'ensemble de la Spécification et de l'ÉT évalués) donnent la mesure de l'importance relative de ces derniers dans la détermination de la proposition retenue. Leur calcul se fait selon la méthode de l'arbre d'analyse de la valeur, dans lequel l'organisation des critères adopte une structure hiérarchique arborescente, comprenant des branches principales et des branches secondaires. La cotation se fait en fonction du critère de plus bas niveau.
Des facteurs de pondération sont attribués aux branches principales et aux branches secondaires jusqu'à ce que toutes soient assorties d'un poids déterminé. Les facteurs de pondération sont attribués de telle sorte que leur somme représente une valeur normalisée, par exemple 100. Le poids final des critères se calcule en multipliant le poids des critères d'une branche par le poids attribué à toutes ses branches ancêtres.
6.4 COTATION POUR L'ÉVALUATION DU VOLET TECHNIQUE ET DU VOLET ADMINISTRATIF
Le présent PÉ expose une méthode normalisée pour l'évaluation des propositions des soumissionnaires en fonction de chacun des éléments arborescents des types technique et administratif. Les résultats des éléments sont fondés sur les facteurs suivants :

a. Résultat pour le facteur conformité. L'évaluation, par l'évaluateur, de la mesure selon laquelle le soumissionnaire aurait satisfait à l'exigence, selon la proposition. Il s'agit là d'une mesure du point auquel la proposition satisfait (ou affirme satisfaire) à l'exigence.
b. Résultat pour le facteur capacité. L'évaluation, par l'évaluateur, de la capacité du soumissionnaire à satisfaire aux exigences, selon la proposition. Il s'agit là d'une mesure de la capacité du soumissionnaire à satisfaire à l'exigence.
c. Facteurs de risque. L'évaluation, par l'évaluateur, de la mesure de risque associée à la satisfaction aux exigences, selon la proposition. Il s'agit là d'une mesure du niveau de risque associé à la satisfaction, par le soumissionnaire, aux critères. Les catégories de risques clés dont il est tenu compte sont les risques associés aux opérations, au soutien, ou au calendrier. D'autres catégories de risques pourraient entrer en ligne de compte.

Il incombe au soumissionnaire de faire la preuve de sa conformité et de démontrer sa capacité et le niveau de risque. S'il lui faut, à cette fin, inclure des documents à l'appui dans sa proposition, le fardeau de la preuve incombe aux soumissionnaires, sans sollicitation en ce sens par le MDN.
6.5 COTATION INDIVIDUELLE
Toutes les propositions qui satisfont aux exigences obligatoires feront l'objet d'une cotation du volet technique et du volet administratif par les membres de l'équipe d'évaluation désignés. La cotation du volet technique et du volet administratif sera faite relativement à chaque critère ou élément d'évaluation distinct. Pour chaque proposition, chacun des éléments à évaluer fera l'objet d'une évaluation distincte en vue de l'attribution d'un résultat pour la conformité, d'un résultat pour la capacité et d'un résultat pour le risque.
6.5.2 Cotation de la capacité
La cotation de la capacité relativement à chaque proposition sera fondée sur les « descriptions imagées » et les résultats suivants.
La question à laquelle il faut répondre est la suivante : « Selon les affirmations énoncées dans la proposition, dans quelle mesure le soumissionnaire est-il capable de satisfaire à cette exigence? »
Capacité

· Capacité éprouvée/manifeste 10
· Capacité revendiquée (démarche crédible et éléments de preuve raisonnables)) 8
· Probablement capable (démarche crédible, éléments probants directs limités) 7
· Peut-être capable (éléments probants insuffisants) 3
· Probablement incapable 1
· [. . .]
· Pas de renseignements ou manifestement incapable 0

6.6 COTATION DU RISQUE
La cotation du risque tiendra compte de la « probabilité » et de la « conséquence » (de manquer aux exigences) d'une manière distincte et sera fondée sur les « descriptions imagées » et résultats indiqués aux sections suivantes.
En se servant du LÉP, les évaluateurs font leur choix à partir d'une seule[ 16 ] échelle de cotation pour la Conséquence (majeure, très importante, etc.) et inscrivent une seule évaluation pour la Conséquence (c.-à-d. fondée sur les catégories de conséquences pour les opérations, le soutien ou le calendrier).
6.6.1 Cotation de la probabilité
Aux fins de la cotation de la probabilité de manquer aux exigences relativement aux éléments de la proposition, la question à laquelle il faut répondre est :
« Selon la proposition, dans quelle mesure est-il vraisemblable que le soumissionnaire manquera à cette exigence? »
Réponse : La vraisemblance est : Résultat
Hautement probable - il y manquera presque certainement 1
Très probable - forte impression qu'il y manquera 3
Probable - il se peut bien qu'il y manque 5
Pourrait arriver - il pourrait y manquer ou y manquera peut-être 8
Improbable - il n'y manquera vraisemblablement pas 10
Au moment de coter la « probabilité », il ne faut tenir compte que du degré de « vraisemblance », indépendamment de tout autre aspect du risque.
6.6.2 Cotation de la conséquence des risques pour les opérations
Dans l'examen de la conséquence , pour les opérations, de manquer aux exigences relativement aux éléments de la proposition, la question à laquelle il faut répondre est :
« Quelle serait l'incidence pour les opérations si le soumissionnaire manquait à cette exigence? »
Réponse : L'incidence la plus vraisemblable serait : Résultat
Majeure - projet mis en péril 1
Très importante - navigabilité ou capacité potentiellement compromises 3
Importante - capacité/disponibilité sensiblement réduites 5
Limitée - capacité/disponibilité légèrement réduites 8
Nulle/minime - incidence de nulle à minime 10
6.6.3 Cotation de la conséquence des risques pour le soutien
Dans l'examen de la conséquence , pour le soutien, de manquer aux exigences relativement aux éléments de la proposition, la question à laquelle il faut répondre est : « Quelle serait l'incidence pour le soutien si le soumissionnaire manquait à cette exigence? »
Réponse : L'incidence la plus vraisemblable serait : Résultat
Majeure - incapacité générale de soutenir le système 1
Très importante - réduction majeure de la capacité de soutien 3
Importante - réduction importante de la capacité de soutien/de l'état de préparation 5
Limitée - légère réduction de la capacité de soutien 8
Nulle/minime - incidence de nulle à minime 10
6.6.4 Cotation de la conséquence des risques pour le calendrier
Dans l'examen de la conséquence , pour le calendrier, de manquer aux exigences relativement aux éléments de la proposition, la question à laquelle il faut répondre est : « Quelle serait l'incidence pour le calendrier si le soumissionnaire manquait à cette exigence? »
L'incidence serait : Résultat
Majeure - pourrait interrompre le projet ou le retarder pour des années 1
Très importante - pourrait entraîner un retard majeur (> 1 an) 3
Importante - pourrait entraîner un retard majeur (de 3 à 12 mois) 5
Limitée - léger retard (1 ou 2 mois) 8
Nulle/minime - retard minime (< 1 mois) 10
6.6.5 Cotation de la conséquence des risques pour la programmation ou autres risques
Les résultats pour la conséquence peuvent être attribués dans le cas d'éléments où la conséquence de manquer à l'exigence ne peut facilement être désignée comme visant la catégorie des opérations, du soutien ou du calendrier. Pour de tels éléments, le CÉÉ peut définir des descriptions imagées convenables par application d'une échelle de cotation similaire.
6.7 COTATION PAR CONSENSUS
Sous la direction du CÉÉ, les cotations individuelles pour les facteurs conformité, capacité et risque seront passées en revue pour obtenir un consensus au sein de l'équipe d'évaluation. Il incombe au CÉÉ de déterminer et de documenter le fait que les résultats par consensus ont été obtenus. Une fois le consensus obtenu, les résultats cumulatifs des évaluations se fondent sur les résultats par consensus susmentionnés.

[Traduction]

Le 2 octobre 2001, TPSGC a informé DRS, par écrit, du résultat qui lui avait été attribué par application du LÉP pour les exigences cotées essentielles de l'Énoncé de travail (ÉT) et de la Spécification des performances opérationnelles (la Spécification). DRS a aussi été avisée qu'elle n'avait pas obtenu la note de passage de 70 p. 100 exigée dans la Spécification.

Dans une pièce de correspondance datée du 4 décembre 2001, TPSGC a avisé DRS que le résultat pour la conséquence de manquer à chacune des exigences faisait l'objet d'un examen par chacun des évaluateurs et d'un autre examen par l'équipe d'évaluation au moment de déterminer les résultats par consensus. D'après le RIF, des évaluateurs individuels ont de fait modifié certains résultats estimatifs17 . Toutefois, dans chacun des cas, l'équipe d'évaluation a déterminé que le résultat par consensus devrait être le résultat estimatif.

POSITION DES PARTIES

Position de TPSGC

TPSGC a soutenu que DRS n'a pas échoué en raison de la cotation de la conséquence de manquer aux exigences, mais parce que sa proposition était non conforme relativement à un certain nombre d'exigences cotées essentielles. De plus, selon TPSGC, AVICOM, le produit de DRS, manquait de maturité et la proposition de DRS ne comprenait pas une preuve substantielle de l'état de développement du système proposé, ce qui a eu une incidence négative sur les volets capacité et probabilité des résultats pour la conséquence de manquer aux exigences.

TPSGC a en outre soutenu que les résultats estimatifs ont été utilisés dans le LÉP pour l'évaluation du risque associé à la conséquence de manquer aux exigences, et ce, dans le but d'atténuer le caractère subjectif de l'évaluation. Une équipe de quatre spécialistes de domaines donnés du MDN, dont trois ont subséquemment été désignés pour faire partie de l'équipe d'évaluation, a consacré plusieurs jours à la détermination des résultats estimatifs. Chaque exigence de la Spécification et de l'ÉT a été passée en revue afin de discuter de l'incidence qui résulterait du défaut de satisfaire à une exigence, par application des quatre catégories publiées de conséquence des risques, à savoir pour les opérations, le soutien, le calendrier et la programmation. La catégorie la plus touchée a été déterminée et, par application des descriptions imagées et des définitions se rapportant à la conséquence de manquer aux exigences énoncées dans la DP et des propositions anticipées des soumissionnaires, des résultats par défaut ont été attribués à chacune des exigences, lesdits résultats étant réputés représenter la meilleure estimation de la conséquence la plus vraisemblable si un soumissionnaire devait manquer à l'exigence. La conséquence de la catégorie de risques choisie au préalable par les spécialistes de domaines donnés aux fins de l'estimation de la conséquence de manquer aux exigences a été indiquée dans le LÉP sous la rubrique « Conseils aux évaluateurs » [traduction].

TPSGC a ajouté que le MDN s'était servi de sa meilleure estimation de la conséquence de manquer aux exigences pour déterminer la note de passage la plus acceptable à l'étape 3 du processus d'évaluation. Par application des résultats estimatifs pour la conséquence de manquer aux exigences et des résultats minimaux acceptables pour les facteurs de conformité, de capacité et de probabilité du risque, le MDN a déterminé que la note de passage minimale était de 70 p. 100, en fonction d'une analyse de sensibilité. Une telle note permettrait la réussite d'une proposition qui, à tout le moins, était conforme, comprenait une revendication de la capacité de satisfaire aux exigences, y compris une preuve à l'appui d'une telle revendication, et pour laquelle la probabilité de manquer aux exigences se situait entre « improbable » et « pourrait arriver ».

TPSGC a soutenu que plusieurs motifs de plainte soulevés par DRS, à savoir l'emploi du LÉP, l'emploi de résultats par consensus dans le processus d'évaluation et les plaintes portant sur la méthode d'évaluation appliquée, n'ont pas été déposés auprès du Tribunal dans le délai prescrit à l'article 6 du Règlement. Il a soutenu que la procédure de passation du marché public ne permet pas d'accumuler les motifs de grief et d'interjeter une plainte seulement lorsqu'une soumission n'a pas été retenue (voir le dossier no PR-96-01118 ) et que la méthode d'évaluation, y compris l'emploi du LÉP et la cotation par consensus, avait été clairement décrite dans la DP. La DP a fait l'objet d'une publication préalable en octobre 2000. DRS aurait donc dû avoir découvert les motifs de plainte susmentionnés au moment où la DP a été diffusée en janvier 2001. Elle n'a pas demandé d'éclaircissement quant aux questions susmentionnées durant la période de soumission et n'a pas fait opposition à ces points de la DP avant que sa proposition ait été déclarée non conforme.

TPSGC a soutenu que les membres de l'équipe d'évaluation avaient « porté attention au bien-fondé de chaque proposition particulière »19 [traduction] et avaient accordé à « chaque proposition un examen satisfaisant »20 [traduction]. Il a soutenu que l'emploi des résultats estimatifs dans le LÉP n'était pas incompatible avec la méthode d'évaluation énoncée dans la DP. Chaque évaluateur pouvait, en toute liberté, attribuer des résultats pour la conséquence de manquer aux exigences et l'équipe d'évaluation le pouvait aussi, en tant qu'entité, au moment de la cotation par consensus. Les résultats estimatifs ont servi sur les feuilles de pointage du LÉP, pour des motifs pratiques, parce que de tels résultats sont moins tributaires de la nature des réponses à une exigence et parce que c'est le MDN qui subira de telles conséquences et qui est le mieux placé pour les comprendre.

L'équipe d'évaluation a attribué à chaque soumissionnaire les mêmes résultats par consensus après une revue détaillée des résultats attribués par chaque évaluateur. Les résultats par consensus attribués par l'équipe d'évaluation étaient identiques aux résultats estimatifs déterminés par les spécialistes de domaines donnés du MDN. Bien que les résultats par consensus aient été, en fin de compte, identiques aux résultats estimatifs, des éléments de preuve indiquent, selon TPSGC, qu'il y a eu évaluation par les évaluateurs individuels, étant donné que deux évaluateurs ont attribué des résultats individuels différents pour un élément de spécification des performances21 .

Selon TPSGC, le fait de commencer l'exercice avec des résultats qui estimaient la conséquence de manquer aux exigences dans des circonstances où les évaluateurs pouvaient, en toute liberté, ajuster les résultats n'a nullement réduit le nombre maximum de points disponibles pour les soumissionnaires. Contrairement à ce qu'a allégué DRS, TPSGC a soutenu que les soumissionnaires pouvaient obtenir 100 p. 100 des points disponibles pour le facteur conséquence de manquer aux exigences. Toutefois, l'équipe d'évaluation a déterminé que les soumissionnaires n'avaient pas mérité 100 p. 100 de ces points.

En ce qui a trait à l'allégation de DRS selon laquelle sa proposition « dépasse facilement le seuil de 70 p. 100 » [traduction], TPSGC a soutenu que cette affirmation est fondée sur une hypothèse arithmétique erronée, qui suppose que DRS obtiendrait 100 p. 100 des points disponibles pour le facteur conséquence de manquer aux exigences en vertu de son scénario révisé22 . Tel ne pourrait être le cas, étant donné que l'équipe d'évaluation a conclu que la proposition de DRS ne méritait pas tous les points disponibles pour le facteur conséquence de manquer aux exigences.

TPSGC a ajouté que, puisque tous les points disponibles pour le facteur conséquence de manquer aux exigences auraient pu être attribués, il n'était pas justifié, contrairement à ce qu'a laissé entendre DRS, de réduire de 61,2270 à 55,4015 points le nombre de points associé aux exigences cotées essentielles de la spécification. La proposition de DRS n'a pas été évaluée par application des résultats estimatifs pour la conséquence de manquer aux exigences, mais plutôt par application des résultats attribués par l'équipe d'évaluation.

TPSGC a soutenu que la suppression du facteur conséquence de manquer aux exigences de la formule d'évaluation précisée à la section 6.8 de l'appendice H de la DP donnerait lieu à une évaluation inexacte du risque. Toutefois, si le facteur conséquence de manquer aux exigences était supprimé de la formule d'évaluation et que tous les autres éléments de ladite formule demeuraient inchangés, la note de passage révisée deviendrait 77,14. Selon TPSGC, dans un tel contexte, le résultat révisé de DRS en ce qui a trait à la spécification équivaudrait toujours à un échec.

Selon TPSGC, aucune préférence ni aucun critère non divulgués n'ont été appliqués aux fins de l'évaluation des propositions. TPSGC s'est dit d'accord avec DRS sur le fait qu'il n'était pas obligatoire qu'un SGC ait été précédemment éprouvé en vol. Toutefois, TPSGC a soutenu qu'il était clair, d'après la DP, que le MDN avait besoin d'un SGC pour des aéronefs CP-140 opérationnels et que les 709 exigences du SGC revêtaient en vaste majorité un caractère sensible aux besoins du MND à l'endroit d'un système de communication conforme aux normes de navigabilité.

TPSGC a soutenu que, contrairement à l'affirmation de DRS, le MDN n'a pas exigé « l'exécution en vol dans laquelle la capacité d'un système de SGC pouvait être éprouvée » [traduction]. Plutôt, 709 exigences d'un SGC proposé ont été évaluées. Beaucoup de ces exigences ont expressément été qualifiées par renvoi à l'utilisation dans l'Aurora CP-140 ou, d'une façon plus générale, dans un aéronef23 . TPSGC a fait observer que, relativement à l'évaluation de la capacité, la mention « Capacité éprouvée/manifeste » [traduction] était le résultat le plus élevé que pouvait obtenir un soumissionnaire. Selon TPSGC, lorsqu'un évaluateur jugeait de la capacité d'une proposition à satisfaire à une exigence technique donnée du SGC pour un CP-140 opérationnel, il était raisonnable que ledit évaluateur exige une preuve satisfaisante du degré le plus élevé de capacité de satisfaire à l'exigence avant d'attribuer le résultat le plus élevé possible pour la capacité. En outre, TPSGC a soutenu qu'il peut être raisonnablement déduit du PÉ et de la DP que les évaluateurs pouvaient exiger des éléments probants sur l'exécution en vol avant d'attribuer le résultat le plus élevé pour la capacité de certaines caractéristiques proposées du SGC.

Selon TPSGC, le PÉ ne régissait pas le type d'élément probant qu'un évaluateur pouvait exiger dans le but d'établir à sa satisfaction qu'une capacité était une capacité éprouvée ou manifeste. Les évaluateurs avaient le loisir, en fonction des « descriptions imagées » comprises dans le PÉ, d'attribuer les résultats qu'ils considéraient indiqués dans les circonstances.

TPSGC a soutenu que l'allégation de DRS concernant la partialité dans l'évaluation de la proposition de cette dernière était tout à fait dénuée de fondement. Il a soutenu que la proposition de DRS a été évaluée correctement et que les motifs du rejet de ladite proposition avaient été clairement exposés dans des pièces de correspondance et les réunions d'information subséquentes. TPSGC a de plus soutenu que les spécialistes du MDN qui composaient l'équipe d'évaluation étaient les mieux qualifiés pour évaluer la soumission de DRS et que le Tribunal ne devait pas substituer son jugement sur la cotation à celui de l'équipe d'évaluation (voir le dossier no PR-2000-00724 ).

Selon TPSGC, chaque évaluateur a pleinement tenu compte de l'information soumise par DRS dans sa proposition. D'une façon similaire, l'équipe d'évaluation a tenu compte de l'ensemble de la proposition de DRS au moment de déterminer la cotation par consensus. Le fait que DRS n'ait pas obtenu une note de 70 p. 100 pour les exigences cotées essentielles de la spécification ne constitue pas un fait à l'appui de l'allégation de DRS selon laquelle la note qu'elle a obtenue était injuste ou que sa proposition n'a pas fait l'objet d'une évaluation équitable, cohérente et précise comme le promettait la DP. La note de DRS est simplement le reflet de sa proposition.

En réponse à une question du Tribunal, TPSGC a soutenu que, pour l'évaluation du risque, il fallait distinguer la probabilité de manquer aux exigences de la conséquence d'un tel manquement. Il a soutenu que la conséquence était fonction du défaut de satisfaire à une exigence. Étant donné que toutes les soumissions proposaient des architectures similaires, les résultats pour la conséquence de manquer aux exigences, pour la totalité de 709 exigences cotées, devaient être similaires dans le cas de tous les soumissionnaires. TPSGC a soutenu que, même si différents produits pouvaient donner lieu à des résultats différents relativement à la probabilité de manquer aux exigences, la conséquence de manquer à une exigence particulière devait être similaire pour tous les soumissionnaires proposant des architectures similaires.

TPSGC a ajouté que, durant la réunion d'information qui a précédé l'évaluation, le chef de l'équipe d'évaluation a informé de vive voix tous les évaluateurs du processus qui avait été appliqué pour estimer les résultats pour la conséquence de manquer aux exigences ainsi que de la raison qui motivait l'affichage de telles données sous forme de résultats par défaut dans le LÉP. Il a soutenu que les éléments de preuve25 montrent que la conséquence de manquer aux exigences a été un facteur d'évaluation dynamique. Les évaluateurs ont été avisés que, pour des raisons d'ordre pratique, les résultats estimatifs pour la conséquence de manquer aux exigences avaient été importés sous forme de résultats par défaut dans le LÉP, mais que la conséquence de manquer aux exigences demeurait une mesure évaluée qu'il leur fallait examiner. Ainsi donc, le cas échéant, l'évaluateur devait modifier la catégorie de risque si, pour une raison quelconque, le résultat issu de son évaluation de la conséquence de manquer aux exigences différait des résultats estimatifs.

TPSGC a de plus soutenu que le poids numérique attribué à chaque élément de l'arbre d'évaluation du SGC n'avait pas d'incidence sur les résultats pour la conséquence de manquer aux exigences. Il a soutenu que la pondération est une mesure de l'importance d'une exigence pour le MDN, tandis que la conséquence de manquer à une exigence est une mesure de l'incidence qu'aurait, sur le projet, le fait qu'un soumissionnaire manque à l'exigence. L'attribution des facteurs de pondération et l'estimation des résultats pour la conséquence de manquer aux exigences ont été faites à des moments différents. Les facteurs de pondération ont été déterminés avant la diffusion de la DP, tandis que les résultats pour la conséquence de manquer aux exigences ont été estimés après la diffusion de la DP.

En ce qui a trait au rôle de l'évaluation initiale du risque par les soumissionnaires, aux fins de l'évaluation de la conséquence de manquer aux exigences, TPSGC a soutenu que l'évaluation initiale du risque, exigée des soumissionnaires à l'article 10.11 de l'ÉT, décrit un processus pour repérer, maîtriser et surveiller les risques pendant toute la durée du projet. Il a soutenu que cette évaluation initiale du risque doit être mise en contraste avec les caractéristiques qui ont pu être proposées par un soumissionnaire en vue d'atténuer la conséquence de la non-conformité avec une exigence cotée de la DP. Dans un tel contexte, TPSGC a soutenu que la plupart des caractéristiques d'atténuation proposées par DRS étaient principalement axées sur la probabilité de manquer aux exigences et, par conséquent, n'avaient pas modifié les résultats pour la conséquence de manquer aux exigences. En outre, compte tenu de la granularité de l'échelle de cotation pour la conséquence de manquer aux exigences (à savoir des résultats possibles de 1, 3, 5, 8 et 10 uniquement), TPSGC a soutenu que les propositions n'ont pas introduit d'éléments dont l'importance était suffisante pour justifier de modifier les résultats estimatifs pour la conséquence de manquer aux exigences.

TPSGC a indiqué que le processus qui a permis d'obtenir la cotation par consensus a varié en fonction des résultats individuels. Lorsque tous les évaluateurs avaient déterminé un même résultat, ce résultat ne changeait que si de nouveaux renseignements le justifiaient, par exemple une réponse à une demande d'éclaircissement. Dans les cas où un léger écart séparait les résultats individuels des évaluateurs, une discussion était tenue jusqu'à ce que l'équipe d'évaluation convienne de façon unanime d'un résultat par consensus qui reflétait la meilleure évaluation de la réponse du soumissionnaire. Lorsqu'un résultat individuel s'écartait sensiblement des autres résultats, l'évaluateur qui avait attribué le résultat différent expliquait pourquoi il en était arrivé à ce résultat et, après discussion, le consensus était obtenu26 . Lorsqu'il y avait partage des résultats individuels, une discussion était tenue jusqu'à ce que tous les évaluateurs en viennent à un accord.

TPSGC s'est réservé le droit de présenter d'autres exposés sur les frais dans la présente affaire.

Position de Thales

Thales a soutenu qu'il y avait manifestement eu une évaluation individuelle de la partie de chacune des propositions portant sur la conséquence de manquer aux exigences.

En ce qui a trait à l'allégation de DRS selon laquelle le MDN a appliqué des préférences et des critères non divulgués dans l'évaluation des propositions, Thales a soutenu qu'il était clair depuis le début, étant donné les réunions d'information avec les proposants et les documents d'appel d'offres, que la préférence serait accordée à un article existant, n'étant plus au stade expérimental, assorti d'une capacité éprouvée/manifeste. Par conséquent, selon Thales, DRS ne pouvait raisonnablement supposer qu'un résultat parfait de 10 pourrait être attribué à toute exigence où le système n'avait pas encore été éprouvé dans un environnement d'un aéronef. Dans une comparaison entre le système qu'elle proposait, le système Polomar, qui est déjà utilisé en vol, et le système Telephonics de DRS, qui a fait l'objet de démonstration en laboratoire, Thales a soutenu qu'il serait déraisonnable d'attribuer un même résultat pour la maturité relative des deux systèmes.

En ce qui a trait au prétendu effet « inique » des valeurs estimatives pour la conséquence de manquer aux exigences, Thales a soutenu que l'intention du PÉ était d'accorder le maximum des points (10) à une faible probabilité de manquer aux exigences et le minimum des points (1) à l'éventualité presque certaine d'un tel manquement aux exigences. Thales a soutenu que, étant donné la façon dont le PÉ traitait de la probabilité et de la conséquence de manquer aux exigences, la manière dont le risque (la combinaison de la probabilité et de la conséquence) s'intègre au portrait global est claire. La démarche d'évaluation relativement à la cotation du risque était prévue pour que le nombre de points attribués au risque tende vers zéro dans les cas de certitude de manquement aux exigences ou lorsque la conséquence d'un manquement aux exigences serait catastrophique. Une telle démarche, selon Thales, est non seulement compatible avec le PÉ, mais une façon très raisonnable d'évaluer le risque.

Thales a repris les observations présentées dans le RIF sur les questions relatives au LÉP, à la cotation par consensus et à la cotation d'un certain nombre d'éléments spécifiques de la proposition de DRS.

Thales a demandé le remboursement des frais qu'elle a engagés relativement à la présente plainte.

Si le Tribunal devait conclure que la plainte est fondée, Thales a soutenu qu'il ne serait pas raisonnable d'accorder la réparation demandée par DRS au paragraphe 100 de la plainte. Thales a dit avoir soumis sa proposition en réponse à la DP à la lumière des critères d'évaluation publiés. Modifier maintenant les critères d'évaluation, comme l'a proposé DRS, serait injuste pour Thales et lui porterait préjudice.

Position de DRS

DRS a soutenu que le RIF confirme que la méthode de cotation qui a été appliquée relativement à la conséquence de manquer aux exigences n'était pas conforme aux modalités de la DP. Elle a soutenu que les résultats pour la conséquence de manquer aux exigences ont été estimés avant la réception de toute proposition et à la lumière d'une information qui n'était pas connue des soumissionnaires et qui ne leur a pas été divulguée. DRS a ajouté que cette méthode non annoncée est clairement contraire aux modalités de la DP et contrevient donc au paragraphe 506(6) de l'ACI. De plus, DRS a soutenu que la méthode appliquée par TPSGC et le MDN aux fins de l'évaluation de la conséquence de manquer aux exigences avait introduit dans la cotation un élément de partialité favorable à un certain produit.

Selon DRS, contrairement aux dispositions expressément énoncées de la DP selon lesquelles l'évaluation devait se fonder « uniquement » sur le contenu des propositions, les résultats estimatifs de la conséquence de manquer aux exigences ont été élaborés sur la foi d'une information qui n'était pas énoncée dans les propositions, puisque ces dernières n'avaient pas encore été reçues. À titre subsidiaire, DRS a soutenu que les résultats par consensus se fondaient sur les résultats estimatifs pour la conséquence de manquer aux exigences. Cela contrevient également aux dispositions de la section F de la DP, qui précisait les documents sur lesquels l'évaluation devait s'appuyer. En outre, DRS a soutenu qu'il ressort clairement de la DP que l'examen et la cotation des propositions relevaient de la responsabilité de l'équipe d'évaluation, et non des « spécialistes de domaines donnés » du MDN. Elle a soutenu que le RIF indique clairement que les résultats pour la conséquence de manquer aux exigences qui ont été attribués aux propositions des soumissionnaires n'ont pas été déterminés par l'équipe d'évaluation sur la foi d'un examen et de la cotation en fonction du PÉ, mais ont plutôt été préparés au préalable par les spécialistes de domaines donnés qui se sont appuyés sur d'autres renseignements, non divulgués.

DRS a soutenu que l'allégation de TPSGC selon laquelle l'application des résultats estimatifs pour la conséquence de manquer aux exigences était plus efficiente n'était valide que si lesdits résultats n'étaient pas subséquemment modifiés. Elle a soutenu que l'objectif explicite d'atteindre à l'efficience décourageait donc les évaluateurs à apporter des changements aux résultats préétablis. En outre, DRS a soutenu que le fait de débuter avec des résultats préétablis a donné naissance à la fois à une partialité réelle et à l'impression de partialité. De plus, étant donné que les « spécialistes de domaines donnés » du MDN avaient consacré « plusieurs jours » à la détermination des résultats préétablis, lesdits résultats ont manifestement dû être perçus comme ayant une grande importance, et ont sans nul doute exercé une profonde influence sur les évaluateurs. Les faits démontrent que l'équipe d'évaluation a profondément été influencée par ces résultats. DRS a aussi soutenu que le fait qu'il n'y ait pas eu de changement des résultats estimatifs pour la conséquence de manquer aux exigences durant le processus d'évaluation milite fortement contre l'hypothèse de l'existence d'une latitude véritable des évaluateurs relativement à la modification des résultats préétablis. Même si les évaluateurs pouvaient, en théorie, modifier un résultat, cela n'a pas éliminé la partialité et l'influence issues du fait de commencer l'exercice avec des résultats préétablis.

En ce qui a trait à l'affirmation de TPSGC selon laquelle les résultats estimatifs pour la conséquence de manquer aux exigences sont demeurés inchangés, en partie, parce qu'« aucun soumissionnaire n'a offert de caractéristiques d'atténuation du risque qui justifiaient de modifier [ces] résultats » [traduction], DRS a soutenu qu'il semble peu vraisemblable que tous les soumissionnaires aient fourni des évaluations du risque identiques et des mesures d'atténuation du risque identiques. Chaque soumissionnaire a proposé un produit différent qui était assorti de risques différents; chaque soumissionnaire pouvait s'attendre que sa détermination particulière du risque et ses propres mesures d'atténuation du risque fassent l'objet d'une évaluation distincte sur la foi de l'information contenue dans sa proposition.

De plus, DRS a soutenu que l'incapacité de TPSGC et du MDN à produire quelque document que ce soit se rapportant à toute réunion d'information tenue à l'intention des évaluateurs sur la façon de coter la conséquence de manquer aux exigences semble aller à l'encontre des dispositions de la DP, qui a fait de la « promulgation "de directives et de conseils aux évaluateurs" » [traduction] une responsabilité du chef de l'équipe d'évaluation. DRS a fait observer qu'une absence similaire d'information existait relativement à l'élaboration des résultats estimatifs pour la conséquence de manquer aux exigences.

En ce qui a trait à la relation entre les résultats estimatifs pour la conséquence de manquer aux exigences et l'analyse de sensibilité effectuée par le MDN aux fins de l'établissement de la note de passage de 70 p. 100 à l'étape 3 du processus d'évaluation, DRS a soutenu que le seuil de 70 p. 100 signifiait que les soumissionnaires devaient obtenir de très bons résultats dans d'autres catégories pour compenser l'effet à la baisse des résultats préétablis pour la conséquence de manquer aux exigences, ce qui, en vérité, a eu l'effet d'un facteur de pondération non divulgué. Elle a soutenu que les résultats estimatifs pour la conséquence de manquer aux exigences favorisaient les produits assortis d'une expérience manifeste d'exécution en vol et rendaient difficile ou impossible le dépassement de ce seuil par les produits au sujet desquels aucune telle expérience ne pouvait être démontrée.

En outre, DRS a soutenu que, à la suite du biais imprimé à la structure de cotation, qui était invisible pour les soumissionnaires, dès le début, elle faisait face à un obstacle pratiquement insurmontable et caché relativement à l'atteinte du seuil de 70 p. 100. Le fait que seulement Thales, le soumissionnaire qui proposait le système installé sur des aéronefs de patrouille maritime similaires, ait dépassé ce seuil de 70 p. 100 corrobore une telle affirmation. Selon DRS, de ce fait, le résultat de l'évaluation a été que seulement le système que le MDN voulait acheter, à savoir celui qu'offrait Thales, a pu dépasser le seuil de 70 p. 100 et, étant donné qu'il a été le seul système à le faire, il n'a pas été tenu d'être soumis à la comparaison en fonction du coût par point avec les autres soumissions.

DRS a affirmé que la modification de la méthode de cotation relativement à la conséquence de manquer aux exigences a clairement eu une incidence défavorable sur ses résultats et que la méthode appliquée par TPSGC et le MDN aux fins de l'évaluation des propositions en fonction de la conséquence de manquer aux exigences était incorrecte et contrevenait au paragraphe 506(6) de l'ACI pour les motifs indiqués ci-dessus.

En ce qui a trait à la cotation par consensus, DRS a soutenu que, quel que soit le processus de cotation par consensus qui a été élaboré et appliqué, il a donné lieu à un effondrement de la méthode d'évaluation énoncée dans la DP. DRS a soutenu que la DP avait édifié une méthode mathématique très élaborée destinée à dégager des chiffres qui représentaient les résultats individuels. Un logiciel spécial (le LÉP) a été adopté expressément pour ce projet et a servi aux évaluateurs à faire le suivi et à inscrire les résultats individuels. Puis, par application d'un processus quelconque toujours inconnu, les chiffres issus de l'exercice individuel très élaboré ont été remplacés par d'autres chiffres issus d'un processus de cotation par « consensus » au sujet duquel on ne sait presque rien.

Les résultats par consensus, selon DRS, ont été produits dans le cadre de discussions dont la nature n'a pas été divulguée et il n'a pas été tenu compte des résultats individuels d'une manière prévisible. Il n'existait pas de relation mathématique entre les chiffres représentant les résultats individuels et les chiffres représentant les résultats par consensus. Dans un tel contexte, selon DRS, une méthode qui remplace une série de chiffres, d'une manière inconnue et imprévisible, par une autre série de chiffres et qui peut transformer une note de réussite en une note d'échec est injuste pour les soumissionnaires et contraire à l'objet de l'ACI qui est d'accroître l'ouverture et l'équité de la procédure de passation des marchés publics.

En ce qui a trait à la pertinence de ses préoccupations au sujet de la cotation par consensus et du LÉP, DRS a soutenu qu'elle ne contestait pas le fait que la cotation par consensus et le LÉP aient été appliqués comme l'avait annoncé la DP. Elle conteste plutôt la manière dont ils ont été appliqués, qui demeure en grande partie inconnue. DRS a soutenu que, d'une façon générale, ses motifs de plainte ne portent pas sur la méthode énoncée dans la DP ni sur les modalités de cette dernière, mais plutôt sur la manière selon laquelle l'évaluation a été menée et sur les actions des évaluateurs et la méthode qu'ils ont appliquée. Par conséquent, selon DRS, le délai prescrit pour le dépôt d'une plainte relativement à ces aspects a été respecté.

Selon DRS, le RIF présente de façon inexacte l'état de développement du produit AVICOM et les capacités de DRS, telles qu'ils ont été présentés dans sa proposition. Le RIF tente de discréditer la viabilité d'AVICOM et la capacité de DRS de livrer à temps une solution. DRS a soutenu qu'un examen factuel de sa proposition ne corrobore pas le point de vue susmentionné. En outre, rien dans la DP n'indiquait que seuls les systèmes assortis d'une expérience d'exécution démontrée en vol recevraient le maximum de 10 points pour la capacité. De plus, DRS a soutenu que la structure de cotation indiquée dans le PÉ ne prévoit pas la possibilité que les propositions reçoivent un résultat « se situant entre » deux cotes de points et que le LÉP ne semblait pas non plus prévoir une telle possibilité. Par conséquent, dans les faits, un résultat se situant entre 8 et 10 donne 10 points.

En ce qui a trait à la question du manque de preuve « substantielle » dans sa proposition, DRS a soutenu qu'aucun élément de preuve de quelque ampleur qu'elle pourrait apporter ne suffirait à renverser la partialité cachée à l'encontre d'AVICOM. L'échec n'a pas été attribuable aux éléments de preuve qu'elle a offerts dans sa proposition, mais bien à la préférence cachée que le MDN a intégrée dans le système de cotation. DRS a soutenu que le PÉ exige le recours à des « éléments de preuve raisonnables » relativement à l'évaluation de la capacité des solutions proposées et non une « preuve substantielle » telle qu'en a fait mention le RIF. DRS a soutenu qu'il est injuste de masquer la réalité par des attributs non définis comme une preuve « substantielle » puisque l'extension de cette expression peut être aussi vaste ou aussi étroite que TPSGC et le MDN le veulent bien, et qu'il s'agit là d'une norme qui manque de transparence.

En ce qui a trait aux observations présentées dans le RIF selon lesquelles AVICOM « manquait de maturité »27 [traduction] et qu'il manquait d'information, dans la proposition de DRS, sur l'état de développement du système qu'elle proposait28 , DRS a soutenu que les faits ne corroborent pas les affirmations susmentionnées. Elle a soutenu que le même commentaire s'applique aux évaluations critiques de TPSGC et du MDN relativement à sa connaissance et à son expérience en matière d'ensembles d'avioniques en général et de l'aéronef Aurora en particulier29 , ainsi qu'à la façon dont le calendrier de développement d'AVICOM serait intégré progressivement au calendrier serré du SGC30 . DRS a soutenu que les affirmations susmentionnées ne peuvent être justement défendues, étant donné les éléments de preuve compris dans sa proposition.

Dans ses observations en réponse à des questions du Tribunal et aux réponses reçues de TPSGC, DRS a soutenu ce qui suit.

L'information détaillée soumise par TPSGC relativement aux quatre exigences qui ont été jugées non conformes dans la proposition de DRS indique que la cotation par consensus a donné lieu à beaucoup de modifications inexplicables des résultats attribués à DRS par les évaluateurs individuels, d'une façon ni transparente ni prévisible. De plus, dans certains cas, TPSGC a mal caractérisé l'information contenue dans la proposition de DRS. Dans beaucoup de cas, la majorité des résultats individuels n'ont pas été reflétés dans les résultats par consensus. Dans de multiples cas, les notes de passage initiales ont été modifiées à la baisse pour devenir des notes d'échec durant ce processus. De ce fait, DRS a soutenu qu'il ne peut être conclu que la cotation par consensus a donné lieu à une évaluation équitable et fiable de sa proposition.

En ce qui a trait au fondement présumé, c.-à-d. l'architecture prévue, sur lequel les spécialistes de domaines donnés se sont appuyés pour déterminer les résultats estimatifs pour la conséquence de manquer aux exigences, DRS a soutenu que, étant donné les nombreuses variables qui entrent en jeu dans la conception de l'architecture d'un système complexe comme le SGC, les résultats retenus en fin de compte par chaque soumissionnaire ne peuvent facilement être prévus. Elle a soutenu que le fait qu'un des évaluateurs qui a tenté de modifier un résultat préétabli pour la conséquence de manquer aux exigences était l'un des spécialistes de domaines donnés appuie la position de DRS selon laquelle il ne convenait pas d'entreprendre, dès le début, l'évaluation avec de tels résultats. Si les architectures des soumissionnaires étaient aussi prévisibles que TPSGC l'a prétendu, DRS a dit se demander pourquoi l'un des spécialistes de domaines donnés a jugé nécessaire de proposer une modification aux résultats estimatifs pour la conséquence de manquer aux exigences.

Enfin, DRS a dit être d'accord sur les paragraphes 34 à 79 de la plainte de CMC, concernant le même marché public, eu égard à la cotation de la conséquence de manquer aux exigences, aux facteurs de pondération non publiés de l'évaluation, au calcul irrégulier et aux effets des valeurs non divulguées pour la conséquence de manquer aux exigences31 .

Position de CMC

CMC a déposé les observations qu'elle a présentées en réponse au RIF relativement au dossier no PR-2001-05232 , y compris un tableau de concordance, à l'appui de la position de DRS.

DÉCISION DU TRIBUNAL

Aux termes du paragraphe 30.14(1) de la Loi sur le TCCE, le Tribunal doit, dans son enquête, limiter son étude à l'objet de la plainte33 . En outre, à la fin de l'enquête, le Tribunal doit déterminer la validité de la plainte en fonction des critères et procédures établis par règlement pour le contrat spécifique. De plus, l'article 11 du Règlement prévoit que le Tribunal doit déterminer si le marché public a été passé conformément aux accords commerciaux applicables, en l'espèce, l'ACI.

DRS a allégué que TPSGC et le MDN, contrairement aux dispositions de l'article 501 et du paragraphe 506(6) de l'ACI, a incorrectement rejeté sa proposition aux fins d'examen ultérieur à l'étape 3 du processus d'évaluation.

Conformément à l'article 501 de l'ACI, le chapitre cinq de l'ACI vise à établir un cadre qui assurera à tous les fournisseurs canadiens un accès égal aux marchés publics. Dans un tel contexte, le paragraphe 506(6) prévoit, notamment, que « [l]es documents d'appel d'offres doivent indiquer clairement les conditions du marché public, les critères qui seront appliqués dans l'évaluation des soumissions et les méthodes de pondération et d'évaluation des critères ».

Le Tribunal doit déterminer si la proposition de DRS a été incorrectement rejetée aux fins d'examen ultérieur à l'étape 3 du processus d'évaluation. À cette fin, il lui faut examiner la question de savoir si, conformément au paragraphe 506(6) de l'ACI, TPSGC et le MDN ont recouru aux critères et méthodes d'évaluation énoncés dans la DP (qui comprend le PÉ) dans l'évaluation de la proposition de DRS et les ont appliqués comme il se doit.

Le Tribunal conclut que les résultats estimatifs pour la conséquence de manquer aux exigences qui ont servi aux résultats par défaut dans l'évaluation de la proposition de DRS équivalent à des facteurs de pondération. De ce fait, les résultats par défaut ont introduit un changement important aux critères et méthodes d'évaluation par rapport à ceux qui avaient été énoncés dans les documents d'appel d'offres, sans que les soumissionnaires en aient été informés. Cela est contraire au paragraphe 506(6) de l'ACI.

Pour en arriver à cette conclusion, le Tribunal a examiné avec soin l'observation de TPSGC et de Thales selon laquelle les résultats des évaluateurs individuels et les résultats par consensus pour la conséquence de manquer aux exigences ont été attribués au moment de l'évaluation en fonction d'un processus décrit dans le PÉ et n'avaient pas été établis au préalable.

Le Tribunal est d'avis que l'observation de TPSGC et de Thales ne suffit pas pour expliquer la correspondance parfaite entre les résultats par défaut de chacune des 709 exigences cotées essentielles et souhaitables de l'ÉT et de la Spécification relativement aux trois propositions et les résultats attribués subséquemment par l'équipe d'évaluation. De plus, il semble aussi avoir existé une correspondance parfaite entre les catégories de risques clés choisies au préalable et celles qui ont été choisies subséquemment par les évaluateurs.

Selon le Tribunal, il est invraisemblable qu'une telle correspondance parfaite relève de la coïncidence, particulièrement si elle est examinée à la lumière de l'explication de TPSGC et du MDN selon laquelle les résultats par défaut ont été déterminés par les spécialistes de domaines donnés à titre de guide pratique à l'intention des évaluateurs pour supprimer le caractère subjectif associé à l'évaluation de la conséquence de manquer aux exigences et pour mettre en place une interface homme-machine plus efficiente. Le fait que TPSGC et le MDN aient voulu que les résultats par défaut suppriment le caractère subjectif indique au Tribunal qu'ils voulaient que les résultats par défaut aient une incidence sur la cotation. Malgré l'absence d'éléments de preuve que les évaluateurs aient consciemment pris la décision de reproduire les résultats par défaut, ils les ont effectivement reproduits. Le Tribunal est d'avis qu'un évaluateur pourrait difficilement éviter d'être influencé par les résultats par défaut, particulièrement du fait qu'ils étaient clairement énoncés dans les feuilles de pointage du LÉP sous la rubrique « Évaluateur » [traduction], de la même manière que l'étaient les catégories de risques sous la rubrique « Conseils aux évaluateurs » [traduction]. De plus, trois des personnes qui avaient préparé les résultats par défaut étaient des membres de l'équipe d'évaluation.

Selon les éléments de preuve, non seulement les six évaluateurs ne sont-ils arrivés à un résultat pour la conséquence de manquer aux exigences qui est identique au résultat par défaut, mais ils sont aussi arrivés à la même détermination relativement à la catégorie préétablie de la conséquence de manquer aux exigences, qui a fondé ces résultats pour chacune des 709 exigences cotées. Leur « cotation » de ces exigences, dans l'évaluation des trois propositions a été identique, à deux exceptions près. Selon le Tribunal, cette coïncidence improbable dans la cotation indique que les résultats par défaut équivalaient, effectivement, à des facteurs de pondération.

Le Tribunal conclut aussi que l'effet des résultats estimatifs pour la conséquence de manquer aux exigences a réduit le nombre total de points disponibles et, par conséquent, modifié le calcul du résultat en pourcentage à l'étape 3 du processus d'évaluation. De plus, selon le Tribunal, le recours aux résultats par défaut a eu pour effet de modifier, d'une manière non transparente, les méthodes d'évaluation connues par DRS au moment de la présentation de sa soumission.

En ce qui a trait à l'utilisation de la preuve d'exécution en vol aux fins de l'évaluation de la capacité du système proposé par DRS, le Tribunal conclut que ce motif de plainte est dénué de fondement.

Le Tribunal est d'avis que la DP n'a pas établi à titre de critère obligatoire que le SCG proposé devait avoir été éprouvé en vol. Toutefois, ce fait ne signifie pas que la preuve d'exécution en vol ne pouvait pas servir à évaluer certains volets de la réponse à la DP, comme il a été fait en l'espèce. Selon le Tribunal, la véritable question consiste à savoir si, aux termes de la DP, les évaluateurs pouvaient, d'une façon raisonnable, exiger la preuve d'exécution en vol à titre de condition préalable à l'attribution de la cote la plus élevée pour la capacité, particulièrement relativement aux exigences qui ne peuvent entièrement être éprouvées ailleurs que dans un aéronef opérationnel.

Le Tribunal est convaincu que la DP a énoncé d'une manière très claire le fait que ledit marché public se rapporte à un SGC à bord d'un aéronef opérationnel, c'est-à-dire l'Aurora CP-140. De même, la DP a indiqué la préférence du MDN à l'endroit d'articles existants, n'étant plus à l'étape de développement. Il ressort clairement de la lecture de l'ÉT et de la spécification qu'un nombre important des 709 exigences cotées sont sensibles à l'environnement opérationnel d'un aéronef. De plus, l'ÉT a énoncé clairement, à la section 6.5.2, que pour obtenir le résultat maximal de 10 pour la capacité, dans toute exigence cotée, un soumissionnaire doit faire la preuve du caractère de « Capacité éprouvée/manifeste » [traduction] de l'article proposé. Dans de telles conditions, le Tribunal est convaincu que le critère de la capacité et la manière dont ce critère serait évalué ont clairement été énoncés dans la DP et que les évaluateurs n'ont pas contrevenu aux dispositions de la DP lorsqu'ils ont exigé la preuve de l'exécution en vol avant d'attribuer un résultat de 10 pour la capacité relativement à certaines exigences sensibles aux conditions opérationnelles d'un aéronef.

En ce qui a trait à la question de l'emploi du LÉP et de la cotation par consensus dans l'évaluation de la proposition de DRS, le Tribunal conclut que la plainte à ce motif n'a pas été déposée dans le délai prescrit de 10 jours ouvrables prévu au paragraphe 6(1) du Règlement et qu'elle est donc en retard.

Le Tribunal est d'avis que la DP a clairement indiqué que le LÉP et la cotation par consensus serviraient dans l'évaluation des propositions. Il est convaincu que la DP et le PÉ ont indiqué, bien que d'une façon sommaire, la façon dont le LÉP et la cotation par consensus serviraient dans l'évaluation des propositions. Si DRS était d'avis que les dispositions susmentionnées souffraient de lacunes, elle aurait dû soulever la question auprès de TPSGC ou déposer une plainte auprès du Tribunal dans les 10 jours ouvrables suivant la date de la diffusion de la DP. Cela n'a pas été fait et le Tribunal n'a donc pas compétence pour connaître du bien-fondé de ce motif de plainte.

Eu égard à la cotation de quatre exigences spécifiques dans la proposition de DRS et aux résultats censément injustifiablement bas qui ont été attribués relativement auxdites exigences, le Tribunal conclut que ce motif de plainte est dénué de fondement.

Pour en arriver à cette conclusion, le Tribunal a examiné avec soin l'information détaillée communiquée par TPSGC relativement aux quatre articles en litige. Sous réserve de la détermination du Tribunal relativement à la cotation pour la conséquence de manquer aux exigences, ainsi qu'il a déjà été indiqué, rien ne prouve que les quatre articles susmentionnés n'ont pas été évalués conformément aux critères et méthodes énoncés dans les documents d'appel d'offres ou que les évaluateurs n'ont pas porté attention auxdits articles au moment de l'évaluation. En l'absence de violation des méthodes d'évaluation, ainsi qu'il a été allégué, le Tribunal s'en remet au jugement des évaluateurs. En outre, le Tribunal conclut que la prétention de TPSGC selon laquelle DRS aurait échoué, puisqu'elle a échoué relativement à ces quatre exigences cotées essentielles, n'est pas étayée par des éléments de preuve. Premièrement, l'un des quatre articles se rapporte à une exigence de l'ÉT. TPSGC a déclaré que DRS a réussi relativement à l'ÉT. Deuxièmement, la DP ne fait aucunement mention de l'obligation d'obtenir la note de passage pour toutes les exigences cotées essentielles. Plutôt, le critère obligatoire est d'obtenir une moyenne de 70 p. 100. Troisièmement, DRS avait déjà réussi à l'étape 2, « Sélection préalable fondée sur les exigences techniques et administratives obligatoires » [traduction]. L'article 27.2.3 de la DP ainsi que l'article 3.9 et la section 6 du PÉ énoncent tous clairement la différence entre les exigences obligatoires de l'étape 2, où le résultat est formulé comme étant conforme ou non conforme avant l'attribution d'une cote, et les exigences cotées essentielles et souhaitables de l'étape 3, qui font l'objet de l'attribution d'une cote. La présente plainte porte sur les résultats attribués pour les articles à l'étape 3 de l'évaluation. Les « exigences obligatoires » au sens de la DP ou du PÉ ont déjà été traitées à l'étape 2 et il n'en est plus question.

Le Tribunal conclut que l'allégation de DRS selon laquelle le MDN et TPSGC ont appliqué une méthode d'évaluation partiale dans le but d'obtenir un résultat spécifique déterminé au préalable, à savoir, favoriser la soumission de Thales comme étant la seule possédant une expérience en vol manifeste, est dénuée de fondement.

Selon le Tribunal, il n'y a pas d'élément de preuve au dossier qui appuie cette allégation. Le Tribunal fait observer que, même si la probabilité d'échec est plus sensible aux choix arrêtés par les soumissionnaires, l'effet pondérateur qu'ont eu les résultats par défaut pour la conséquence de manquer aux exigences a été le même dans le cas de Thales et dans le cas de DRS. Bien que l'évaluation eu égard aux résultats par défaut pour la conséquence de manquer aux exigences n'ait pas eu un caractère de transparence, il n'existe pas d'élément de preuve qu'elle ait revêtu un caractère discriminatoire. De plus, ainsi qu'il a déjà été indiqué, la DP a avisé les soumissionnaires que ladite invitation se rapportait à des aéronefs opérationnels et les a invités à offrir des solutions et des articles existants, qui n'en étaient plus au stade expérimental, dans la détermination de la meilleure valeur pour la Couronne. Le fait que DRS ait pu, étant donné les circonstances de l'entreprise, trouver, plus que d'autres fournisseurs potentiels, difficile d'atteindre la réussite aux termes des modalités de la DP ne constitue pas, de l'avis du Tribunal, une corroboration de l'allégation de partialité formulée par DRS.

Enfin, le Tribunal conclut que, à cause de l'emploi non approprié des résultats estimatifs pour la conséquence de manquer aux exigences, la proposition de DRS a été incorrectement rejetée aux fins d'examen ultérieur.

Pour déterminer la mesure corrective indiquée dans les circonstances, le Tribunal a examiné le préjudice causé à DRS et aux autres soumissionnaires par ladite évaluation incorrecte. Dans la préparation de leurs soumissions, les soumissionnaires se sont appuyés sur les critères et méthodes d'évaluation énoncés dans la DP. S'ils avaient su comment la conséquence de manquer aux exigences allait être évaluée, ils auraient peut-être présenté des soumissions différentes. Par conséquent, le Tribunal est d'avis que le processus d'évaluation doit être modifié de façon à ce que les soumissions soient évaluées en conformité avec les critères et méthodes d'évaluation énoncés dans la DP. Étant donné qu'il est d'avis que l'application du facteur « conséquence de manquer aux exigences » qui se fonde sur les catégories de risques clés déterminées au préalable est le seul motif fondé de la plainte en l'espèce, le Tribunal recommande que la réévaluation se fasse seulement eu égard au facteur de la conséquence de manquer aux exigences et aux catégories de risques dont chacun des résultats dépend. La réévaluation se fera relativement à la totalité des 709 exigences cotées pour les trois propositions, conformément aux critères et méthodes énoncés dans la DP. À la lumière des résultats de la réévaluation susmentionnée, le soumissionnaire retenu sera désigné conformément aux dispositions pertinentes de la DP et de l'ACI.

DÉCISION DU TRIBUNAL

À la lumière de ce qui précède, le Tribunal détermine que le marché public n'a pas été passé conformément aux dispositions de l'ACI et que la plainte est fondée en partie.

Aux termes des paragraphes 30.15(2) et 30.15(3) de la Loi sur le TCCE, le Tribunal recommande que les résultats de l'évaluation de toutes les exigences cotées énoncées dans la DP, en ce qui a trait au facteur « conséquence de manquer aux exigences » pour les trois propositions reçues, soient annulés. En outre, il recommande que TPSGC et le MDN réévaluent le facteur « conséquence de manquer aux exigences », y compris les catégories de risques clés sur lesquelles il se fonde, pour toutes les exigences cotées, essentielles ou non, énoncées dans les propositions techniques et administratives des trois propositions soumises. La réévaluation se fera strictement, selon les critères et la méthodologie énoncés dans la DP, y compris le PÉ. Cela nécessitera la suppression, du logiciel d'évaluation électronique des propositions, des catégories « conséquence de manquer aux exigences » choisies par les spécialistes de domaines donnés, qui sont insérées dans les écrans d'évaluation sous la rubrique « Conseils aux évaluateurs » [traduction], et des résultats estimatifs pour le facteur « conséquence de manquer aux exigences ». Les résultats estimatifs pour le facteur « conséquence de manquer aux exigences » ne seront aucunement utilisés dans la réévaluation. La procédure de passation du marché public se poursuivra, comme il est stipulé dans les documents d'appel d'offres susmentionnés et dans l'ACI.

La réévaluation sera effectuée par une nouvelle équipe d'évaluation qui se composera d'autres membres que ceux qui faisaient partie de l'évaluation initiale et exclura le quatrième des spécialistes de domaines donnés qui s'occupait de la détermination des résultats estimatifs pour le facteur « conséquence de manquer aux exigences » avant l'évaluation des propositions.

Aux termes du paragraphe 30.16(1) de la Loi sur le TCCE, le Tribunal accorde à DRS le remboursement des frais raisonnables qu'elle a engagés pour la préparation et le traitement de la plainte.

1 . L.R.C. 1985 (4e supp.), c. 47 [ci-après Loi sur le TCCE].

2 . Le MDN exploite une flotte de 18 aéronefs Aurora CP-140 en tant que plate-forme de patrouille maritime à long rayon d'action pour les rôles de surveillance de surface et sous-marine.

3 . 18 juillet 1994, Gaz. C. 1995.I.1323, en ligne : Secrétariat du commerce intérieur <http://www.intrasec.mb.ca/fre/it.htm> [ci-après ACI].

4 . 32 I.L.M. 289 (entré en vigueur le 1er janvier 1994) [ci-après ALÉNA].

5 . 15 avril 1994, en ligne : Organisation mondiale du commerce <http://www.wto.org/french/docs_f/legal_f/final_f.htm> [ci-après AMP].

6 . D.O.R.S./93-602 [ci-après Règlement].

7 . Anciennement Thompson-CSF.

8 . Anciennement BAE Systems Canada Inc.

9 . D.O.R.S./91-499.

10 . En novembre 2000, l'ébauche de DP a été révisée, avant sa diffusion, aux fins de cohérence et de conformité avec les règles applicables par BMCI Consulting Inc. (BMCI). (Voir plainte, onglet N.)

11 . Service électronique d'appel d'offres du Canada.

12 . Electronic Warfare Associates a conçu le PÉ.

13 . Six modifications de la DP ont été diffusées, y compris la modification no 001, qui, notamment, a modifié le PÉ.

14 . D'après le RIF, l'équipe d'évaluation se composait de plusieurs personnes, y compris un chef d'équipe. Ainsi qu'il est énoncé à la section 4.5 du PÉ, il incombait au CÉÉ, notamment, de résoudre le problème présenté par les résultats extrêmes, de déterminer le consensus officiel relatif aux résultats des évaluateurs pour chaque élément de l'évaluation des propositions et de repérer les domaines à risque élevé. D'après le RIF, quatre évaluateurs provenaient du « bureau de gestion de projet du Programme de modernisation progressive de l'Aurora CP-140 »; deux évaluateurs provenaient des « escadrons de CP-140 opérationnels à la 14e Escadre Greenwood, N.-É. », ces derniers n'ayant aucune connaissance préalable des soumissionnaires, des produits ou de la DP. De même, d'après le RIF, il a été fait appel, au besoin, à des représentants dans les domaines de la navigabilité, de l'assurance de la qualité et du DSGTS/TEMPEST. Les évaluateurs ont participé d'égal à égal au processus d'évaluation. Chaque évaluateur a commencé son évaluation des différentes soumissions et des différentes sections des soumissions. Les discussions entre évaluateurs devaient être limitées durant l'étape de cotation individuelle de l'évaluation pour assurer que les propositions soient toutes traitées d'une manière cohérente et uniforme, sans traitement préférentiel ni partialité, comme l'exigeait la section 3.10 du PÉ. Chaque évaluateur disposait d'un ordinateur et d'un mot de passe unique qui en bloquait l'accès, sauf au chef. Une fois tous les résultats individuels attribués, les évaluateurs ont été réunis pour décider des résultats par consensus. L'équipe d'évaluation a discuté des résultats individuels relativement à chaque exigence avant de s'entendre sur un résultat par consensus, et cela a été fait pour chacune des exigences cotées comprises dans la DP.

15 . D'après le RIF, le LÉP a initialement été élaboré aux fins d'une invitation précédente du MDN. Il a été modifié et a servi à l'évaluation de soumissions pour plusieurs autres projets gouvernementaux en conformité avec le plan d'évaluation et les stratégies d'approvisionnement unique du projet. Le LÉP comprend une équation qui sert à calculer les résultats normalisés et les poids annoncés de chacun des critères cotés intégrés au logiciel. La base de données du LÉP constitue un dépôt unique et efficient de toute l'information liée à l'activité d'évaluation. Le LÉP reflète les critères techniques et administratifs inclus dans le PÉ et dans la DP. En plus de garantir un contrôle et la sécurité des résultats d'évaluation à caractère sensible, le LÉP « guide la cotation par l'équipe d'évaluation au moyen d'une série de facteurs de conformité, de capacité et de risque appliqués d'une manière cohérente, grâce à une démarche systématique et disciplinée » [traduction]. Le LÉP appuie à la fois les évaluations subjectives et objectives des propositions en utilisant des critères et des facteurs de pondération définis par le bureau de gestion du projet. Il élimine l'erreur humaine dans le calcul manuel du cumul des résultats pour la comparaison des propositions.

16 . La modification no 001 de la DP prévoit, notamment, ce qui suit :

Question 18

La section 6.6 du plan d'évaluation (29395 v3 - PLAN D'ÉVALUATION DU SGC) précise que les résultats distincts pour les conséquences du risque seront attribués au risque pour les opérations, pour le soutien, pour le calendrier et pour la programmation. Il n'est pas expliqué, à la section 6.8.1, comment la valeur unique attribuée aux conséquences qui figurent dans l'équation du résultat pour le critère du risque est calculée à partir des quatre résultats distincts pour les conséquences. Serait-il possible de communiquer l'équation mathématique qui sert à calculer la conséquence en tant que fonction des risques du type opérationnel, de soutien, de calendrier et programmatique?
Réponse 18
L'objet visé consiste à appliquer le plus pertinent et le plus important des quatre éléments de risque. Une seule des quatre conséquences servira donc à l'établissement du résultat pour chaque exigence.

17 . Écran du LÉP, spécification des performances 3.3.21.9, RIF (confidentiel), pièce 4.

18 . Re plainte déposée par Corel Corporation (21 novembre 1996) (TCCE).

19 . Plainte, para. 58.

20 . Ibid., para. 56.

21 . RIF, pièce 4.

22 . DRS retiendrait tous les points qu'elle a obtenus relativement à la conséquence de manquer aux exigences conformément au PÉ, tel qu'il est indiqué dans la DP, un résultat qu'elle estime être de 100 p. 100 des points disponibles relativement à la conséquence de manquer aux exigences selon son scénario révisé.

23 . Voir les sections 3.3.22, 3.6.1, 3.6.14.2.1 et 3.6.14.11.1 de la spécification et les sections 1.2.2 et 3.2.1 de l'ÉT.

24 . Re plainte déposée par FMD International (22 août 2000) (TCCE) à la p. 4.

25 . Observations de TPSGC, 18 février 2002, document 1 aux pp. 22, 27-29.

26 . Réponse de TPSGC, 20 mars 2002, question 6 c).

27 . Observations de DRS sur le RIF, paras. 83-88.

28 . Ibid., paras. 101, 102.

29 . Observations de DRS sur le RIF, paras. 90-99.

30 . Ibid., para. 100.

31 . Ibid., para. 40.

32 . Re plainte déposée par CMC Electronics (2 mai 2002) (TCCE), où les observations de CMC sont rapportées en détail dans l'exposé des motifs.

33 . La présente décision ne traite que de la plainte de DRS. Toutefois, CMC, qui a également déposé une plainte distincte concernant le même marché public, a été autorisée à intervenir dans la présente affaire, et le Tribunal a pris en considération les observations qu'elle a présentées.


[ Table des matières]

Publication initiale : le 19 juin 2002