Bonjour,
Je tente de résumer.
@Olivier propose une procédure sécurisée de "certification" intéressante mais qui me semble soulever quelques problèmes dont:
- Elle suppose l'existence de normes ou instances officielles pour être contraignante. Les lois et règlement européens n'en parlent pas.
- Chaque domaine, chaque problème devrait être assorti d'un ensemble de jeux de données afférents. je crains que la complexité ne soit rédhibitoire sauf pour des domaines (crédit bancaire?) où la concurrence et les enjeux sont importants.
- Un algorithme d'apprentissage n'est pas biaisé (raciste, sexiste...) en tant que tel. En revanche les données d'apprentissage, reflet de notre société, le sont et l'algorithme, sans précaution particulière, ne fait que reproduire ce biais.
C'est pour ces raison et sans doute d'autres qu'il me semble prioritaire de chercher et pouvoir "prouver", a posteriori, les déviances d'une décision issue d'un algorithme d'apprentissage.
@fred pose la question de la transparence ou plus précisément de l"explicabilité" d'une décision. Nous sommes d'accord, hormis les modèles statistiques (linéaires), arbres binaires de décision ou systèmes experts, du siècle dernier, les algorithmes plus récents et largement popularisés (deep learning, xgboost....) sont des boîtes noires.Disposer du code ne suffit pas.
Il ne suffit pas non plus de signer la charte https://www.partnershiponai.org (ibm, google, microsoft, facebook, apple...) qui prévoit dans son article 7
7. We believe that it is important for the operation of AI systems to be understandable and interpretable by people, for purposes of explaining the technology
pour que cela devienne une réalité.