Un groupe de chercheurs de l’Université du Maryland a trouvé plusieurs failles inquiétantes dans le machine learning.

Selon les experts, les données d’entrée dans un processus de machine learning peuvent être corrompues et entraîner un résultat faux après traitement. Plusieurs exemples sont cités comme la modification de flux financiers sur la base de calculs faux ou l’altération de données dans un système de reconnaissance faciale rendant ainsi toute identification impossible.

Des scénarios probables puisque la plupart des solutions de machine learning sont disponibles en Open Source et donc téléchargeables et modifiables par tout le monde.

L’équipe de chercheurs a réalisé une série de tests sur plusieurs machines différentes et a ainsi répertorié 7 failles dont 3 référencées dans la base CVE (Common Vulnerabilities Exposures). Ces failles peuvent provoquer une exécution de code arbitraire ou en encore une attaque de déni de services (DDoS).

Pour les auteurs de cette étude réalisée dans le but de sensibiliser les développeurs à l’importance de l’intégrité et de la sécurité des algorithmes de machine learning : « Le machine learning est un domaine relativement nouveau. Si des gens trouvent des bugs, il n’existe pas encore d’analyse systématique des implémentations de machine learning. »

En savoir plus : http://www.silicon.fr/le-machine-learning-a-t-il-oublie-sa-securite-167790.html