Les systèmes algorithmiques et basés sur l’IA sont utilisés par les autorités et les entreprises pour faire des prévisions, des recommandations ou des décisions, explique AlgorithmWatch dans une contribution d’invité sur la plateforme humanrights.ch. Leur utilisation peut conduire à des discriminations et renforcer les modèles de discrimination existants. L’interdiction actuelle de la discrimination en Suisse ne suffit pas.
Les algorithmes créés par l’homme peuvent refléter les modèles de discrimination déjà existants dans une société, selon la contribution. Les données utilisées, l’algorithme lui-même ou la manière dont il est utilisé pourraient en être la cause. Ainsi, aux Pays-Bas, des dizaines de milliers de familles à faible revenu ou issues de l’immigration ont été invitées à tort à rembourser des allocations familiales perçues pendant des années sur la base d’un algorithme auto-apprenant.
La protection contre la discrimination en vigueur en Suisse n’offre pas de protection efficace contre la discrimination par des systèmes algorithmiques, poursuit l’article. Il manque notamment une interdiction pour les particuliers, car les systèmes algorithmiques sont développés et utilisés en particulier par des entreprises privées.
Le Conseil fédéral a informé fin 2023 qu’il tiendrait également compte de la discrimination algorithmique dans le cadre de l’analyse des besoins en matière de réglementation de l’intelligence artificielle déjà prévue pour fin 2024, poursuit le rapport. Il reste toutefois à voir si des solutions seront proposées et lesquelles.