- n° 381 - p. 25-37
Thème : SOCIETE
Contrairement à certaines idées reçues, ce n'est pas parce que l'intelligence artificielle n'est pas humaine qu'elle est objective et impartiale. Nombreux sont les exemples d'algorithmes qui intègrent des biais et des stéréotypes racistes, sexistes, ou antisémites. Or, lorsque les algorithmes intègrent des jugements basés sur des idées préconçues, ils peuvent produire ou reproduire des discriminations directes ou indirectes. Il importe donc de s'interroger sur ces processus ainsi que sur les réponses que le RGPD peut apporter à la lutte contre les discriminations en Europe, en termes de prévention et de réparation.
[-]
Contrairement à certaines idées reçues, ce n'est pas parce que l'intelligence artificielle n'est pas humaine qu'elle est objective et impartiale. Nombreux sont les exemples d'algorithmes qui intègrent des biais et des stéréotypes racistes, sexistes, ou antisémites. Or, lorsque les algorithmes intègrent des jugements basés sur des idées préconçues, ils peuvent produire ou reproduire des discriminations directes ou indirectes. Il importe donc de ...
SOCIETE ; DISCRIMINATION ; LUTTE ; INTELLIGENCE ARTIFICIELLE ; PREVENTION ; EUROPE ; ALGORITHMES
... Lire [+]