En poursuivant votre navigation sur ce site, vous acceptez l'utilisation d'un simple cookie d'identification. Aucune autre exploitation n'est faite de ce cookie. OK

Documents CHANCERELLE Liane 1 résultats

Filtrer
Sélectionner : Tous / Aucun
Q
Déposez votre fichier ici pour le déplacer vers cet enregistrement.
- n° 381 - p. 25-37
Thème : SOCIETE
Contrairement à certaines idées reçues, ce n'est pas parce que l'intelligence artificielle n'est pas humaine qu'elle est objective et impartiale. Nombreux sont les exemples d'algorithmes qui intègrent des biais et des stéréotypes racistes, sexistes, ou antisémites. Or, lorsque les algorithmes intègrent des jugements basés sur des idées préconçues, ils peuvent produire ou reproduire des discriminations directes ou indirectes. Il importe donc de s'interroger sur ces processus ainsi que sur les réponses que le RGPD peut apporter à la lutte contre les discriminations en Europe, en termes de prévention et de réparation.[-]

Contrairement à certaines idées reçues, ce n'est pas parce que l'intelligence artificielle n'est pas humaine qu'elle est objective et impartiale. Nombreux sont les exemples d'algorithmes qui intègrent des biais et des stéréotypes racistes, sexistes, ou antisémites. Or, lorsque les algorithmes intègrent des jugements basés sur des idées préconçues, ils peuvent produire ou reproduire des discriminations directes ou indirectes. Il importe donc de ...

SOCIETE ; DISCRIMINATION ; LUTTE ; INTELLIGENCE ARTIFICIELLE ; PREVENTION ; EUROPE ; ALGORITHMES

... Lire [+]

Paniers