|  | De plus en plus raciste, de plus en plus sexiste : l'impasse de l'IA de Alexandra Pihen In Epsiloon, 012 (juin 2022), p.20-26 Le point sur les dérives de l'intelligence artificielle et sa capacité à amplifier les biais et les stéréotypes présents dans les bases de données utilisées comme modèles. Rappel des principes de fonctionnements des IA utilisant des données massives et statistiques ; points de vue de spécialistes mettant en cause les méthodes d'apprentissage ; la difficulté de corriger les biais. Encadrés : projets de correctifs possibles ; cas d'algorithmes posant problème (Predpol, Dfge, Amazon ATS, Compas, Genderified, Syri). | 
							Pihen Alexandra. 
« De plus en plus raciste, de plus en plus sexiste : l'impasse de l'IA »
 in Epsiloon, 012 (juin 2022), p.20-26.
							
						
			
			| Titre : | De plus en plus raciste, de plus en plus sexiste : l'impasse de l'IA (2022) | 
| Auteurs : | Alexandra Pihen, Auteur | 
| Type de document : | Article : texte imprimé | 
| Dans : | Epsiloon (012, juin 2022) | 
| Article : | p.20-26 | 
| Langues: | Français | 
| Descripteurs : | intelligence artificielle / préjugé | 
| Résumé : | Le point sur les dérives de l'intelligence artificielle et sa capacité à amplifier les biais et les stéréotypes présents dans les bases de données utilisées comme modèles. Rappel des principes de fonctionnements des IA utilisant des données massives et statistiques ; points de vue de spécialistes mettant en cause les méthodes d'apprentissage ; la difficulté de corriger les biais. Encadrés : projets de correctifs possibles ; cas d'algorithmes posant problème (Predpol, Dfge, Amazon ATS, Compas, Genderified, Syri). | 
| Nature du document : | documentaire | 
| Genre : | Article de périodique | 

 
								