Défis et éthique de l'IA


Défis


AI 48

Conscient que les algorithmes d’IA peuvent ne pas être configurés pour fournir uniquement les informations souhaitées par l’utilisateur; Ils peuvent également incarner un message commercial ou politique (par exemple, pour encourager les utilisateurs à rester sur le site, à regarder ou à acheter quelque chose de particulier, à partager des opinions spécifiques).  Cela peut également avoir des conséquences négatives (par exemple, reproduire des  stéréotypes, partager de la désinformation). (Compétence 1.2)


AI 49

Conscient que les données, dont dépend l’IA, peuvent comporter des biais. Si c’est le cas, ces biais peuvent devenir automatisés et aggravés par l’utilisation de l’IA. Par exemple, les  résultats de recherche sur la profession peuvent inclure des stéréotypes sur les emplois masculins ou féminins (p. ex. chauffeurs d’autobus masculins, vendeurs). (Compétence 1.2)


AI 50

Conscient que les algorithmes d’IA fonctionnent d’une manière qui n’est généralement pas visible ou facilement comprise par les utilisateurs.  C’est  ce  qu’on appelle  souvent la  prise de décision « boîte noire », car il peut être impossible de retracer comment et pourquoi un algorithme fait des suggestions   ou des prédictions spécifiques. (Compétence 1.1)


AI 51

Sait que le terme « deep-fakes » fait référence à des images, des vidéos ou des  enregistrements audio générés par  l’IA d’événements  ou de  personnes qui ne se sont pas réellement produits (par exemple, des discours de  politiciens, des  visages de célébrités sur des  images  pornographiques).  Ils peuvent être impossibles à distinguer de la réalité. (Compétence 1.2)


AI 52

Conscients que les résultats dits « personnalisés » (par exemple des moteurs de recherche, des médias sociaux, des plateformes de contenu) sont basés sur des modèles et des moyennes d’interactions de millions d’utilisateurs. En d’autres termes, le système d’IA pourrait prédire le comportement de groupe mais pas le comportement d’une personne en particulier, donc le terme personnalisé pourrait être trompeur. (Compétence 1.2)


AI 53

Consciente que l’UE s’efforce de faire en sorte que les systèmes d’IA soient dignes de confiance. Cependant, tous  les systèmes d’IA ne sont pas  fiables et tous les systèmes d’IA   développés dans le  monde ne sont pas  réglementés par le droit de l’UE (Compétence 4.1).  


AI 54

Conscient que la question de la propriété des données personnelles dans les systèmes d’IA peut être controversée (par exemple, les données créées par des personnes utilisant les médias sociaux ou des étudiants utilisant des systèmes d’IA dans les salles de classe). Les modèles commerciaux de nombreuses organisations commerciales d’IA  dépendent de leur  capacité à  rassembler et à analyser ces données.  D’autres ont fait valoir que les  données personnelles appartiennent plutôt à la  personne qui les  a créées (comme tout autre  matériel protégé par le droit d’auteur tel que les  textes,  les  images ou la musique). (Compétence 3.3)


AI 55

Conscient que les systèmes d’IA sont généralement développés dans des contextes anglophones, ce qui signifie qu’ils  pourraient fonctionner moins précisément dans des  contextes non anglophones. Par exemple,  les systèmes de traduction automatique basés sur l’IA fonctionnent mieux avec les langues souvent utilisées (par exemple, l’anglais vers    l’espagnol) que les langues moins utilisées  (par exemple, du  slovène vers le  finnois).   (Compétence 2.5)


AI 56

Conscients que les systèmes d’IA sont généralement développés par des personnes issues de milieux démographiques étroits (par exemple, les hommes blancs issus de groupes socio-économiques plus élevés dans les  pays à revenu élevé), ce qui peut signifier que les systèmes qu’ils développent sont moins sensibles aux besoins des femmes, des personnes appartenant à différents groupes ethniques minoritaires, des  groupes socio-économiques inférieurs, des personnes qui ont besoin de technologies numériques.  l’accessibilité (p. ex. handicapés, limitations fonctionnelles) ou les citoyens de pays à faible revenu.   (Compétence 2.5)


Ethique


AI 57

Prend en compte les conséquences éthiques des systèmes d’IA tout au long de leur cycle de vie: elles comprennent à la fois l’impact  environnemental (conséquences environnementales de  la production d’appareils et de services  numériques  ) et  l’impact sociétal  (par exemple,    la plateformisation du travail et la gestion algorithmique qui peuvent réprimer la vie privée ou les droits des travailleurs; l’utilisation de main-d’œuvre à faible coût pour étiqueter les images afin de former les systèmes d’IA). (Compétence 4.4)


AI 58

Volonté d’examiner les questions éthiques liées aux systèmes d’IA (par exemple, dans quels contextes, tels que la détermination de la peine des criminels, les recommandations de l’IA ne devraient-elles pas être utilisées sans intervention humaine?) (Compétence 2.3)


AI 59

Conscient que certaines activités (par exemple, la formation de l’IA et la production de crypto-monnaies comme Bitcoin) sont des processus gourmands en ressources en termes de données et de puissance de calcul.  Par conséquent la consommation d’énergie peut  être élevée ce qui peut également avoir un  impact  environnemental élevé.  (4.4)


AI 60

Conscients que les technologies basées sur l’IA peuvent être utilisées pour remplacer certaines fonctions humaines (par exemple, le service à la clientèle), ce qui pourrait entraîner des pertes d’emplois ou des réaffectations, mais que de nouveaux emplois pourraient être créés pour répondre à de nouveaux besoins. (Compétence 2.4)


AI 61

Considère l’éthique (y compris, mais sans s’y limiter, l’action humaine et la surveillance, la transparence, la  non-discrimination, l’accessibilité,   les préjugés et l’équité) comme l’un des  piliers fondamentaux lors du développement ou du déploiement  de  systèmes d’IA. (Compétence 3.4)