intelligence artificielle

intelligence artificielle et Europe : une éthique

  • Par jcgi
  • Le 10/04/2019

En 2018, la commission Européeenne à commencé à plancher sur l'intelligence artificielle, son développement, son contrôle, les changements de société qu'elle va impliquer...

Trois axes ont été retenus :

- augmenter les investissements publics et privés

- préparer les changements socio-économiques provoqués par l'IA

- assurer la mise en place d'un cadre éthique et juridique approprié.

En ce mois d'avril 2019, une liste de 7 facteurs ont été dégagés sur une éthique de l'intelligence artificielle:

Sept éléments essentiels pour parvenir à une IA digne de confiance

Une IA digne de confiance devrait respecter toutes les législations et réglementations applicables ainsi qu'une série d'exigences; des listes d'évaluation spécifiques visent à faciliter la vérification du respect de chacune de ces exigences:

  • Facteur humain et contrôle humain: les systèmes d'IA devraient être les vecteurs de sociétés équitables en se mettant au service de l'humain et des droits fondamentaux, sans restreindre ou dévoyer l'autonomie humaine.
  • Robustesse et sécurité: une IA digne de confiance nécessite des algorithmes suffisamment sûrs, fiables et robustes pour gérer les erreurs ou les incohérences dans toutes les phases du cycle de vie des systèmes d'IA.
  • Respect de la vie privée et gouvernance des donnéesil faut que les citoyens aient la maîtrise totale de leurs données personnelles et que les données les concernant ne soient pas utilisées contre eux à des fins préjudiciables ou discriminatoires.
  • Transparence: la traçabilité des systèmes d'IA doit être assurée.
  • Diversité, non-discrimination et équitéles systèmes d'IA devraient prendre en compte tout l'éventail des capacités, aptitudes et besoins humains, et leur accessibilité devrait être garantie.
  • Bien-être sociétal et environnementalles systèmes d'IA devraient être utilisés pour soutenir des évolutions sociales positives et renforcer la durabilité et la responsabilité écologique.
  • Responsabilisationil convient de mettre en place des mécanismes pour garantir la responsabilité à l'égard des systèmes d'IA et de leurs résultats, et de les soumettre à une obligation de rendre des comptes.

Sources EU

IA et commerce

  • Par jcgi
  • Le 27/11/2018

Ne soyez plus surpris par ce genre de message :

"Vous avez récemment effectué une commande chez nous.
Alfred – notre gentil robot d’intelligence artificielle –nous a soufflé
que ces produits pourraient vous plaire.
On vous les partage, comme ça pour le plaisir "

En effet il s'agit de programmes d'intelligence artificielle orientés vers l'exploitation et le traçage commercial.

Uber : la voiture qui tue

  • Par jcgi
  • Le 09/05/2018

Au mois de mars, la nuit, en arrizona, le logiciel de la voiture autonomme d'Uber qui à entraîné la mort d'un cycliste, aurait reconnu "une forme inanimée" mais pas un "obstacle" dangereux". Ce que l'on nomme un "false positive" - faux positif- donc le logiciel n'a pas déclenché son processus d'évitement. Probléme de capteurs ? Problème d'algorithme ? Erreur humaine ?

Une détection via analyses d'images, issuent de caméras situées sur la voiture (et dans), envoyées en temps réel, résoudra peut-être ces problèmes. Des yeux électroniqes donc.

Exemple de faux positif : des feuilles mortes qui tombent/passent devant le véhicule...

source : The Information