intelligence artificielle

  • IA et défense nationale

    En Septembre 2019, le Ministère de la défense à édité un rapport sur :

    "L'intelligence artificielle au service de la défense"

    "Entre immortalité, transhumanisme et fin du monde annoncé  par  le  règne  des  robots,  l’intelligence  artificielle est aujourd’hui l’objet de tous les espoirs, les craintes et parfois les fantasmes..."

    "Le Journal Officiel définit l’intelligence artificielle comme le « champ interdisciplinaire théorique et pratique qui a pour objet la compréhension de mécanismes de la cognition et de la réflexion, et  leur  imitation  par  un  dispositif  matériel  et  logiciel, à des fins d’assistance ou de substitution à des activités humaines"

    "Les armées doivent ainsi trouver le bon équilibre entre le bénéfice de ce qu’offrent les grands groupes numériques* privés et souvent étrangers sans en devenir  dépendantes,  tout  en  développant  de  manière souveraine des applications spécifiquement militaires."

    Commentaires:

    *Les sociétés : GOOGLE, MICROSOFT,... et les sociétés chinoises pour les composants électroniques...Difficile aujourd'hui de s'en passer.

    Le privé, le publique, le politique, la défense... ce sera difficile à concilier dans nos états.

     

    "L’objectif est de combiner jugement humain et puissance des algorithmes pour décider et agir avec clairvoyance dans des tempos opérationnels toujours plus élevés. La performance opérationnelle sera supérieure à celle de l’humain ou de la machine pris isolément, et même des deux juxtaposés"

    Commentaires:

    Les programmes de l'IA devront êtres fiables : mais il parait aujourd'hui imposible d'avoir un système à 100% sécurisé.

    Le deep-larning (la capacité d'auto-apprentissage de l'IA) peut être détourné, puisque par défaut, sans contrôle humain.

     

    "La montée en puissance dans la maîtrise de la don-née  comme  actif  stratégique  du  ministère  appelle  un plan d’actions pluriannuel...."

    "La  distinction  entre  les  données  personnelles  (qui  permettent d’identifier une personne) et non per-sonnelles est cardinale. La collecte et l’exploitation massive de données ne peut s’envisager que dans le strict respect de la législation en vigueur sur les données personnelles et notamment le Règlement Général sur la Protection des Données (RGPD)"

    Commentaires:

    On retrouve une base de l'informatique (traitement automatisé de l' INFORMATION) : la donnée

    et le fameux RGPD qui petit à petit se met en place au niveau intenational. Mais en cas de conflit ou pour l'espionnage, ou le développement de l'IA, celui-ci sera certainement fort malmené...Règlement des données et Défense Nationale ne vont pas ensemble.

    Enfin le cloud :

    "Le cloud  permet  d’allouer  selon  les  besoins  des  volumes  importants  de  stockage  très  rapidement  (ex  :  un  Rafale  produit  40  To/heure  de  données)  ainsi que des ressources de calcul adaptées."

     

     

     

  • IA 35,8 milliards pour 2019

    35,8 Milliards de €, c'est l'estimation des dépenses pour 2019 consacrées à l'intelligence artificielle.

    Ce sont les 2 secteurs de la vente au détail et de la banque qui vont dépenser le plus : systèmes automatisés de surveillance, systèmes de traçages publicitaires orientés (automatisation des processus de ventes), ressources humaines, recherches et développement dans le secteur pharmaceutique.

    Les Etats Unis devrait représenter 50% de ces dépenses à elle seule !

    Worldwide Artificial Intelligence Spending Guide

     

  • intelligence artificielle et Europe : une éthique

    En 2018, la commission Européeenne à commencé à plancher sur l'intelligence artificielle, son développement, son contrôle, les changements de société qu'elle va impliquer...

    Trois axes ont été retenus :

    - augmenter les investissements publics et privés

    - préparer les changements socio-économiques provoqués par l'IA

    - assurer la mise en place d'un cadre éthique et juridique approprié.

    En ce mois d'avril 2019, une liste de 7 facteurs ont été dégagés sur une éthique de l'intelligence artificielle:

    Sept éléments essentiels pour parvenir à une IA digne de confiance

    Une IA digne de confiance devrait respecter toutes les législations et réglementations applicables ainsi qu'une série d'exigences; des listes d'évaluation spécifiques visent à faciliter la vérification du respect de chacune de ces exigences:

    • Facteur humain et contrôle humain: les systèmes d'IA devraient être les vecteurs de sociétés équitables en se mettant au service de l'humain et des droits fondamentaux, sans restreindre ou dévoyer l'autonomie humaine.
    • Robustesse et sécurité: une IA digne de confiance nécessite des algorithmes suffisamment sûrs, fiables et robustes pour gérer les erreurs ou les incohérences dans toutes les phases du cycle de vie des systèmes d'IA.
    • Respect de la vie privée et gouvernance des donnéesil faut que les citoyens aient la maîtrise totale de leurs données personnelles et que les données les concernant ne soient pas utilisées contre eux à des fins préjudiciables ou discriminatoires.
    • Transparence: la traçabilité des systèmes d'IA doit être assurée.
    • Diversité, non-discrimination et équitéles systèmes d'IA devraient prendre en compte tout l'éventail des capacités, aptitudes et besoins humains, et leur accessibilité devrait être garantie.
    • Bien-être sociétal et environnementalles systèmes d'IA devraient être utilisés pour soutenir des évolutions sociales positives et renforcer la durabilité et la responsabilité écologique.
    • Responsabilisationil convient de mettre en place des mécanismes pour garantir la responsabilité à l'égard des systèmes d'IA et de leurs résultats, et de les soumettre à une obligation de rendre des comptes.

    Sources EU

  • IA et commerce

    Ne soyez plus surpris par ce genre de message :

    "Vous avez récemment effectué une commande chez nous.
    Alfred – notre gentil robot d’intelligence artificielle –nous a soufflé
    que ces produits pourraient vous plaire.
    On vous les partage, comme ça pour le plaisir "

    En effet il s'agit de programmes d'intelligence artificielle orientés vers l'exploitation et le traçage commercial.

  • Uber : la voiture qui tue

    Au mois de mars, la nuit, en arrizona, le logiciel de la voiture autonomme d'Uber qui à entraîné la mort d'un cycliste, aurait reconnu "une forme inanimée" mais pas un "obstacle" dangereux". Ce que l'on nomme un "false positive" - faux positif- donc le logiciel n'a pas déclenché son processus d'évitement. Probléme de capteurs ? Problème d'algorithme ? Erreur humaine ?

    Une détection via analyses d'images, issuent de caméras situées sur la voiture (et dans), envoyées en temps réel, résoudra peut-être ces problèmes. Des yeux électroniqes donc.

    Exemple de faux positif : des feuilles mortes qui tombent/passent devant le véhicule...

    source : The Information