mercredi 27 juillet 2022

 GÉOPOLITIQUE DE L’INTELLIGENCE ARTIFICIELLE ET LE MONDE DE LA CYBERCRIMINALITE

Celui qui maîtrise l’intelligence artificielle « l’IA » dominera le monde. En 2040, 40% des salariés dans le monde seront guidés par un robot. La même année, la justice aura un robot qui tranchera entre les hommes et en 2050, la race humaine revendiquera le mariage avec les robots. 80% des activités humaines disparaîtrons au profit de la technologie robotique. Pour les américains, les russes, les Chinois, la France, le Japon et l’Allemagne, Taiwan, Singapour et Hong Kong, le monde de demain ne sera plus entre les mains de l’homme, mais plutôt entre la suprématie technologique de la robotique et l’asservissement de l’humanité.

 

Les progrès récents de la mécatronique, des sciences des matériaux, des batteries électriques, des capteurs, de l’électronique embarquée et de l’IA permettent de produire des drones et des robots aériens, terrestre, marins, performants et efficace sur un très large spectre d’applications. En tant qu’incarnation de l’intelligence artificielle sur l’espace physique, la robotique concerne tous les segments d’activités humaines. Elle accélère la convergence technologique qui rapproche la matière et l’information ( convergence M-I ). Cette convergence «matière-information» est à l’origine des douze révolutions sectorielles de la robotique qui auront un impact majeur sur le sort de l’humanité. Les douze révolutions sectorielles mondiales de la robotique seront: la révolution de la robotique agricole, la robotique de dépollution des sols, airs, mer ; Robotique de l’industrie et logistique; Robotique du transport et des mobilités; Robotique de l’aéronautique et du spatial; Robotique de la construction et BTP; Robotique de la sécurité civile, Robotique militaire; Robotique chirurgicale et cellulaire; Robotique des prothèses et de l’augmentation humaine; Robotique de l’habitat et du quotidien; Robotique de l’automobile et du transport autonome. Les enjeux économiques et militaires, dépasseront ceux de toutes les transitions industrielles ayant marqué l’histoire. Dans le domaine de la robotique militaire, une course mondiale aux armements semi-autonomes s’est installée durablement, accélérée par les enjeux de souveraineté et les tensions entre les puissances internationales. En matière de cybercriminalité, les États doivent prendre en compte le risque élevé de dissémination et d’utilisation de systèmes armés semi-autonomes ou autonomes rudimentaires dans le cadre d’opérations subversives. Le risque d’un SALA ( système armé Létal autonome ) figure dans deux vidéos ( Slaughterbots). Les technologies civiles permettant de développer un robot terrestre équipé d’une mitrailleuse ou un drone aérien équipé de mortiers sont disponibles sur étagère. Le software lui conférant une autonomie de détection et d’acquisition de cibles est également disponible a la vente. Un drone aérien dédié à l’épandage agricole doté d’une capacité d’emport de 16 kg s’achète pour moins de 1000 euros sur ( eBay ou AliExpress). Les plateformes terrestres chenillées métalliques téléopérables de 30kg de charge utile sont aussi accessibles chez des vendeurs chinois d’eBay pour moins de 600 euros. Un robot quadrupède Cyberdog développé par le constructeur de trottinettes Xiaomi coute moins de 2500 euros alors que le modèle équivalant SPOT, développé par Boston Dynamics, coute 80 000 dollars. Ces quelques exemples accessibles au grand public nous montrent que la dissémination des plateformes robotisées aéroterrestres et navales s’effectue par la robotique civile accessible à tous et customisable par tout le monde. De telles plateformes peuvent facilement être transformées en systèmes armés téléopérables puis dérivées en systèmes armés autonomes en y ajoutant un software de déplacement autonome et de reconnaissance d’humains. Le risque est donc bien réel avec ou sans texte d’interdiction signé à l’ONU.

L’I A ET LA SYBERCRIMINALITE ENTRE DÉFIS ET ENJEUX INTERNATIONALES


En 2021, le coût globale mondial de la cybercriminalité s’élève à 6000 milliards de dollars, ce qui dépasse le budget global de l’ensemble de tous les trafics de stupéfiants. Les mafias internationales, les gangs et les cartels se sont spécialisés dans les attaques par ransomware, dans le vol et la revente de données industrielles, données sensibles, de fraudes et d’extorsions tout azimuts. Avec l’élévation du niveau des défenses des systèmes d’informations et des cuber-boucliers, la complicité des cyberattaques a augmenté pour pouvoir passer sous les radars des sondes et des solutions de supervision. L’utilisation de composantes d’apprentissage automatique à des fins malveillantes est plus récente. Elle apparaît dés 2014 sous la forme de preuves de concepts de créations d’architectures de données fictives immersives utilisées en phase initiale d’ingénierie sociale d’une cyberattaque. Lors de la conférence BlackHat 2017, des chercheurs ont présenté AVPASS, un outil conçu pour réduire, pour un moteur antivirus donné, ses fonctionnalités de détection et sa chaîne de règles de détection. L’outil AVPASS utilise ensuite cette inférence pour déguiser les logiciels malveillants sous Android, en une application bénigne. En somme, AVPASS a permis de cerner le camouflage et l’encapsulation du caractère malveillant de certains malwares. Dans le cadre du DeepLocker, une équipe de chercheurs d’IBM a présenté une nouvelle approche afin d’exploiter l’IA à des fins subversives. Leur systèmes, DeepLocker, encapsule et intègre des capacités d’IA dans le malware lui-même, afin d’améliorer ses techniques d’évasion et sa furtivité. DeepLocker exploite l’impénétrabilité interne d’un réseau de neurones à son propre avantage : Les logiciels pirates utilisent généralement plusieurs techniques pour échapper à la détection, de l’obscurcissement et du chiffrement de la charge utile aux vérifications spéciales pour contrecarrer l’analyse. Ces vérifications sont le tout dernier indice qui peut révéler qu’un logiciel est un malware ciblé et peut servir de signature pour le malware lui-même. DeepLocker parvient à masquer ce dernier en implémentant les vérifications via un réseau de neurones. Il devient alors plus difficile de rétro-concevoir le comportement du malware ou même de le déclencher dans un environnement de test, car les conditions de déclanchement ne sont jamais codées dans le malware. DeepLocker utilise de nombreux attributs pour identifier la machine cible, notamment l’environnement logiciel, ce qui ajoute à la difficulté de prédire et d’identifier les conditions de déclanchement pour l’exécution du malware. En ce qui concerne les violations de bases de données, lors de la conférence DEF CON 2017, les chercheurs ont présenté DeepHack, un outil d’IA open source permettant d’effectuer des tests de pénétration sans avoir à se fier à une connaissance préalable du système cible. DeepKack implémente un réseau neuronal capable de créer des chaines d’injections SQL sans autre information que les réponses du serveur cible, automatisant ainsi le processus de piratage des bases de données web. DeepExploit est un autre système capable d’automatiser entièrement les tests d’intrusion en utilisant l’apprentissage automatique. Le système s’interface directement avec Metasploit, une plateforme de test d’intrusion, pour toutes les taches habituelles de collecte d’informations, de création et de test d’un exploit. DeepExploit s’appuie sur un algorithme d’apprentissage par renforcement nommé Asynchronous Actor Critic Agents ( AC3). Autre avancée de taille, le compromissions des services cloud par l’IA, les algorithmes d’apprentissage automatique n’ont pas besoin de s’exécuter sur la même machine hôte que celle sur laquelle le malware s’exécute. Les principaux fournisseurs de cold, notamment ( Amazon AWS, Microsoft Azure, Google Cloud, Alibaba Cloud et Yandex, ont commencé à proposer des services d’IA. Amazon, via sa plateforme AWS, propose des services de reconnaissance d’images, d’analyse de texte non structuré ( Amazon Comprehend ) ou d’extraction d’entités nommées ( Amazon Textract ). Chacun de ces services est accessible via une connexion HTTPS à une URL de point de terminaison spécifique, qui utilise un modèle spécifique. Concernant les assistants intelligents ils peuvent faire l’objet d’attaques en exploitant leur présence dans les foyers et en trompant leur modèle de développement. La société de cybersécurité Trend Micro a publié une recherche dans laquelle un attaquant peut exploiter des haut-parleurs intelligents pour émettre des commandes audio vers un assistant intelligents comme Amazon Alexa ou Google Home. « Si un haut-parleur est connecté à internet, ses vulnérabilités peuvent être exploitées, l’amenant à lire un fichier audio hébergé sur une adresse web arbitraire configurée par l’attaquant ». D’autre part, une attaque furtive peut utiliser une commande émise qui n’est pas perceptible par l’oreille humaine. Les appareils faibles peuvent être facilement détectés à l’aide de services tels que « Shodan », un moteur de recherche de systèmes et objets connectés à internet présentent des cibles facile à pénétrer. Les assistants intelligents contrôlent souvent les systèmes domotiques. Trend Micro a montré que le détournement d’un assisant intelligent via des appareils audio exposés n’est que l’une des nombreuses attaque pouvant être menées par un acteur extérieure s’introduisant dans les systèmes domotiques d’une maison connectée. A travers cette architecture de l’IA, s’ajoute la question de mot de passe par l’IA. L’apprentissage automatique peut être utilisé pour améliorer les algorithmes de compromission autrement dit découverte de mot de passe. L'outils traditionnels de compromission tels que HashCat et John the Ripper, fonctionnent en comparant de nombreuses variantes du hachage du mot de passe afin d’identifier le mot de passe qui correspond au hachage. Les tentatives sont générées à partir d’un dictionnaire de mots de passe fréquemment utilisés. Grace à l’utilisation de réseaux de neurones et de réseaux antagonistes génératifs ( GAN ) en particulier, il devient possible d’analyser un grands ensemble de mot de passe et d’engendrer des variations qui correspondent le mieux à la distribution statistique. Cette stratégie GAN conduit à des découvertes de mot de passe plus ciblées et plus efficaces que par les méthodes classiques. Une première tentative en ce sens été mise en évidence dans un article sur un forum du Darknet en 2020. Le message mentionne un référentiel GitHub dans lequel un logiciel est capable d’analyser 1,4 milliard d’informations d’identification et de générer des règles de variation de mot de passe basées sur son résultat. Concernant également la cryptologie et le chiffrement assistés par l’IA ( cette mesure touche les services secrets, les ambassades, consulats et l’armée) selon un rapport d’Europol, les premières applications d’IA dédiées à l’amélioration ou à la suppression du « chiffrement » font l’objet d’expérimentation prometteuses. Google a mené une expérience dans ce sens : deux réseaux de neurones nommés Alice et Bob ont été entrainés à communiquer entre eux sans permettre à un troisième réseau de neurones, nommé Eve, d’écouter leur communication. Le réseau de neurone Alice a reçu un texte en clair P en entrée qu’il a codé en un texte chiffré C, qui a ensuite été reçu par le réseau de neurones Bob et falsifié par le réseau de neurone Eve. Alice et Bob partageaient une clé de déchiffrement commune K, que Bob utilisait pour déchiffrer le texte chiffré en texte brut PBob, tandis qu’Eve devait reconstruire le texte brut PEve sans l’aide de la clé de chiffrement K. Aucun algorithme de chiffrement spécifique n’a été utilisé. Les réseaux ont dû découvrir eux-mêmes comment communiquer en toute sécurité. Les résultats ont démontré qu’Alice et Bob ont pu apprendre à effectuer des formes de chiffrement et de déchiffrement de manière autonome. Ils ont appris à appliquer le chiffrement de manière sélective uniquement aux données nécessaires pour atteindre les objectifs de confidentialité fixes. La même option pour la stéganographie. Une équipe conjointe de chercheurs de Stanford et de Google ont montré que les réseaux de neurones pouvaient utiliser la stéganographie, qui permet de transmettre une information en la dissimulant au sein d’une autre information photo, vidéo, texte sans rapport avec la première. Un réseau de neurones appelé CycleGAN apprenait à tricher lors d’une traduction d’image en une autre image. Enfin, en matière de l’IA génératrice d’architecture de données fictives immersives ( ADFI ), l’attaquant cherche à obtenir des informations stratégiques sur sa cible. Il doit souvent usurper l’identité d’une personne de confiance ou d’une autorité afin de gagner sa confiance et l’amener à réaliser les actions souhaitées. L’IA permet de construire des architectures de données fictives immersives, crédibles, s’appuyant sur des textes, des images, des vidéos et des sons souvent engendrés par des réseaux de type GANS. L’outil de reconnaissance Eagle Eyes est capable de détecter à un profil spécifique. L’outil peut découvrir des profils associés à des noms différents en comparant les photos de profil d’un utilisateur via des algorithmes de reconnaissance faciale. Le clonage vocal en temp réel devient possible grâce à l’apprentissage automatique. Avec seulement cinq secondes d’enregistrement vocal d’une cible, un acteur extérieur est en mesure de cloner une voix afin de l’utiliser en usurpation d’identité contre sa cible. En raison de leur puissance technologique, les plateformes, comme les GAFAMI ou les BATX, sont devenues des acteurs à part entière de l’environnement géopolitique. Elles disposent de capacités d’investissement supérieures à celles des Etats vulnérables. Les progrès de l’IA ne peuvent qu’accentuer ces tendances. L’IA autorise la multiplication des flux d’informations entre espaces physiques, tout en créant des effets d’accélération modifiant les distances et, par conséquent, les représentations et les repères géographiques. Les affrontements sont aujourd’hui incessants et largement invisibles. Ils opposent directement ou indirectement des Etats entre eux, mais aussi une multitude d’autres acteurs. On peine à mesurer les effets de la cyber-conflictualité à terme, dans la mesure où elle peut toucher les intérêts vitaux des pays concernés. Les conceptions occidentales et celles de la Chine et de la Russie devraient continuer à se heurter même si des codes de conduite sont envisageables. A la différence des doctrines occidentales, centrées sur la protection des contenants, celles de la Russie e de la Chine se concentrent avant tout sur les contenus dont la maitrise reste essentiel à la stabilité politique de leurs régimes.


Le numérique est associé à la vitesse, mais n’abolit pas pour autant le temps. Ce serait cependant une erreur de n’envisager le temps que le seul angle de la vitesse, surtout en politique où la lenteur, la capacité de prendre son temps, est un atout qui peut être décisif. Une manière de rappeler qu’aucune grande puissance n’est née avec sa grandeur. Pur le devenir, elle doit apprendre la patience et la constance en combinant une double maitrise, celle de l’espace et du temps ( Comme le note Julien Freund « 1921-1993 » dans son commentaire du Terre et Mer de Carl Schmitt.


MOHAMMED CHERIF BOUHOUYA


Les GAFAM pour Google, Apple, Facebook, Amazon, Microsoft et plus généralement les entreprises du web apparues depuis seulement une trentaine d'années se sont constituées en puissance globale à la fois par leur chiffre d'affaires et leur maitrise des données, source de pouvoir en tant que tel. La valorisation d'Apple 2000 milliards de dollars équivaut au PIB de l'Italie, celle d'Alphabet Google, 1240 milliards, tandis que la valorisation des cinq GAFAM cumulées dépasse largement le PIB Japonais. Ces entreprises sont aujourd'hui décriées et accusées de mal protéger les données de leurs clients, mais surtout de pratiquer l'évasion fiscale, privant les Etats et les peuples de ressources considérables. 





















Aucun commentaire:

Enregistrer un commentaire