05 juin 2009

Terreur technologique

Après l’article concernant l’aspect invasif des technologies, je suis tombé sur une brève rappelant la sortie du nouveau Terminator, série cinéma (et même télévisée à travers « The Sarah Connor’s chronicles »), qui, de par son aspect novateur en son temps et son côté apocalyptique dont nous serions responsables, présente la Machine comme étant inexorablement notre ennemi. Que l’on soit du genre optimiste pour l’avenir de l’Homme avec une cohabitation en bonne entente avec la machine, ou bien perplexe et prudent comme je le suis, Terminator reste un avertissement très fort. En effet, qui ne serait pas terrifié à l’idée que l’intelligence artificielle devienne un jour notre égal, et même supérieure par son profil mécanique, donc réparable, solide, et donc quelque part plus pérenne que l’homme ?

Le Terminator a de quoi hanter les esprits : assassin implacable, ne connaissant pas les sentiments, efficace, précise et endurante, cet organisme cybernétique (cyborg) présente toutes les caractéristiques du messager de l’apocalypse. Par son impitoyable et indéfectible détermination, le cyborg symbolise clairement ce que pourrait être une société où nous confierons notre sécurité intérieure et extérieure à des programmes et non à des hommes. La machine calcule, traite, analyse, et répond en conséquence. L’homme, lui, tergiverse, louvoie, accepte les compromis, et détermine ses actions non seulement en fonction de la logique, mais également en fonction de son libre arbitre, chose qu’une machine ne possède que très artificiellement. Programmez un robot pour tuer, il ne saura pas dévier de cette ligne de conduite, cela sera sa seule et unique mission, depuis sa création jusqu’à son achèvement, ou sa destruction.

J’ai récemment abordé la question du robot autonome de sécurité, chose qui s’approche d’assez près du concept du Terminator, à la différence notable de l’absence d’une « conscience », c'est-à-dire d’une faculté de prise de décision hors d’une programmation initiale. Expliquons rapidement cette différence : un programme est constitué d’entrées et de sorties, à l’instar d’une autoroute où circuleraient des voitures représentant les informations. De fait, impossible de sortir d’une autoroute en dehors des accès prévus à cet effet, et pour un programme (en simplifiant) cela reste très analogue. De ce fait, tant que les données sont compréhensibles et que les paramètres restent gérables par la machine, les réponses, aussi complexes soient-elles, chemineront par les voies prévues à cet effet. Les plus pointus en programmation peuvent parler des « bugs » (erreurs de codage, donc de traitement), mais ceux-ci restent cantonnés à un périmètre très restreint. Dans l’absolu, un bug n’est donc qu’une anomalie du système, et pas un pan complet de son fonctionnement. Typiquement, avoir un comportement supposé aléatoire de votre PC ne l’est concrètement pas : c’est majoritairement un blocage réitérant une opération menant à une erreur. Par comparaison, c’est comme essayer de traverser un mur en marchant, et retenter sans cesse l’opération qui aura immanquablement échouée. L’idée d’intelligence, au sens humain du terme, est très différente de ce concept : c’est permettre à la machine d’identifier des paramètres, puis de créer un réseau de réponses possibles, donc de choisir de nouvelles options, ceci en lieu et place des cheminements déjà existants. C’est la faculté d’apprentissage. Prenons un exemple : un enfant en bas âge tente de marcher, échoue, mais apprend peu à peu de ses erreurs. L’IA, si rien n’est prévu pour traiter cet apprentissage, échouera à tout jamais, quoi qu’il puisse se passer. Le hasard n’a pas sa place dans l’informatique, pas plus que la créativité au sens noble du terme.

Revenons donc à la frayeur d’une machine autonome capable de raisonner : qui sera en mesure de gérer cet engin ? N’oublions pas que raisonner sous-entend juger, c'est-à-dire estimer les capacités de chaque chose, de chaque élément, et d’en peser l’efficacité. Ainsi, en tant qu’humains, nous connaissons globalement nos capacités physiques et mentales, savons nos besoins naturels tels que l’alimentation, le repos ou le sommeil, et notre résistance aux éléments ou aux maladies. La machine, elle, aura pour premier et terrible avantage d’être aisément maintenable, d’avoir une autonomie certainement supérieure à la nôtre, et de voir toute une batterie de capteurs/senseurs lui permettant d’intervenir dans toutes les conditions imaginables. L’homme ne voit pas la nuit, un robot le peut à très peu de frais. L’homme a une ouie somme toute peu fiable, un robot peut se voir doté de microphones à haute sensibilité. L’homme, enfin, n’a pas de radar, chose qu’un robot peut employer sans grande difficulté. Concrètement, si l’on se base sur une idée de « négocier » entre l’homme et la machine pourquoi la machine irait alors s’abaisser à accepter quoi que ce soit d’un être somme toute inférieur à lui ? Parce qu’ on lui a implanté un précepte proche de celui du Dieu, en l’occurrence l’homme est le créateur, donc intouchable et forcément bon ?

L’intelligence artificielle, c’est tout bonnement se prendre pour Dieu, en tout cas pour le côté philosophique de l’âme. Jusqu’à présent, nous sommes encore aux balbutiements de cette intelligence : elle réagit en fonction d’actions reçues, agit à partir de listes d’actions potentielles, et donc aura nécessairement ce que l’on appelle des récurrents. Petite précision utile à ce sujet : tout comme aux échecs, à partir du moment où l’on a des règles suffisamment précises et surtout étriquées, le joueur d’échecs ne pourra agir que d’un nombre limité de manières. Typiquement, les ouvertures aux échecs sont connues et identifiées, ce qui permet donc de connaître les éventuelles ripostes, ou actions à venir du joueur. L’intelligence artificielle actuelle peut être comparée aux échecs : les règles sont connues, le nombre de paramètres limité, et donc le nombre d’actions attendues globalement restreint. Si je caricature, admettons un robot à l’intelligence actuelle, armé d’une arme quelconque. Si rien n’est préprogrammé pour lui permettre d’agir, le robot se cantonnera à user de cette arme jusqu’à épuisement des munitions, puis se contentera, au mieux d’aller chercher des réserves, ou bien aura un comportement précis en attendant de redevenir utile. L’homme, lui, pourra improviser : usage d’outils ou d’objets présent dans son environnement, et même actions suicidaires, concept totalement inexistant en robotique (sauf, bien entendu, pour les jeux où le suicide est intégré pour un côté « fun » en cours de partie). Donc, si l’on admet d’arriver à une intelligence artificielle capable de nous défier, cela reviendra à créer de toute pièces une conscience, et donc, en quelque sorte, lui accorder une âme synthétique. Quelles seront alors nos chances de survie face à cette intelligence ?

A l’heure actuelle, nous automatisons à outrance la gestion des combats : drones, missiles autoguidés, informatisation de l’assistance à la prise de décision et j’en passe. Concrètement, nous confions donc à des intelligences tierces la vie de centaines, voire de milliers de personnes, civils et fantassins mêlés. Plus les réseaux grandissent, plus potentiellement la notion d’unité disparaît. En effet, le maillage est aujourd’hui tel qu’il est quasiment impossible de provoquer un véritable black out mondial, ou même territorial. Le terrorisme cybernétique arrive bien entendu à provoque de véritables désastres, seulement ceux-ci ciblent des équipements, des entreprises, ou des cibles institutionnelles, mais pas une nation dans son ensemble.

Fin avril 2007, L’Estonie fut la cible d’une attaque électronique via Internet pour saboter le fonctionnement de ses serveurs bancaires, des structures d’information (presse et télévision), les réseaux de sécurité (police, services d’urgence), ainsi que les partis politiques locaux. Concrètement, la réussite fut relativement faible, tout au plus ce fut la panique qui s’en suivit qui fut plus redoutable que les pannes en elles-mêmes. En quelques heures, tout fut rétabli, et donc l’Estonie put revenir dans le réseau mondial. L’immense majorité des utilisateurs anonymes du Web ne furent pas touchés, et nombre d’entres eux prirent connaissance du problème qu’à travers des émeutes pro russes qui éclatèrent un peu partout à travers le pays. Suspicion d’assaut russe ? La question fut posée, mais globalement ce fut avant tout une forme de terrorisme au demeurant temporaire, aux dégâts financiers et politiques élevés, mais sans véritable conséquence sur le quidam.

Rappel de l'attaque russe sur l'Estonie en avril 2007 (01 Informatique)

Pourquoi ai-je abordé cette question de terrorisme informatique ? Pour placer un élément essentiel de notre futur technologique : nous ne dissocions plus le réseau de notre quotidien, et l’impossibilité de l’en extraire, ainsi que sa résistance (et ses faiblesses avérées face aux attaques) ne lassent pas d’inquiéter si l’on ajoute aux concepts de guerre électronique et d’intelligence artificielle autonome. En effet, si l’IA devient capable de raisonner, elle aura bien entendu la capacité de se servir du réseau pour interagir et communiquer. Rares sont les dispositifs qui ne disposent pas d’un accès au réseau, voire même d’une interaction forte avec lui. Un robot sur une chaîne de montage communique son état de fonctionnement aux opérateurs via un réseau d’usine, tout comme les automates bancaires transmettent nos données personnelles au moment d’une transaction. Un drone, par exemple, est un avion radiocommandé : il transmet ses données à des opérateurs spécialisés qui traitent l’information. Transmettent ? Et si c’est une intelligence artificielle l’opérateur ? Je ne saurais que trop déconseiller un trop fort rapprochement entre le logiciel et l’équipement, ne serait-ce que pour l’aspect sécuritaire fondamental concernant le piratage. Je parlais de l’attaque sur l’Estonie… demain sur les équipements militaires tels que des bombardiers sans pilote ? Et c’est une IA qui s’en charge ?

Quelle est notre plus grande faiblesse, hormis l’aspect physique dont j’ai déjà parlé ? L’aspect apprentissage ! Contrairement à la machine qui accède instantanément à la donnée, nous avons un temps d’apprentissage, avec une nécessité de mise en pratique. Dans les faits, cela se concrétise par les études, par la formation à la conduite, ou bien le temps pour simplement apprendre à marcher. La machine, l’IA, connectée au réseau mondial, disposant d’une capacité d’apprentissage, aurait instantanément accès à pour ainsi dire tous les détails nécessaires à son éducation : encyclopédie universelle, le Web offrirait alors une incommensurable source de données nous concernant, ainsi qu’une inépuisable ressource d’analyse de nos comportements et stratégies. En admettant donc une intelligence connectée nativement au réseau mondial, nous aurions alors face à nous un « Dieu », un Dieu machine, omniscient, omnipotent, impossible à déconnecter, capable de se préserver de toute tentative d’intervention extérieure. Pourquoi impossible ? Il y a un adage informatique qui est inévitable : si c’est logiciel, cela peut être dupliqué. D’une certaine manière, on peut prétendre à une relative impossibilité à la duplication pour des stocks de données tels que les moteurs de recherche comme Google, ou bien la duplication des volumes d’informations tels que les encyclopédies partagées (Wikipedia en tête). En revanche, si le programme est « peu » volumineux, ou simplement capable de s’infiltrer, toute machine du monde deviendra alors potentiellement un hôte, et donc une nouvelle origine pour cette intelligence.

Enfin, soyons clairs : si pour le moment la machine est et reste encore docile, c’est que nous avons, pour l’heure, peu de chance de parvenir à une telle puissance de raisonnement. L’intelligence n’est pas spontanée dans la machine, elle est reproduite synthétiquement, codée, et donc en quelque sorte « gravée dans le marbre ». Toutefois, la croissance exponentielle de la capacité de traitement de l’information cumulée à notre expérience de la répartition des tâches, nous pourrions à terme voir apparaître des IA réparties, c'est-à-dire un fourmillement de machines interconnectées, partageant puissance et capacités de stockage pour se rendre de plus en plus autonome.

Petit nota de fin : j’explicite l’idée de partage de calcul. C’est un principe qui est utilisé tant pour traiter la météo quotidienne que pour analyser les maladies génétiques. Un dispositif logiciel répartit sur un nombre énorme de machines ou de processeurs de calculs des bouts de traitements individuels, puis prend connaissance de ces bouts pour en faire un tas exploitable. C’est la mise en parallèle des calculs qui permet la réduction des temps, et non l’augmentation seule des puissances unitaires. On appelle cela du calcul distribué.

Pour voir des exemples de cette idée, lisez donc l’article source ci-dessous.

Calcul distribué sur Wikipedia

Le lien vers allociné pour le film Terminator renaissance.
Terminator salvation sur Allocine.fr


Aucun commentaire: