Plaidoyer pour une intelligence artificielle éthique

_
_

Par : Pr CHEMS EDDINE CHITOUR, ÉCOLE POLYTECHNIQUE ALGER

La création de l’intelligence artificielle serait le plus grand événement de l’histoire de l’humanité. Mais il pourrait aussi être l’ultime (…). Une telle forme d’intelligence pourrait s’émanciper et même améliorer sa propre conception à une vitesse toujours croissante. Les humains, limités par leur évolution biologique lente, ne pourraient pas rivaliser, et seraient détrônés”. Stephen Hawking, physicien théoricien et cosmologiste”

Qu’est-ce que l’intelligence artificielle ?
C’est d’après l’encyclopédie Wikipédia : “Un ensemble des théories et des techniques développant des programmes informatiques complexes capables de simuler certains traits de l’intelligence humaine (raisonnement, apprentissage…). Si l’informatisation des sociétés n’a cessé de se développer, si les technologies n’ont cessé de se perfectionner, la question de la capacitation des citoyens semble aujourd’hui se poser : si nous sommes tous devenus des utilisateurs du numérique, il n’est pas certain pour autant que nous comprenions le fonctionnement des technologies que nous utilisons, ni les enjeux anthropologiques de cette révolution. Par rapport aux autres révolutions techniques, la mutation numérique s’est produite à une vitesse sans précédent, si bien que les usagers se retrouvent souvent en position d’“accros” aux applications notamment avec les smartphones. Pendant ce temps les Gafa ne s’arrêtent pas avec les grands pays d’installer des Data Centers qui sont la nouvelle pollution du fait d’une énorme quantité d’énergie et de la nécessité d’un refroidissement permanent.

Quelques “prouesses” promises par l’intelligence artificielle
Les applications de l’IA sont dans tous les registres. Certains sont très utiles. Un problème majeur que connaît et connaîtra de plus en plus l’humanité est le changement climatique de plus en plus erratique. “Le réchauffement climatique, écrit Olivier, va avoir des conséquences réelles et sérieuses sur la nature et sur l’homme. Le pire est à craindre.” Une enquête menée par le Mercator Research Institute on Global Commons and Climate Change a analysé 102 160 études portant sur des sujets liés au réchauffement de la terre. Plus de 10 000 études au tamis d’une intelligence artificielle 80% de la surface de la planète sera touchée par les dérèglements climatiques, tandis que 85% de la population mondiale sera affectée. “Les études sont majoritairement menées dans des pays riches. La situation en Afrique ou en Asie, là où les conséquences du réchauffement climatique se font le plus ressentir, est encore très mal documentée” L’homme augmenté verrait à terme sa part “mécanique et électronique l’emporter sur sa part organique. On pourrait penser après les robots, les chatbots à des entités humanoïdes. La communication entre humains et humanoïdes, n’est pas un réel problème. La vraie “syntheligence” impliquerait que l’humanoïde synthétise, prenne des initiatives efficaces, dépasserait les connaissances apprises, s’auto-programmerait et en finale, y trouverait du plaisir en communion avec les humains et en leur étant un garde-fou avec l’éthique humaine qu’il aurait enregistrée et qui serait pour lui la “ligne rouge à ne pas franchir”…

Les conséquences imprévisibles non souhaitées : la manipulation du vivant
À côté des conquêtes positives de la science notamment dans le domaine médical, on ne peut pas ne pas parler des apprentis sorciers du vivant en absence d’une éthique opposable à tout le monde ; nous l’avons vu avec le chercheur chinois qui a pu créer et faire naître un bébé en utilisant la technique Crisp Cas9 véritable couteau suisse pour découper des morceaux d’ADN. Le meilleur des mondes ouvrage prémonitoire écrit par Aldous Huxley décrit une société future divisée en sous-groupes, en fonction de leurs capacités intellectuelles et physiques. L’appartenance à un groupe ne doit rien au hasard : ce sont les traitements chimiques imposés aux embryons qui les orientent dans l’un des sous-groupes plutôt qu’un autre, influençant leur développement.

Du monde de la guerre froide au monde unipolaire de la fin de l’histoire
Il faut savoir si l’humanité s’engage sans l’appréhender vers un nouvel asservissement avec l’intelligence artificielle. Nous allons d’abord expliquer comment l’humanité est passée pour la période de la politique des blocs au monde de l’hyper-puissance américaine selon le bon mot d’Hubert Védrine consacrant aux dires de Francis Fukuyama l’idéologue du Pentagone : “la fin de l’Histoire”.
Dans l’histoire récente du monde en effet, les peuples faibles ont été dépossédés de leur liberté quelle que soit l’idéologie des “ismes” (libéralisme, communisme,) et même la tentative de la mise au pas religieuse (christianisme, judaïsme, islamisme) Après la chute de l’empire soviétique ce fut le triomphe de Reagan sur “l’empire du mal”. Par la suite le discours de Bush après la deuxième guerre du Golfe consacrait l’avènement du monde unipolaire. Plus rien ne devait s’opposer à l’empire et à ses vassaux dont l’ambition est de gouverner le monde. Ce fut la mise en place sous l’égide d’un néolibéralisme gouverné par une oligarchie la mise en place d’instruments de contrôle et de mise au pas. (BM, FMI, OMC) pour une mondialisation laminoir. Si en plus il y a des pays “voyous” entendre “récalcitrants à la norme de l’empire” la CPI et l’Otan veillent au grain. Naturellement les Nations unies ne sont là que pour organiser des réunions où six pays décident du sort du monde. Depuis, des craquements se font sentir et il est admis que le barycentre du monde va basculer vers l’Asie, La fin de l’histoire n’est pas encore actée. Par la force des choses. Nous allons vers un monde multipolaire qui sera en face d’une intelligence artificielle débridée dont on peut craindre la puissance et qui envahit le monde à bas bruit. En allant vers une science sans éthique c’est une forme d’assujettissement de l’humain victime consentante qui se dépouille graduellement de son humanité graduellement.

À quoi s’attendre avec une intelligence qui gouverne le monde ?
L’humanité ballottée entre des projets de société s’offre en victime consentante au marché qui lui offre comme l’écrit des ersatz de libre arbitre. La contribution suivante va justement dans le sens d’une gouvernance mondiale par ceux qui détiennent l’intelligence humaine pour maîtriser l’intelligence artificielle. L’avenir est toujours difficile à prévoir. Justement, la science semble mettre tout les camps d’accord en s’attaquant à ce que l’homme à d’intime et naturellement. Les Gafa (Google, Amazone, Facebook, Apple) plus riches que des dizaines de pays d’Afrique inventent le futur et investissent dans ce filon.

“Personne n’a de boule de cristal, écrit Tristan, pour savoir comment le monde de demain sera fait. Plusieurs philosophes réfléchissent à l’avenir de l’humanité. L’une des théories à ce sujet est baptisée ‘l’hypothèse singleton’ qui se résume en une gouvernance mondiale, réalisée, pourquoi pas, par une IA. D’après Nick Bostrom, enseignant dans la très prestigieuse université anglaise d’Oxford, l’avenir devrait suivre l’hypothèse dite de ‘singleton’. Derrière ce concept se cache en réalité un monde gouverné par une seule et même entité, dont dans certains cas, une IA. Afin d’appuyer son propos, le professeur explique que l’homme a toujours cherché à se rassembler sous le joug d’entités de plus en plus grandes et puissantes. Selon le philosophe, il n’y a aucune raison pour que l’histoire s’arrête là. Dans un avenir plus ou moins proche, il estime que l’humanité basculera dans un monde sous gouvernance universelle. Des instances déjà en place comme les Nations unies ou, à moindre échelle l’Union européenne, confirment cette théorie et montrent qu’une volonté supra-étatique est en train d’émerger.” Poussant plus loin l’explication, Bostrom explique ainsi que “la course à l’armement pourrait prendre fin sous une telle gouvernance. Sans concurrence entre différentes puissances, personne n’aurait besoin d’armes, ce qui réduirait drastiquement les violences. (…) Mais toujours, selon Bostrom, cette uniformisation des pouvoirs politiques de la planète pourrait également mettre fin au colonialisme et aux inégalités dans leur ensemble. Une idée utopiste qui, là encore, a certaines limites. En effet, il est difficile de croire en cette idée tant les différences de ressources sont grandes aux quatre coins du monde. Les hommes ne vivent pas de la même manière en Europe qu’au cœur du Sahara (…) Enfin, dans l’hypothèse la plus futuriste où le gouvernement mis en place était contrôlé par une IA, alors Bostrom théorise qu’il serait possible de ‘calculer’ quel futur est le meilleur pour l’humanité en analysant toutes les possibilités. L’IA, dépourvue de toute empathie pourrait très bien décider, à la manière d’un Thanos dans l’univers de Marvel, d’anéantir la moitié de la population terrestre pour le bien des 50% des restants”.(2)

Que faire pour éviter les dérives ?
Pour l’histoire, le souvenir de Deep Blue, l’ordinateur de qui a battu Gary Gasparov, le champion du monde des jeux d’échec, est resté vivace et a inculqué directement la méfiance. Ainsi, la science est sans état d’âme : “L’intelligence artificielle de Google Brain, AutoML, vient de créer une intelligence artificielle plus performante que toutes celles créées par les êtres humains jusqu’à présent. Si cet exploit est impressionnant et va permettre d’offrir de nouvelles possibilités technologiques, il soulève également d’importantes questions éthiques et suscite l’inquiétude quant au devenir de l’humanité.”
L’un des plus farouches défenseurs de l’humain face à la machine est le grand physicien Stephen Hawking disparu récemment. Pour beaucoup de scientifiques l’intelligence artificielle est peut-être plus dangereuse que les armes nucléaires. Il faut agir de manière très circonspecte avec la technologie. “Espérons que nous ne soyons pas le chargeur biologique d’une super-intelligence numérique”, disait Elon Musk qui, curieusement, a investi dans le nouveau projet Vicarious, en collaboration avec le P-DG de Facebook, Mark Zuckenberg. Ce projet vise l’élaboration d’une intelligence artificielle et la construction d’un ordinateur qui pense comme un homme, mais qui, selon le concepteur, n’a besoin ni de nourriture ni de sommeil. À l’opposé, certaines personnes ne craignent, cependant, pas les éventuelles évolutions négatives de l’intelligence artificielle. Selon Ray Kurzweill, le gourou de Facebook qui promet que les hommes biologiques ne seront jamais dépassés par les ordinateurs. L’homme s’élèvera en effet à un niveau supérieur grâce à l’intelligence artificielle.

Conclusion
Il est vrai et c’est la face noire d’une science incontrôlée, à titre d’exemple, l’intelligence artificielle est capable et de loin de se substituer à l’intelligence humaine. Les promesses de la science concernant l’homme réparé et l’homme augmenté peuvent si elles ne sont pas encadrées par un arsenal éthique amener à la “fabrication de cyborg mi-homme mi-machine, voire pire encore, la création humaine de chimère mi-homme mi-animal. Il vient que la destruction génétique de l’humanité au profit d’une nouvelle espèce humanoïde ou la dimension sera plus prépondérante serait peut être l’une des causes de la disparition de l’humanité depuis qu’elle est apparue depuis 10 000 ans. Nous n’allons pas terminer sur cette note triste sans montrer une belle facette de l’intelligence artificielle qui a permis de compléter la Dixième symphonie inachevée de Beethoven.
En effet, la Dixième symphonie inachevée de Beethoven est aujourd’hui une œuvre complète… Grâce à la collaboration des musiciens et de l’intelligence artificielle. Une équipe de musiciens, historiens et scientifiques a complété les parties manquantes de la Dixième symphonie de Beethoven, en restant le plus fidèle au style du compositeur, et cela, en revisitant ses précédentes œuvres. C’est dire s’il faut se lancer avec détermination dans cette bataille du savoir et dans ce cadre la création de l’École d’intelligence artificielle et de l’École de mathématiques sont des avancées importantes qu’il faut saluer. Le tout est de ne pas banaliser et surtout y mettre les moyens quelque la santé financière du pays. Ce sont nos premières défenses immunitaires qu’il serait judicieux de compléter au campus de l’intelligence de Sidi Abdallah avec la mise en place, sans tarder, de l’Institut de la transition énergétique (ITEER), qui sera garant de notre sécurité énergétique à l’horizon 2030 en sortant par le haut de l’ébriété énergétique actuelle.


    Covid-19 : « L’intelligence artificielle peut mener à un contrôle accru sur les populations », Emmanuel Goffi, ancien officier de l’Armée de l’air


       L’histoire exemplaire de l’intelligence artificielle (1re partie)

   par Baddari Kamel (*)

Jamais une discipline scientifique, au même titre que l’informatique qui lui est sous-jacente, n’a connu un progrès aussi fulgurant que l’intelligence artificielle (IA). Elle est devenue, en l’espace de quelques dizaines d’années, une science à part entière avec son langage et ses propres méthodes.

Elle a remotivé les chercheurs et les industriels dans nombre de domaines en leur fournissant les outils nécessaires à la sortie des difficultés sur lesquelles ils butaient. Dans cette contribution, il sera question de l’histoire de cette discipline devenue mature, malgré son jeune âge.

Un point d’histoire de l’IA
Comme toute science à ses débuts, l’IA a connu des hauts et des bas depuis son avènement en 1956. Déjà en 1958, on avait prédit qu’un programme informatique aura un jour la performance d’un maître d’échecs. Plus tard, effectivement, un programme soviétique a triomphé d’un programme nord-américain lors du congrès IFIP 1974 de Stockholm ; pourtant, durant ces années, en URSS, l’informatique était considérée comme un outil entre les mains de la bourgeoisie, ce qui a d’ailleurs retardé son développement grand public dans ce pays, comme quoi le développement de la recherche scientifique et l’innovation sont indissociables de leurs contextes politique et culturel. Plus tard, la Russie s’est rattrapée pour devenir une puissance en la matière. Une journaliste scientifique américaine avait usé, dans les années 80, d’un comparatif loin d’être burlesque, portant sur le rapprochement des intelligences de l’homme et de la machine, en disant que «les raisons invoquées aujourd’hui pour argumenter l’infériorité de l’intelligence des ordinateurs par rapport à l’intelligence des êtres humains sont exactement les mêmes que celles que l’on utilisait au XIXe siècle pour démontrer que les femmes ne seraient jamais les égales intellectuelles de l’homme».
À l’heure actuelle, les communautés scientifiques s’interrogent sur la supériorité de la machine sur l’homme, malgré les progrès immenses réalisés par l’IA.

Époque 1 – (Avant l’an 2000)
Balbutiements et naissance de l’IA

1950 : Publication d’un article de Alan Turing, «Computing Machinery and intelligence», visant à mettre au point une méthode pour définir la conscience d’une machine. Cette méthode est connue aujourd’hui sous l’appellation de «Test Turing», fort bien connue chez les informaticiens.
1956 : Conférence de Dartmouth aux États-Unis, à l’issue de laquelle une déclaration sur l’IA a été proclamée comme étant un domaine scientifique à part entière. Cette conférence a réuni les pionniers de l’IA, à savoir John McCarthy et Marvin Lee Minsky du Massachusetts Institute of  Technology (MIT) et deux scientifiques, Claude Shannon et Nathan Rochester d’IBM.
1960 : Implication des travaux de recherche dans de grands laboratoires pour le développement du domaine de l’IA.
Il faut à cet effet souligner que  les années 1950 à 1960 sont aux USA une période qui favorise la recherche scientifique et technologique pour diverses raisons, parmi lesquelles la guerre froide avec les pays de l’Est qui, plus est, allait être revigorée par l’explosion de la 1re bombe atomique soviétique en 1949 ainsi qu’avec le choc de la fusée Spoutnik en 1957. C’est pour ces raisons que des crédits importants étaient alloués à des sociétés pour tester les idées les plus folles.

Époque 2 – (1974 – 1990)
Baisse d’intérêt, malgré les systèmes experts

1974 : Période nommée le «AI Winter» où le domaine a connu une baisse d’intérêt et de financement au niveau mondial.
1980 : Réintégration des projets de l’IA grâce aux systèmes experts.
Durant cette période, un projet japonais de nom ICOT, portant l’intitulé «La cinquième génération, le pari de l’IA à l’aube du XXIe siècle», a été annoncé. Le projet fait suite à l’article «Machines Who Think» de la journaliste américaine Pamela McCorduck. Il promettait la mise en œuvre d’un ordinateur entièrement intelligent pour l’année 1988. Nous savons par la suite que ce projet n’a pas donné les résultats escomptés. Il s’agissait d’une tentative au but inavoué de réveiller un marché à fort potentiel, mais qui n’arrivait pas à décoller, et interpellait brillamment aussi bien les industriels que les cercles scientifiques.

Époque 3 – (1990 – 2000)
Incertitudes et espoirs

1990 : Début de l’exploitation de l’IA sur le terrain.
1997 : Redéploiement de l’IA grâce au supercalculateur «Deep Blue» d’IBM, d’architecture parallèle.

Époque 4- (Après l’an 2000)
Grâce à l’informatique

Cette quatrième époque de l’IA se caractérise par son impact sur la société et sur divers domaines (l’informatique, la musique, les films…).
Les périodes marquantes durant cette époque sont :
Début des années 2000 : L’utilisation de l’IA dans les films de science-fiction pour réaliser des scénarii proches de la réalité.
2001-2010 : Implication de l’IA dans la société grâce au développement de l’informatique.
Après 2010 : Développement de nouveaux processus, le « Machine Learning », et leur utilisation dans les domaines vitaux de la société (médecine, commerce, réseaux sociaux, gouvernance…).

Alors, qu’est-ce que l’IA ?
Définir l’IA n’est pas une mince affaire. L’IA est un domaine vaste qui comprend plusieurs axes et diverses définitions, selon le point de vue où l’on se place. Généralement, on pourrait dire que l’IA est un système construit autour de  données et d’algorithmes d’apprentissage en vue d’effectuer des prédictions. Dans Facebook ou Youtube, l’algorithme d’apprentissage se base sur les vidéos regardées et les endroits cliqués par l’utilisateur pour rechercher ses centres d’intérêt (vidéos qui lui seront suggérées, amis à ajouter…).
De façon générale, l’IA vise à développer des machines capables d’accomplir des tâches pour résoudre les problématiques qui se posent à l’homme, autrement dit toute problématique qui fait appel à des procédés cognitifs pour sa solution, tels que : 1/La reconnaissance et la localisation des objets (dans une image, une séquence vidéo…) ; 2/la planification, la réalisation et le contrôle de mouvements robotiques ; 3/la conduite autonome des engins roulants (véhicules,…) ; 4/la détection des symptômes de quelques maladies ; 5/le commerce et les déclarations intelligentes des impôts ;  6/les élections sécurisées ; 7/la justice et les banques, etc.
La réussite de telles tâches est conditionnée par la capacité d’apprentissage de la machine IA dans la mesure où un système intelligent ne peut guère augmenter ses performances ou développer ses compétences de prédiction sans un apprentissage cohérent et constructif. C’est à la manière du cerveau d’un enfant, la seule instruction qu’il a est d’apprendre au risque de détruire pour toujours apprendre.

Le rôle de Noam Chomsky
Noam Chomsky est un mathématicien de haut niveau et pape de la linguistique contemporaine. Il est de nationalité américaine. Versé dès les premières heures dans le développement de l’IA, il est l’un des rares scientifiques mondiaux à n’avoir pas perdu l’espoir dans cette discipline depuis son avènement. Travaillant sur l’analyse du langage naturel dans une approche cognitiviste, il créa dans les années soixante «la grammaire transformationnelle» ou «grammaire générative» qui allait devenir un outil de référence pour les chercheurs dans les années 70, et donna lieu par la suite à d’autres grammaires (réseaux sémantiques, ontologie…). Chomsky considérait que le traitement du langage naturel doit reposer essentiellement sur la syntaxe, ce qui est à notre sens un pari facile à gagner.
La grammaire de Chomsky allait servir aussi bien pour l’analyse des textes que pour la reconnaissance de la parole et de la synthèse vocale. Les écoles françaises, canadiennes et britanniques utilisant entre autres cette grammaire ont fourni des outils pertinents pour le développement de l’IA, principalement le traitement des langages naturels. Abordant la non- concrétisation à ce jour du test de Turing, Chomsky affirme que, sans la compréhension des mécanismes constitutifs du langage humain, l’IA «ne parlera peut-être jamais notre langage» !

L’IA d’aujourd’hui
L’IA a connu une période de latence, voire d’incertitude  jusqu’en 2000.
À partir de cette date, des chercheurs, considérés comme les pionniers du «Machine Learning» (Yoshua Bengio, Geoffrey Hinton, et Yann Le Cun), allaient sauver la discipline. Partant des travaux de plusieurs chercheurs, ils allaient redorer le blason de cette discipline grâce à l’utilisation des réseaux de neurones artificiels auparavant mis au point par Frank Rosenblatt en 1957. Malheureusement, pour des raisons de capacité de calcul des ordinateurs qui ne permettaient pas d’entrevoir le développement d’applications nécessitant justement une puissance de calcul et une grande capacité de stockage de l’information, l’IA allait de nouveau connaître une période de somnolence.
Il a fallu attendre le début des années 2010 avec l’essor des Big Data et du traitement en parallèle pour qu’elle dispose enfin des conditions de son épanouissement, à savoir la puissance de calcul et le stockage des données dans le Cloud ou autres.
Le connexionnisme est né. Il permet à un réseau de neurones, dont le fonctionnement s’inspire des neurones du cerveau humain, d’apprendre à reconnaître des objets sur des images, inférer sur des textes… et de fil en aiguille, rendre plus fins ses raisonnements et ses argumentations. De nos jours (2021), les réseaux de neurones ne cessent de s’améliorer pour être au cœur de la recherche scientifique. Ils sont utilisés dans le «Machine Learning» dont une sous-catégorie est appelée l’apprentissage profond ou «Deep Learning», le plus répandu actuellement. Il repose sur des algorithmes bien élaborés permettant au réseau de neurones d’apprendre sur des exemples pour s’entraîner à effectuer des prédictions.
Les exemples sont préalablement étiquetés pour que le réseau puisse savoir de quoi il s’agit.
À titre d’exemple, un réseau de neurones peut être utilisé pour apprendre à reconnaître un objet tel qu’une voiture, une moto ou une plaque de signalisation… Pour ce faire, si on considère l’exemple d’une voiture, on présente au réseau un grand nombre de voitures et l’algorithme se met à apprendre à reconnaître cette voiture sur de nouvelles images représentant des voitures de tout genre.
Ainsi, en analysant des milliers de photos de voitures, le réseau de neurones artificiel apprendra à reconnaître une voiture donnée sur n’importe quelle photo qui lui sera présentée. C’est la phase d’apprentissage capitale pour l’IA.

Les niveaux faible et fort de l’IA ?
De par les possibilités et le niveau d’intelligence intégré dans une machine (un robot par exemple), on distingue essentiellement deux types : l’IA faible et l’IA forte. La première est utilisée pour effectuer des tâches précises. Elle est experte dans un domaine précis comme d’ailleurs un système expert. Sortie de son domaine de prédilection, elle devient inutile.
C’est la seule qui existe pour l’instant. Elle agit de la manière dont elle a été programmée. Son handicap est qu’elle ne possède pas de sens commun à l’image de l’être humain. Elle est modélisée par une machine capable de percevoir les composantes de son environnement et de prendre des décisions en fonction d’observations effectuées sur la base de ces perceptions. L’exemple le plus connu est le «Deep Blue» de la société IBM qui a battu le champion d’échecs Garry Kasparov en 1996. Ce type de machines est le plus ancien. Elle est aussi modélisée par une machine à base d’images qui s’appuie sur des représentations du monde réel (le monde effectif tel qu’il existe) pour prendre une décision.
La conduite autonome de voitures en est un exemple. Une voiture autonome étant dotée d’un ensemble de représentations de son environnement à un instant donné, lui donnant la capacité d’ajuster sa vitesse ou sa trajectoire en fonction des éléments qu’ils enregistrent en temps réel tels que l’état du trafic, la situation de la route, les plaques de signalisation, le climat…
Quant à l’IA forte qui fait actuellement l’objet d’une recherche intensive dans quelques pays, elle a l’ambition de créer des machines qui seraient à l’image de l’être humain, dotées d’une intelligence cognitive avancée comme le cerveau humain en est capable de réaliser naturellement. Elles seraient autonomes et dotées d’une conscience et du sens commun. De par les domaines qui lui sont sous-jacents comme l’intelligence émotionnelle, l’intelligence cognitive…, l’IA forte soulève de véritables interrogations et constitue le défi essentiel au développement de l’IA.
L’IA forte se décline en deux sous-types de machines : la machine à base de « la théorie de l’esprit » et la machine à base de l’auto-conscience.
La première désigne « la capacité mentale d’inférer des états mentaux à soi-même et à autrui et de les comprendre». Grâce à cette théorie, les robots seront capables d’appréhender et classifier les représentations du monde, comprendre et hiérarchiser les émotions selon le degré d’influence sur le comportement humain…
La machine à base de «l’auto-conscience» est une machine consistant à construire des représentations avec autonomie et indépendance complètes. Les machines auto-conscientes comprennent les émotions humaines et les appliquent ensuite aux différents scénarii afin de prédire d’autres situations.

Apprendre, toujours apprendre
Un réseau de neurones ne peut être programmé directement pour effectuer une tâche. L’exemple précédent montre que pour reconnaître une voiture d’un genre particulier, le réseau apprendra à la reconnaître sur une quantité importante de voitures pour qu’à la fin, il puisse l’identifier sur n’importe quelle autre photo qui lui sera présentée. La phase d’apprentissage est donc capitale pour le fonctionnement d’une IA. Ceci dit, dans le «Machine Learning», on distingue trois méthodes d’apprentissage distinctes : l’apprentissage supervisé, l’apprentissage non supervisé et l’apprentissage renforcé. L’apprentissage supervisé consiste à faire des prédictions à partir de  données annotées (étiquetées), au contraire de l’apprentissage non supervisé où les données ne sont pas annotées. Il suffit que le réseau de neurones analyse l’ensemble de données pour se donner une fonction-coût lui indiquant dans quelle mesure il est éloigné du résultat souhaité.
Le réseau modifie sa fonction-coût pour s’adapter et augmenter la précision de l’algorithme. On utilise l’algorithme de rétro-propagation de gradient pour déterminer et améliorer cette fonction-coût.
Enfin, avec l’apprentissage par renforcement, un «agent» effectue des tâches, reçoit ou non des récompenses et apprend à maximiser ces «récompenses» dans un environnement. La voiture autonome en est un exemple. L’«agent» est récompensé s’il évite les collisions, obéit aux règles de circulation et atteint le point de sa destination. Lorsque l’une de ces actions n’est pas atteinte, l’«agent» est pénalisé (ne reçoit pas la récompense attendue). Dans l’un ou l’autre cas, la machine apprend de ses performances ou de ses erreurs.
Pour ce faire, l’«agent» commence par effectuer des actions aléatoires à la recherche des séquences d’actions qui offrent de meilleures récompenses grâce aux commentaires qu’il reçoit de son environnement (l’état de la route de circulation dans l’exemple).
B. K.
(À suivre…)


       L’histoire exemplaire de l’intelligence artificielle (2e partie et fin)

 

La situation en Algérie
Au début des années 80, on recensait à peine quelques informaticiens ayant opté pour l’IA comme spécialité. Plus tard, elle a été introduite dans quelques centres de recherche pour servir de modèle. Ces centres n’ont pas suivi le progrès en la matière et, à l’heure actuelle, ils en sont dépourvus. Cette discipline a été introduite comme spécialité dans les universités en 1998. Le pays est demeuré non producteur d’IA. Celle-ci est cantonnée, à tort, dans la spécialité informatique alors qu’elle concerne tous les domaines et secteurs du pays depuis les sciences humaines en passant par le droit, la sociologie… jusqu’à son usage et son développement par l’industrie de tout ordre. Le fait d’être cantonnée à l’informatique empêche son développement. Ce point est important et ne concerne pas seulement que l’IA. Tous les domaines d’études universitaires ne font pas le maillage nécessaire entre les spécialités. C’est le rôle de l’université de produire ce maillage. C’est la seule manière de développer les disciplines dans ce monde complexe où tout s’enchevêtre. Longtemps reléguée au second plan en Algérie, l’IA est enfin sortie de son isolement. A cet égard, dans le journal de l’APS du 21 janvier 2021, on lit que « la stratégie nationale de recherche et d’innovation sur l’IA 2020-2030 a été présentée au siège du ministère de l’Enseignement supérieur et de la Recherche scientifique». Dans le même journal du 21 avril 2021, on lit aussi que «les écoles des mathématiques et de l’IA, dont la réalisation a reçu l’approbation du président de la République, accueilleront leurs étudiants à partir de la prochaine rentrée universitaire (2021-2022)».

À partir de ces lectures, on ressent que le ministère en charge de l’Enseignement supérieur souhaite bâtir une véritable stratégie de l’IA par les universités. En tant que stratégie, il y a lieu d’être épineux dans la définition des objectifs et tranchant dans la réalisation des actions. L’Algérie n’a plus le droit à l’erreur. Elle a accusé dans le domaine du développement industriel de l’IA un retard abyssal par rapport à des pays développés. Elle a les moyens de se rattraper. Il suffit de travailler.

Alors, quels sont les domaines d’application ?
L’IA fait l’objet actuellement d’applications diverses à travers le monde. Dans ce qui suit, nous allons nous intéresser aux domaines les plus en vue.
1/La santé et les hôpitaux : développement d’applications en santé, telles que la détection précoce de maladies, le diagnostic des maladies, la détection des premiers signes d’une attaque cardiaque, l’accélération de la mise de médicaments, la réduction du temps, la gouvernance et la gestion des hôpitaux, la prise en charge des dossiers des patients. 2/Le secteur des services bancaires : élaboration de «chatbots» ou «agents intelligents» pour répondre aux besoins de la clientèle, la détection des opérations frauduleuses, le e-paiement … 3/Le transport : l’application la plus connue dans ce secteur est le véhicule autonome. Dans ce contexte, les industries automobiles visent à développer l’aspect autonomie des véhicules par le moyen des techniques d’apprentissage artificielles. Des entreprises américaines ont conçu ce type de véhicules opérationnels ne serait-ce qu’en autonomie partielle. On rencontre aussi des applications de gestion du trafic routier, la verbalisation des chauffeurs fautifs, l’envoi et le suivi des procès-verbaux. 4/Le commerce : la détection des tendances d’achat, l’analyse des échanges sur les réseaux sociaux, l’anticipation de la demande de la clientèle, la création de nouveaux services et produits, la déclaration automatique au service des impôts des volumes des transactions effectuées ainsi que les droits et taxes fiscaux. 5/L’industrie : la robotique, la maintenance prédictive pour diminuer, voire même éliminer le temps de panne d’un robot, détection de certains signes d’usure sur une machine. 6/La justice : analyse de la jurisprudence afin d’identifier les arguments-clés et de fournir un conseil juridique, le but étant de rendre la justice identique pour tous les citoyens, quel que soit l’endroit où on délibère. 7/ Services aux citoyens : documents d’état civil, permis de conduire, paiement, achat et vente en ligne…

Aperçu de l’état actuel de recherche : l’apprentissage en profondeur hybride
La performance des systèmes d’IA à base d’apprentissage en profondeur est actuellement limitée par la complexité des actions que l’homme effectue normalement. Actuellement, de nombreux chercheurs tentent de dépasser les limites de l’apprentissage en profondeur. Une piste prometteuse est la mise au point de l’apprentissage hybride. Dans un article paru dans The Communications of the ACM Journal, on peut lire que «les humains et les animaux semblent être capables d’apprendre des quantités massives de connaissances de base sur le monde, en grande partie par des observations. Ces connaissances sous-tendent que les machines soient dotées du bon sens leur permettant la capacité de juger au même titre que l’humain. Pour y arriver, des scientifiques proposent diverses solutions parmi lesquelles l’approche «IA hybride», un mixage entre les représentations symboliques (système expert) et les réseaux de neurones. À remarquer que la manipulation des symboles est une partie très importante de la capacité des humains à raisonner sur le monde. D’autres scientifiques, parmi lesquels les pionniers de l’IA, ne sont pas de cet avis. Ils pensent «que de meilleures architectures de réseaux neuronaux mèneront à terme à tous les aspects de l’intelligence humaine et animale, y compris la manipulation de symboles, le raisonnement, l’inférence causale et le bon sens». Enfin, il faut souligner que les récentes avancées en matière d’apprentissage en profondeur (Deep Learning) ont marqué une nette progression dans certains domaines où celui-ci piétinait, et ce, grâce à la mise au point de «transformers» doté de la capacité à apprendre sans avoir besoin de données étiquetées comme dans l’apprentissage supervisé. Cette possibilité permettra à la machine par exemple dans le traitement du langage naturel de remplir «les phrases incomplètes ou générer un texte cohérent». Il y a aussi l’apprentissage auto-supervisé qui rend les réseaux de neurones moins dépendants des données étiquetées manuellement. Une autre technique tout aussi prometteuse est l’apprentissage contrastif, qui essaie de trouver des représentations vectorielles des régions manquantes au lieu de prédire les valeurs des pixels dans une image par exemple.
Le même article souligne les recherches actuelles sur le système-2 d’apprentissage en profondeur emprunté au psychologue Daniel Kahneman (lauréat du prix Nobel en économie en 2002). Ce système prend en compte « les fonctions du cerveau qui nécessitent une réflexion consciente, notamment la manipulation de symboles, le raisonnement, la planification en plusieurs étapes et la résolution de problèmes mathématiques complexes». Ce type d’apprentissage est encore à ses débuts. Il y a enfin la piste des «réseaux de capsules» dont l’objectif est de fournir un apprentissage en profondeur avec une capacité qui permet aux humains et aux animaux de comprendre les environnements tridimensionnels.
À noter qu’un «transformers» est un modèle qui utilise l’attention pour augmenter la vitesse d’apprentissage. L’attention étant un concept qui améliore les performances des applications de traduction automatique neuronale par exemple. À ces axes de recherche, il faut ajouter les recherches portant sur les machines à base de «l’auto-conscience» et de «la théorie de l’esprit» vues précédemment.

Critiques, appréhensions et inquiétudes
Tout le monde, sauf quelques rares exceptions, s’accorde à dire que le développement de l’IA suscite de réelles craintes, appréhensions et inquiétudes qui risqueraient de dénaturer sa raison d’être si on n’atténue pas le recours abusif, parfois déraisonné, à ses immenses possibilités déclarées ou supposées.
La perte de contrôle de l’humain sur le processus technique d’élaboration d’une IA est une issue sérieuse à envisager avec passion. Selon l’astrophysicien Stephen Hawking : «Le risque est réel pour que des machines deviennent un jour plus intelligentes que les humains et finissent par les dominer, voire se substituer à eux, de la même façon que les humains ont exterminé certaines espèces animales.» Il pose en novembre 2017 au Salon technologique de Lisbonne la question fatidique suivante : «Serons-nous aidés par l’IA ou mis de côté, ou encore détruits par elle ?» Ce point de vue émanant d’un illustre savant est partagé par d’autres experts dans le domaine avec en toile de fond les problématiques d’ordre social et des pertes d’emploi essentiellement. Ainsi, ils s’accordent que l’IA reconfigurerait certains métiers pour laisser place à d’autres métiers qualifiés de «métiers du futur» qui mettraient à mal, voire à faire disparaître certains métiers manuels, et dont la conséquence se traduirait par créer 50%, voire plus, de l’humanité au chômage. S’ils affirment que «nous nous approchons d’une époque où les machines pourront surpasser les hommes dans presque toutes les tâches», ils soulignent que son avènement «poserait à terme la question de l’utilité même de l’espèce humaine». Bien que ces risques paraissent a priori surdimensionnés, voire relevant de la fiction, ils sont pris au sérieux par les grands industriels mais aussi par ceux qui ont la charge de gérer les affaires des États. À titre d’exemple, la firme Google pose la question de la possible perte de contrôle d’agents intelligents (capsule logicielle) qui échapperaient au contrôle de l’humain en empêchant leur propre interruption.
Ces risques posent aussi des problèmes juridiques. Le robot doté d’une IA serait-il considéré comme une «personnalité électronique» comme demandé par le Parlement européen ? Ce dernier a demandé à une commission d’étudier la possibilité que si un dommage causé par un tiers advenait d’une IA, «celle-ci pourrait être condamnée à réparer ce dommage».
Cette préoccupation majeure demanderait même d’être envisagée pour tout robot intelligent prenant des décisions autonomes ou interagissant de manière indépendante avec des tiers, au même titre qu’une personne morale ou physique.
Une autre préoccupation de taille qui concernerait cette fois-ci notre planète est l’énorme quantité d’énergie consommée par le numérique de façon générale, dont la conséquence est l’épuisement de ces ressources, le réchauffement climatique, l’impact négatif sur l’environnement de l’humain, etc. Mais in fine, l’homme ne devrait-il pas savoir que ce n’est pas « la technique qui nous asservit mais plutôt le sacré transféré à la technique par lui-même » qui pourrait se glisser vers l’utilisation à des fins criminelles de l’IA engendrant une augmentation de la cybercriminalité, l’utilisation des drones tueurs à des fins terroristes, la diffusion de l’information fausse ou insignifiante, la création de faux problèmes.
Les usagers des réseaux sociaux en savent certainement quelque chose à ce propos. En Algérie, ces préoccupations doivent, dès à présent, nous interpeller. La mise en place d’un comité à l’effet d’étudier ces questions pour mettre l’IA au bénéfice du citoyen et de la société est devenue une nécessité.

Alors, que faire ? Nécessité d’une stratégie
L’IA, discipline entière dans la révolution numérique, ne cesse d’impacter tous les secteurs de la vie économique. A notre humble avis, son développement dans le pays est lié, avant toute chose, à la définition et la mise en œuvre d’une stratégie nationale visant à donner suite à une série
d’interrogations : 1/ Quels usages de l’IA, énumération des thématiques à développer aussi bien académiques qu’industrielles, arrêter les secteurs amenés à coordonner cette mise en œuvre et le suivi ? 2/ Quels en sont nos moyens en ressources humaines et le degré de développement de l’IA dans le secteur industriel ? 3/ Réfléchir et mettre en œuvre un programme de formation scientifique de haut niveau dans les universités et aussi dans une entité du type école nationale.
Il y a lieu à cet effet de ne pas faire de distinguo entre cette entité et les autres établissements universitaires car l’un est appelé à s’améliorer en fonction du travail et des performances de l’autre. Ceci est très important. Elle permettra de ne pas marginaliser l’université dans le rôle de parent pauvre. Cette formation visera à consolider les connaissances de l’étudiant par l’enseignement des logiques propres à cette discipline, l’apprentissage des divers techniques algorithmiques, les langages évolués de programmation, le Deep Learning, les différentes formes d’apprentissage, la technologie des agents et des systèmes multi-agents, l’IA distribuée et l’intelligence parallèle, le traitement du langage naturel, les mathématiques, la gestion et la planification de développement et de mise en œuvre de projets IA, etc.
Comme toute formation, elle resterait insuffisante si elle ne s’adosse pas à un environnement industriel producteur et consommateur des produits de l’IA. 3/Recensement des spécialistes algériens en la matière résidant à l’étranger et à l’intérieur du pays. 4/ Encourager la création de start-up dans le domaine, la mutualisation des moyens entre tous les établissements universitaires mais aussi avec le secteur industriel.
Ceci permettra d’assurer la diffusion de l’IA dans l’économie et la société en générale. 5/Élaboration d’un plan d’invitation de conférenciers nationaux et mondiaux de très haut niveau aussi bien universitaires qu’industriels, traitant des aspects techniques et sociologiques. 6/ Par la nature de ses possibilités immenses et sensibles qui, sans leur maîtrise parfaite, risquent de déborder, le moins que l’on puisse dire, sur des actes répréhensibles, des pratiques et comportements contraires à l’éthique, déraisonnables ou illégaux.
Il y a à cet égard une nécessité absolue d’élaborer un plan d’éthique de l’IA. 7/ Garder les talents nationaux dans le pays en offrant aux enseignants et aux chercheurs des conditions qui les encouragent à la réalisation effective et intéressée de leurs travaux scientifiques. Cette stratégie devra aussi s’intéresser à d’autres axes tels que l’IA dans l’entreprise car celle-ci demeure le terreau le plus fertile de cette discipline en lui offrant des cas pratiques.
L’amélioration de la performance de l’entreprise est impactée par cette discipline. Elle lui apporte des solutions à chaque étape du cycle industriel, de l’approvisionnement jusqu’à la commercialisation en passant par la logistique, la production, la maintenance et la traçabilité. Cette stratégie vise aussi à démystifier l’IA auprès des enseignants de tous les secteurs pour les préparer aux métiers de demain. Enfin, la recherche en IA aussi bien universitaire qu’industrielle réalisera des objectifs de participation à une IA responsable et maîtrisée, de création de laboratoires communs avec les entreprises, de coopération avec d’autres pays…
Bien entendu, la réussite de cette stratégie est l’assainissement du climat d’affaires, la recherche des moyens financiers où la participation du privé sera très appréciée.

Conclusion
L’IA est désormais un sujet à la mode qui alimente les discussions et les passions. Elle génère de l’enthousiasme mais aussi des inquiétudes. Aujourd’hui, l’IA côtoie de près et elle est présente dans presque tous les domaines où l’être humain est impliqué. Elle fait l’objet de multiples utilisations pour faciliter le quotidien de l’humain en l’affranchissant des tâches pénibles et répétitives, aussi intelligentes soient-elles. Elle est présente dans la vie de tous les jours (appareils d’électroménager, le téléphone portable, les prévisions statistiques et politiques, les réseaux sociaux, le commerce, les élections, la santé, l’enseignement et la formation…), comme elle est présente dans la robotique, l’aéronautique, les fusées spatiales, les objets connectés…  En Algérie, l’IA demeure depuis des années à l’état d’émerveillement. Les structures chargées en principe de son développement demeurent hélas comme hypnotisées face au développement fulgurant de cette science. Elles n’arrivent pas à s’abstraire du temps perdu qui s’écoule inexorablement. Ce n’est que dernièrement qu’elle a suscité un réel intérêt au plus haut niveau de l’État. La mise en œuvre d’une école chargée de la formation dans ce domaine en est le parachèvement. Mais cela est-il suffisant ? Nous pensons que l’industrie est un terreau fertile sûr pour l’émancipation de l’IA. Cette dernière y trouve les moyens et les créneaux de son développement.
Sans cette industrie, l’école serait astreinte à former pour former au même titre que les mathématiques, c’est-à-dire pour l’enseignement ou la recherche universitaire sans valeur ajoutée pour les objectifs qui lui sont fixés. Les lauréats de cette école, faute d’une industrie qui les accueillerait, seraient poussés à envisager d’autres horizons, ce qui serait dommageable pour le pays. Au regard de ses énormes promesses, l’IA n’a pas encore livré tous ses secrets ni atteint son but ultime, celui de reproduire une intelligence humaine à part entière. Elle a encore un long chemin à parcourir.
B. K.


(*) Professeur des universités en mathématiques et en physique. Expert de l’enseignement supérieur et de la recherche scientifique. Expert en conduite de changement. Université de M’sila.


Lectures :
Qu’est-ce que l’IA ? Histoire et Généralités (https://www.cours-gratuit.com › intelligence-artificielle).
– The future of Deep Learning, according to its pioneers, By Ben Dickson – 1/7/2021.
– The Communications of the ACM Journal.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *