Search
Faut-il avoir peur des robots ?
Mercredi 18 Juillet 2018
Journal Electronique

Par Rachid Moussa

A la faveur de quelques faits d’actualité, notamment un accident de voiture sans conducteur et la « révolte » des travailleurs de Google contre la collaboration de leur entreprise avec des programmes d’armement de l’armée américaine, la question de la régulation de la recherche en intelligence artificielle, ne serait pas que par un cadre éthique, revient sur le devant de la scène médiatique.

Le vieux débat sur le rapport entre l’Homme et la machine refait surface ces derniers jours avec des points de critiques sur des programmes de recherche en IA (intelligence artificielle) source de motifs d’inquiétude au niveau de l’opinion publique, mais en même temps sujet de discussions dans les milieux scientifiques et même politiques.

Au mois de mars dernier, un véhicule sans conducteur, mis en circulation par la société de location de voiture Uber, percute et tue une jeune femme près de Phoenix, en Arizona, aux Etats-Unis. Suffisant pour remettre une nouvelle couche de doute, d’interrogations et de critique sur les conséquences du règne des ‘’machines’’ sur l’humain. Mais cela n ‘a pas eu beaucoup de retentissement si l’on considère la nouvelle affaire que viennent de mettre sur la place publique les travailleurs de Google. « Des employés de Google se révoltent contre leur employeur et démissionnent. Voilà ce qu'on a appris ces derniers jours. La raison de ces départs ? Ils estiment que leur société a franchi un pas en trop, à savoir aider le Pentagone, donc l'armée américaine, à développer un programme d'intelligence artificielle à des fins militaires », écrit le site http://trends.levif.be, dans un papier mis en ligne le 16 mai dernier sous le titre «  "Robots-tueurs": "Terminator était un film hier, il devient réalité aujourd'hui" ».

                                                                                                     Google pointé du doigt

Hormis quelques démissions enregistrées il y a quelques temps, effectivement ce ne sont pas moins que 5% de ses travailleurs, soit 4000 employés qui ont signé une pétition, publiée dans la presse américaine dans laquelle ils demandent « à la direction de Google de rester en-dehors d'une technologie potentiellement utilisée pour tuer », ajoute ce site. La collaboration de l’armée américaine avec la puissance algorithmique et le potentiel en recherche et développement de Google lui permet en effet   de parfaire ses capacités d’analyse des images et donc de mieux mettre à contribution les fameux drones. Le journaliste du site belge rappelle que « si les drones américains ont d'abord été utilisés pour effectuer des missions de surveillance, depuis l'invasion militaire de l'Afghanistan, puis l'invasion de l'Irak, ces drones ont depuis lors été utilisés comme engins de mort », avant d’alerter sur de possibles dérives en avisant que cette « intelligence artificielle pourra piloter demain des fusils, des missiles ou des bombes. Autant d'armes qui pourront fonctionner sans supervision humaine en théorie. »

L’affaire survient à un moment crucial pour Google qui ne doit être insensible aux déboires de Facebook encore sous le choc depuis l‘affaire Cambridge Analytica qui a vu les algorithmes traiter de millions de données personnelles et en tirer des caractéristiques de profil exploités pour les besoins d’une campagne électorale. D’autant que des voix de renom se sont associées à la démarche des employés de Google pour mettre « en garde régulièrement contre les usages abusifs de l'intelligence artificielle, craignant notamment l'avènement d'armes autonomes, ou ‘’robots-tueurs’’», lit-on dans un papier du site suisse tdg.ch, daté du 8 juin. Membre du «Partnership on Artificial Intelligence» engagé sur des usages éthiques de l'IA,

Le moteur de recherche a déclaré par la voix de son premier responsable qu’il œuvrerait pour des recherches à impact positif pour la société ; « Il exclut donc des utilisations de l'IA pour élaborer des ‘’armes’’ ou ‘’autres technologies dont le but principal est de causer ou de faciliter directement des blessures’’, selon le site suisse qui ajoute que Google s’oppose à toute recherche «qui entraîne ou est susceptible de causer du mal».

                                                                                                            La prise de conscience

Le sujet est pris au sérieux à bien des niveaux, y compris au sommet du G7 qui vient de se terminer au Canada, avec à l’ordre du jour cette problématique de l’IA. Lors des travaux préparatoires à ce sommet, les ministres du G7 en charge de l’innovation « se sont entendus sur certaines approches communes en matière d'intelligence artificielle et sur une liste de pratiques exemplaires » selon le ministre canadien du Développement social, de  même qu’ils ont adopté « une « vision commune d'une IA centrée sur l'humain, une vision qui exige d'aborder avec soin le développement et le déploiement de cette technologie prometteuse », d’après le texte de la Déclaration conjointe de Montréal.

Mais c’est au niveau de la communauté scientifique et universitaire que la prise de conscience est la plus avancée avec de nombreux travaux et rencontre scientifiques dédiés à la question de l’impact de l’IA. Sur le site https://quebec.huffingtonpost.ca, Stéphanie TessierDeep Learning chez Montreal.AI aborde, dans un papier mis en ligne le 15 mars 2017, la question de l’éthique comme unique fondement pour le moment pour encadrer la recherche en la matière.  « Quels seront les droits et les devoirs des robots et de leurs créateurs? Les robots peuvent-ils être conscients pour différencier le bien du mal? », s’interroge-t-il, avant d’ajouter qu’avec tout cela, il y a nécessairement une remise au gout du jour des ‘’ Trois lois de la robotique d'Asimov’’. Elles ont été énoncées en 1942 par l'auteur américain d'origine russe Isaac Asimov dans une nouvelle intitulé ‘’Cycle fermé’’. D’après le site numerama.com, ces «  trois lois de la robotique furent le fruit de discussions entre Isaac Asimov et John Campbell autour du thème des robots », et se présentent ainsi : « loi numéro 1 : un robot ne peut porter atteinte à un être humain ni, restant passif, permettre qu'un être humain soit exposé au danger ; loi numéro 2 : un robot doit obéir aux ordres que lui donne un être humain, sauf si de tels ordres entrent en conflit avec la première loi ; loi numéro 3 : un robot doit protéger son existence tant que cette protection n'entre pas en conflit avec la première ou la deuxième loi. »

De leur côté des scientifiques issus des universités américaines de Cambridge, Oxford, Yale, Stanford et d’associations OpenAI, Center for a New American Security, Electronic Frontier Foundation ont rendu public, début 2018, un rapport intitulé ‘’The Malicious Use of Artificial Intelligence’’ ans lequel ils mettent en garde contre les possibles usages malveillants des avancées de l’intelligence artificielle. Le site français futura-sciences.com qui a traité de ce document souligne que « dans les dix prochaines années, l'efficacité croissante de l'IA risque de renforcer la cybercriminalité mais aussi de conduire à des utilisations de drones ou de robots à des fins terroristes. Celle-ci est aussi susceptible de faciliter la manipulation d'élections via les réseaux sociaux grâce à des comptes automatisés (bots). » Les experts ont passé en revue différents cas de mésusages des technologies de l’IA et de la robotique, en illustrant leur propos, toujours selon futura-sciences.com, par « le cas d'un robot nettoyeur trafiqué qui se glisserait subrepticement parmi d'autres robots chargés de faire le ménage dans un ministère berlinois. Un jour, l'intrus passerait à l'attaque après avoir reconnu visuellement le ministre des Finances. Il se rapprocherait de lui et exploserait de façon autonome, tuant sa cible », écrit-il.

                                                                                                    L’éthique comme seul cadre de régulation?

Le débat se focalise actuellement sur les principes éthiques à appliquer à ce domaine sachant qu’il n’est pas susceptible, pour le moment, d’autres systèmes de normalisation.

La complexité du fonctionnement des ‘’robots-informatiques’’ pose un sérieux problème pour les chercheurs impuissant devant cette mécanique complexe. « Il est aujourd'hui impossible d'auditer une décision algorithmique de deep learning », lit-on sur le site www.sciencesetavenir.fr qui a mis en ligne le 30 mars dernier, un long papier de synthèse d’interventions d’éminents chercheurs associés à une rencontre de «trois heures d'intervention et d'échanges lors du sommet AI For Humanity organisé jeudi 29 mars 2018 au Collège de France pour accompagner la remise du rapport de Cédric Villani sur l'intelligence artificielle », ajoute –t-il. Intervenant à ce débat, le mathématicien Stéphane Mallat, titulaire de la chaire en sciences des données du Collège de France, a tenté de résumer la difficulté de lire la mécanique de fonctionnement des algorithmes tout en indiquant que, « parvenir à reconstituer le cheminement logique d'un algorithme, trouver les critères sur lesquels il s'est appuyé, représente, à terme, un gage de transparence, de fiabilité et d'une plus grande confiance en des machines perçues encore comme des “boîtes noires”. » Présente lors de cette rencontre, la mathématicienne américaine Cathy O'Neil, une ancienne conceptrice d’algorithmes pour les milieux financiers, est allé plus loin en soutenant que “Les algorithmes peuvent faire du mal, les algorithmes peuvent mentir” avant de constater que “Facebook est optimisé pour faire du profit, pas pour dire la vérité”. Pour illustre le propos sur les risques encourus devant les progrès non contrôlés de l’IA, la mathématicienne américaine a «  rappelé cette recherche douteuse récente concernant la reconnaissance des homosexuels d'après photo. Ou celle montrant combien les systèmes de reconnaissance faciale étaient plus performants pour les hommes et les blancs que pour les femmes et les noirs », rapporte sciencesetavenir.fr.

Rebondissant sur cette actualité de la colère des employés de Google le site canadien https://ici.radio-canada.ca est revenu sur les risques d’une ‘’Militarisation de l'intelligence artificielle’’ en avisant que, « l’ampleur des dégâts pourrait être sans limites ».

Consultant au Hastings Center, un organisme de recherche en bioéthique situé à New York, Wendell Wallach a publié en juin 2015, un ouvrage intitulé ‘’ A Dangerous Master : How to Keep Technology from Slipping Beyond Our Control  (Un maître dangereux : comment empêcher la technologie de glisser hors de notre contrôle). Celui-ci confirme les appréhendions nées des dérives de la recherche en intelligence artificielle, en expliquant au site canadien que « les développeurs de l’intelligence artificielle sont en train de créer des outils qui peuvent être utilisés de manière malveillante s’ils fonctionnent avec peu ou sans aucune intervention humaine. S’ils sont uniquement développés à des fins militaires, l’ampleur des dégâts pourrait être sans limites. »

La tendance semble se dessiner pour une concertation internationale sur la question de l’éthique de l‘intelligence artificielle mais surtout sur ses implications dans   le domaine de l’armement militaire.

Les discussions au sein du G7 sont un premier pas vers cette action internationale concertée mais pas encore suffisant. «Tant qu’il n’existe pas une loi internationale contraignante, il n’existe pas vraiment de moyen pour limiter l’utilisation de l’intelligence artificielle à des fins militaires », affirme M. Wallach, pour qui : « Sans un traité de non-prolifération des robots tueurs, rien n'empêchera une telle course à l'abîme ».

 

R.M

Santé

Environnement

Société

Destination Algérie

Culture

Histoire

Sciences et Technologies

L'agenda

 

 

Ministère des Ressources en eau

Le ministre des Ressources en eau, Hocine Necib, effectuera, jeudi, une visite de travail et d’inspection dans la wilaya de Bordj Bou Arreridj.

Ministère de la Formation professionnelle

Le ministère de la Formation et de l’Enseignement professionnels organise, jusqu’au 15 septembre, une caravane de sensibilisation autour de son secteur.

Ministère de l’Enseignement supérieur

L’Université Abdelhamid-Ibn-Badis de Mostaganem accueille, jusqu’à jeudi, le 70e colloque de la conférence internationale pour l’étude et l’amélioration de l’enseignement des mathématiques (CIEAEM).

Ministère du Commerce

Le ministre du Commerce, Saïd Djellab, présidera, mercredi à 13h30, au niveau de l’Agence nationale de la promotion du commerce extérieur, une rencontre d’évaluation des propositions du club des exportateurs algériens relatives à la promotion des exportations agricoles.

APN

La Commission des affaires étrangères, de la coopération et de la communauté nationale à l’étranger, présidée par Abdelhamid Si Afif, achèvera mercredi ses visites d’inspection dans certains ports et aéroports.

HCI

Sous le haut patronage du Haut-Conseil islamique et avec la collaboration de l’association Saafi, spécialisée dans la finance islamique, un colloque international sera organisé les 24 et 25 novembre au palais de la culture, à Alger, sur le thème  «L’assurance takâfoul et son rôle dans le développement économique global».

Photo news
  • Tremblement exercice de terre
  • Simulation d’un séisme à Bouira
  • Simulation d’un séisme à Bouira
  • Simulation d’un séisme à Bouira
  • Simulation d’un séisme à Bouira
  • Simulation d’un séisme à Bouira
  • Tremblement exercice de terre
  • Tremblement exercice de terre
  • Simulation d’un séisme à Bouira
  • Simulation d’un séisme à Bouira
  • Conférence de presse Ouyahia
  • Crash d'un Illiouchine de transport militaire près de Boufarik, 257 morts
  • Crash d'un Illiouchine de transport militaire près de Boufarik, 257 morts
  • Crash d'un Illiouchine de transport militaire près de Boufarik, 257 morts
  • Conférence de presse Ouyahia
  • Conférence de presse Ouyahia
  • Conférence de presse Ouyahia
  • Conférence de presse Ouyahia
  • Conférence de presse Ouyahia
  • Conférence de presse Ouyahia

Football

Sports Divers

Reportage

Conception/Kader Hamidi . Hebergement/Kdhosting : kdconcept