Faut-il avoir peur des robots ?
Search
Vendredi 19 Avril 2019
Journal Electronique

Par Rachid Moussa

A la faveur de quelques faits d’actualité, notamment un accident de voiture sans conducteur et la « révolte » des travailleurs de Google contre la collaboration de leur entreprise avec des programmes d’armement de l’armée américaine, la question de la régulation de la recherche en intelligence artificielle, ne serait pas que par un cadre éthique, revient sur le devant de la scène médiatique.

Le vieux débat sur le rapport entre l’Homme et la machine refait surface ces derniers jours avec des points de critiques sur des programmes de recherche en IA (intelligence artificielle) source de motifs d’inquiétude au niveau de l’opinion publique, mais en même temps sujet de discussions dans les milieux scientifiques et même politiques.

Au mois de mars dernier, un véhicule sans conducteur, mis en circulation par la société de location de voiture Uber, percute et tue une jeune femme près de Phoenix, en Arizona, aux Etats-Unis. Suffisant pour remettre une nouvelle couche de doute, d’interrogations et de critique sur les conséquences du règne des ‘’machines’’ sur l’humain. Mais cela n ‘a pas eu beaucoup de retentissement si l’on considère la nouvelle affaire que viennent de mettre sur la place publique les travailleurs de Google. « Des employés de Google se révoltent contre leur employeur et démissionnent. Voilà ce qu'on a appris ces derniers jours. La raison de ces départs ? Ils estiment que leur société a franchi un pas en trop, à savoir aider le Pentagone, donc l'armée américaine, à développer un programme d'intelligence artificielle à des fins militaires », écrit le site http://trends.levif.be, dans un papier mis en ligne le 16 mai dernier sous le titre «  "Robots-tueurs": "Terminator était un film hier, il devient réalité aujourd'hui" ».

                                                                                                     Google pointé du doigt

Hormis quelques démissions enregistrées il y a quelques temps, effectivement ce ne sont pas moins que 5% de ses travailleurs, soit 4000 employés qui ont signé une pétition, publiée dans la presse américaine dans laquelle ils demandent « à la direction de Google de rester en-dehors d'une technologie potentiellement utilisée pour tuer », ajoute ce site. La collaboration de l’armée américaine avec la puissance algorithmique et le potentiel en recherche et développement de Google lui permet en effet   de parfaire ses capacités d’analyse des images et donc de mieux mettre à contribution les fameux drones. Le journaliste du site belge rappelle que « si les drones américains ont d'abord été utilisés pour effectuer des missions de surveillance, depuis l'invasion militaire de l'Afghanistan, puis l'invasion de l'Irak, ces drones ont depuis lors été utilisés comme engins de mort », avant d’alerter sur de possibles dérives en avisant que cette « intelligence artificielle pourra piloter demain des fusils, des missiles ou des bombes. Autant d'armes qui pourront fonctionner sans supervision humaine en théorie. »

L’affaire survient à un moment crucial pour Google qui ne doit être insensible aux déboires de Facebook encore sous le choc depuis l‘affaire Cambridge Analytica qui a vu les algorithmes traiter de millions de données personnelles et en tirer des caractéristiques de profil exploités pour les besoins d’une campagne électorale. D’autant que des voix de renom se sont associées à la démarche des employés de Google pour mettre « en garde régulièrement contre les usages abusifs de l'intelligence artificielle, craignant notamment l'avènement d'armes autonomes, ou ‘’robots-tueurs’’», lit-on dans un papier du site suisse tdg.ch, daté du 8 juin. Membre du «Partnership on Artificial Intelligence» engagé sur des usages éthiques de l'IA,

Le moteur de recherche a déclaré par la voix de son premier responsable qu’il œuvrerait pour des recherches à impact positif pour la société ; « Il exclut donc des utilisations de l'IA pour élaborer des ‘’armes’’ ou ‘’autres technologies dont le but principal est de causer ou de faciliter directement des blessures’’, selon le site suisse qui ajoute que Google s’oppose à toute recherche «qui entraîne ou est susceptible de causer du mal».

                                                                                                            La prise de conscience

Le sujet est pris au sérieux à bien des niveaux, y compris au sommet du G7 qui vient de se terminer au Canada, avec à l’ordre du jour cette problématique de l’IA. Lors des travaux préparatoires à ce sommet, les ministres du G7 en charge de l’innovation « se sont entendus sur certaines approches communes en matière d'intelligence artificielle et sur une liste de pratiques exemplaires » selon le ministre canadien du Développement social, de  même qu’ils ont adopté « une « vision commune d'une IA centrée sur l'humain, une vision qui exige d'aborder avec soin le développement et le déploiement de cette technologie prometteuse », d’après le texte de la Déclaration conjointe de Montréal.

Mais c’est au niveau de la communauté scientifique et universitaire que la prise de conscience est la plus avancée avec de nombreux travaux et rencontre scientifiques dédiés à la question de l’impact de l’IA. Sur le site https://quebec.huffingtonpost.ca, Stéphanie TessierDeep Learning chez Montreal.AI aborde, dans un papier mis en ligne le 15 mars 2017, la question de l’éthique comme unique fondement pour le moment pour encadrer la recherche en la matière.  « Quels seront les droits et les devoirs des robots et de leurs créateurs? Les robots peuvent-ils être conscients pour différencier le bien du mal? », s’interroge-t-il, avant d’ajouter qu’avec tout cela, il y a nécessairement une remise au gout du jour des ‘’ Trois lois de la robotique d'Asimov’’. Elles ont été énoncées en 1942 par l'auteur américain d'origine russe Isaac Asimov dans une nouvelle intitulé ‘’Cycle fermé’’. D’après le site numerama.com, ces «  trois lois de la robotique furent le fruit de discussions entre Isaac Asimov et John Campbell autour du thème des robots », et se présentent ainsi : « loi numéro 1 : un robot ne peut porter atteinte à un être humain ni, restant passif, permettre qu'un être humain soit exposé au danger ; loi numéro 2 : un robot doit obéir aux ordres que lui donne un être humain, sauf si de tels ordres entrent en conflit avec la première loi ; loi numéro 3 : un robot doit protéger son existence tant que cette protection n'entre pas en conflit avec la première ou la deuxième loi. »

De leur côté des scientifiques issus des universités américaines de Cambridge, Oxford, Yale, Stanford et d’associations OpenAI, Center for a New American Security, Electronic Frontier Foundation ont rendu public, début 2018, un rapport intitulé ‘’The Malicious Use of Artificial Intelligence’’ ans lequel ils mettent en garde contre les possibles usages malveillants des avancées de l’intelligence artificielle. Le site français futura-sciences.com qui a traité de ce document souligne que « dans les dix prochaines années, l'efficacité croissante de l'IA risque de renforcer la cybercriminalité mais aussi de conduire à des utilisations de drones ou de robots à des fins terroristes. Celle-ci est aussi susceptible de faciliter la manipulation d'élections via les réseaux sociaux grâce à des comptes automatisés (bots). » Les experts ont passé en revue différents cas de mésusages des technologies de l’IA et de la robotique, en illustrant leur propos, toujours selon futura-sciences.com, par « le cas d'un robot nettoyeur trafiqué qui se glisserait subrepticement parmi d'autres robots chargés de faire le ménage dans un ministère berlinois. Un jour, l'intrus passerait à l'attaque après avoir reconnu visuellement le ministre des Finances. Il se rapprocherait de lui et exploserait de façon autonome, tuant sa cible », écrit-il.

                                                                                                    L’éthique comme seul cadre de régulation?

Le débat se focalise actuellement sur les principes éthiques à appliquer à ce domaine sachant qu’il n’est pas susceptible, pour le moment, d’autres systèmes de normalisation.

La complexité du fonctionnement des ‘’robots-informatiques’’ pose un sérieux problème pour les chercheurs impuissant devant cette mécanique complexe. « Il est aujourd'hui impossible d'auditer une décision algorithmique de deep learning », lit-on sur le site www.sciencesetavenir.fr qui a mis en ligne le 30 mars dernier, un long papier de synthèse d’interventions d’éminents chercheurs associés à une rencontre de «trois heures d'intervention et d'échanges lors du sommet AI For Humanity organisé jeudi 29 mars 2018 au Collège de France pour accompagner la remise du rapport de Cédric Villani sur l'intelligence artificielle », ajoute –t-il. Intervenant à ce débat, le mathématicien Stéphane Mallat, titulaire de la chaire en sciences des données du Collège de France, a tenté de résumer la difficulté de lire la mécanique de fonctionnement des algorithmes tout en indiquant que, « parvenir à reconstituer le cheminement logique d'un algorithme, trouver les critères sur lesquels il s'est appuyé, représente, à terme, un gage de transparence, de fiabilité et d'une plus grande confiance en des machines perçues encore comme des “boîtes noires”. » Présente lors de cette rencontre, la mathématicienne américaine Cathy O'Neil, une ancienne conceptrice d’algorithmes pour les milieux financiers, est allé plus loin en soutenant que “Les algorithmes peuvent faire du mal, les algorithmes peuvent mentir” avant de constater que “Facebook est optimisé pour faire du profit, pas pour dire la vérité”. Pour illustre le propos sur les risques encourus devant les progrès non contrôlés de l’IA, la mathématicienne américaine a «  rappelé cette recherche douteuse récente concernant la reconnaissance des homosexuels d'après photo. Ou celle montrant combien les systèmes de reconnaissance faciale étaient plus performants pour les hommes et les blancs que pour les femmes et les noirs », rapporte sciencesetavenir.fr.

Rebondissant sur cette actualité de la colère des employés de Google le site canadien https://ici.radio-canada.ca est revenu sur les risques d’une ‘’Militarisation de l'intelligence artificielle’’ en avisant que, « l’ampleur des dégâts pourrait être sans limites ».

Consultant au Hastings Center, un organisme de recherche en bioéthique situé à New York, Wendell Wallach a publié en juin 2015, un ouvrage intitulé ‘’ A Dangerous Master : How to Keep Technology from Slipping Beyond Our Control  (Un maître dangereux : comment empêcher la technologie de glisser hors de notre contrôle). Celui-ci confirme les appréhendions nées des dérives de la recherche en intelligence artificielle, en expliquant au site canadien que « les développeurs de l’intelligence artificielle sont en train de créer des outils qui peuvent être utilisés de manière malveillante s’ils fonctionnent avec peu ou sans aucune intervention humaine. S’ils sont uniquement développés à des fins militaires, l’ampleur des dégâts pourrait être sans limites. »

La tendance semble se dessiner pour une concertation internationale sur la question de l’éthique de l‘intelligence artificielle mais surtout sur ses implications dans   le domaine de l’armement militaire.

Les discussions au sein du G7 sont un premier pas vers cette action internationale concertée mais pas encore suffisant. «Tant qu’il n’existe pas une loi internationale contraignante, il n’existe pas vraiment de moyen pour limiter l’utilisation de l’intelligence artificielle à des fins militaires », affirme M. Wallach, pour qui : « Sans un traité de non-prolifération des robots tueurs, rien n'empêchera une telle course à l'abîme ».

 

R.M

Santé

Environnement

Destination Algérie

Culture

Histoire

Sciences et Technologies

L'agenda

 Forum de la mémoire
Le forum d’El Moudjahid et l’association Machaâl Echahid organisent, le 17 avril à 10h, une rencontre-débat sur le rôle des sportifs algériens durant la lutte de Libération, commémorant un double anniversaire, celui de la mort du chahid Souidani Boudjemaâ et celui de la  création de l’équipe de football du FLN.

HCLA
Le Haut-Conseil de la langue arabe organise le 18 avril à 9h30, à l’hôtel d’El Biar, Ben Aknoun, la cérémonie de mise en place de la commission algérienne du dictionnaire historique.

Musée national du moudjahid    

Le Musée national du moudjahid organise,  le 17 avril à 10h, la 205e rencontre au lycée des frères Draoui de Boumerdès, autour de l’enseignement pendant la guerre de Libération nationale.

 

 Sicom-2019
Le 28e Salon international de l’informatique, de la bureautique et de la communication aura lieu,  le 13 avril à 13h30, au Palais des expositions de la Safex (Pins Maritimes, Alger).

 

 

ONCI
A l’occasion de la Journée nationale du savoir Youm El Ilm, l’Office national de la culture et de l’information offre un programme varié au niveau de ses espaces.

Protection civile
Dans le cadre du développement et de la modernisation du secteur de la Protection civile, particulièrement dans le domaine des ressources humaines, la Direction générale organise, le 18 avril, dans la wilaya de Jijel, un cycle de formation sur les techniques de plongée subaquatique au profit de 24 officiers formateurs.
 USTO
Un workshop international dédié à la cryptologie et ses applications est prévu les 22 et 23 avril à l’Université des sciences et de la technologie Mohamed-Boudiaf d’Oran, à l’initiative de son laboratiore de codage et de la sécurité de l’information.

Musée de l’enluminure
Une exposition collective composée d’une vingtaine d’œuvres, intitulée «Charme et gaîté de la miniature algérienne», se tient jusqu’au 18 avril au Musée national de l’enluminure, de la miniature et de la calligraphie à La Casbah d’Alger.

Galerie Espaco
L’artiste peintre Denis Martinez présentera, jusqu’au 4 mai, sa nouvelle exposition de peinture intitulée «Bahaz Khouya Gnaoui Blidi Hkayet aâchra» (histoire d’une complicité), à la galerie Espaco.

 

 

TNA
La scène du Théâtre national algérien Mahieddine Bachtarzi  accueillera, le mercredi 21 novembre à 18h,  une représentation de «Macbett», la pièce originale d’Eugène Ionesco, adaptée par le metteur en scène algérien Ahmed Khoudi.

 Institut français d’Oran
L’Institut français d’Oran organise, tous les samedis jusqu’au 27 juillet prochain, de 14h à 16h, des ateliers de slam.

Photo news
  • ligne maritime  Alger-Tamentfoust
  • ligne maritime  Alger-Tamentfoust
  • ligne maritime  Alger-Tamentfoust
  • ligne maritime  Alger-Tamentfoust
  • ligne maritime  Alger-Tamentfoust
  • ligne maritime  Alger-Tamentfoust
  • ligne maritime  Alger-Tamentfoust
  • ligne maritime  Alger-Tamentfoust
  • Exercice démonstratif combiné avec munitions réelles «Assifa 2018» à In Aménas
  • Exercice démonstratif combiné avec munitions réelles «Assifa 2018» à In Aménas
  • Exercice démonstratif combiné avec munitions réelles «Assifa 2018» à In Aménas
  • Exercice démonstratif combiné avec munitions réelles «Assifa 2018» à In Aménas
  • Exercice démonstratif combiné avec munitions réelles «Assifa 2018» à In Aménas
  • Exercice démonstratif combiné avec munitions réelles «Assifa 2018» à In Aménas
  • Exercice démonstratif combiné avec munitions réelles «Assifa 2018» à In Aménas
  •  Exercice démonstratif combiné avec munitions réelles «Assifa 2018» à In Aménas
  • Exercice démonstratif combiné avec munitions réelles «Assifa 2018» à In Aménas
  • Exercice démonstratif combiné avec munitions réelles «Assifa 2018» à In Aménas
  • École El Melah
  • École El Melah

Football

Sports Divers

Conception/Kader Hamidi . Hebergement/Kdhosting : kdconcept