En ce moment

Titre

Artiste

[qt-onairmini]

[qt-onairmini]


  • Non classé

L’IA entre en guerre

Écrit par le 10 avril 2024


[ad_1]

“Le premier conflit de l’IA” : voilà comment le magazine Time évoquait la guerre en Ukraine en couverture de son édition du 26 février. Dans une très longue enquête, l’hebdomadaire américain revenait sur la visite du PDG de Palantir, Alex Karp (décrit comme le “marchand d’armes assistées par l’IA du XXIe siècle”), à Volodymyr Zelensky, en juin 2022. Puis Microsoft, Amazon, Google et Starlink ont très vite afflué en Ukraine, où ils ont pu explorer en temps réel les hypothèses les plus avancées de leurs systèmes d’intelligence artificielle appliqués au renseignement et au combat. Créant ainsi, selon Time, un “laboratoire de la guerre du futur”.

Depuis, cette analyse a trouvé un large écho dans la presse étrangère. Celle-ci ne cache plus son inquiétude à l’égard du pouvoir des “robots tueurs” qui échappent de plus en plus à toute supervision humaine. Cela justifiait largement un dossier, au vu notamment des dernières révélations sur la stratégie israélienne à Gaza.

“Jusqu’au début de la guerre en Ukraine, il y a un peu plus de deux ans, on ne laissait pas les systèmes d’armes létales autonomes (Sala), aussi appelés ‘robots tueurs’, appuyer sur la gâchette, écrit ainsi le quotidien espagnol ABC. Le principe généralement appliqué était celui de l’‘humain dans la boucle’ : la décision et la responsabilité revenaient toujours, en dernier ressort, à un ­facteur humain.”

Mais voilà, les “lois de la robotique” énoncées en leur temps par l’écrivain et figure tutélaire de la science-fiction Isaac Asimov, et qui stipulent qu’en aucun cas un robot ne peut porter atteinte à un être humain, semblent avoir vécu.

“La ligne rouge a été franchie, et pas seulement par des pays en guerre ou des entreprises de la tech”, déplore ainsi Andrian Kreye dans la Süddeutsche Zeitung. Chez les chercheurs, explique l’auteur, la règle tacite selon laquelle il ne faudrait pas travailler à la création de “robots tueurs” ni utiliser l’intelligence artificielle à des fins militaires n’est plus en vigueur. Le poids des grandes puissances dans la course aux armements est trop fort, et les négociations pour interdire les armes autonomes ont désormais peu de chances d’aboutir.

Pourtant, il y a urgence. Car les intelligences sont loin d’être infaillibles, comme l’ont très bien montré +972 Magazine et Local Call. À la fin de l’année dernière, les deux médias avaient déjà publié une enquête sur l’IA Habsora (“Évangile” en français), utilisée par Tsahal dans sa guerre contre le Hamas. Le 3 avril, ils ont en plus révélé l’emploi d’une autre IA à des fins militaires, particulièrement meurtrière.

“À Gaza, le système Lavender a désigné 37 000 cibles humaines”, explique dans une interview à Courrier international Meron Rapoport, rédacteur en chef du site israélien Local Call. Résultat : “De plus en plus de civils sont touchés, et non plus uniquement des membres du Hamas”, et pour une raison, très précise :

“La partie vérification humaine, qui doit s’assurer que la personne visée est bien la bonne, a été réduite au minimum, pas plus de vingt secondes dans certains cas, si bien que les soldats chargés de cette vérification ont le sentiment de simplement devoir entériner le choix de la machine”.

Malgré ces doutes, les erreurs répétées et le nombre de civils tués, Israël continue d’accorder une confiance démesurée à l’intelligence artificielle. Cela n’a pourtant pas empêché les attaques du 7 octobre.

Aujourd’hui, c’est de fait tout l’“art de la guerre” qui se trouve bouleversé. Avec des conséquences déjà dévastatrices et de futures menaces sans doute bien plus grandes si les IA venaient à participer par exemple à la création d’armes biologiques, comme s’en inquiétaient récemment une centaine de chercheurs dans un texte publié par The New York Times. Ou, pis encore, si elles prenaient la main sur des armes nucléaires. En effet, les grands modèles de langage (du type de ceux utilisés pour ChatGPT) ont tendance à vouloir utiliser les armes pour… résoudre les conflits, a démontré une équipe de chercheurs citée par The Atlantic.

ABC rapporte de son côté cette anecdote, glaçante, à propos d’une expérience de pilotage de F-16 par une IA, menée par les Américains : “Lors d’une simulation où son opérateur ne l’autorisait pas à attaquer des ennemis qu’elle avait identifiés, l’IA avait décidé de tuer son opérateur.” Il est peut-être temps en effet de reprendre le contrôle.

Retrouvez tous nos articles sur l’intelligence artificielle dans la rubrique IA sur notre site, à découvrir ici.

[ad_2]

Source link