Élu gratuit par nos abonné.e.s

À court d’influence diplomatique, l’ONU a mandaté une start-up d’IA pour simuler Israël et la Palestine et tester des solutions. En miroir, Israël collecte lui aussi des données pour optimiser son massacre. IA de paix, IA de guerre : un même processus de déshumanisation.

Rétrospectivement, c’était inévitable. L’objet politico-médiatique qu’est l’invasion de la Palestine allait nécessairement finir par croiser la route de l’intelligence artificielle, l’autre objet politico-médiatique catalyseur de WTF de l’année 2023, pour nous offrir la collaboration la moins inspirée de la grande histoire du techno-solutionnisme. C’est chose faite et, grâce à un article de Wired publié le 2 novembre dernier, on connait le nom des gagnants du concours Lépine de l’indécence : la start-up Culture Pulse, soutenue par… l’ONU. Et c’est déjà plus inattendu. Pourtant, comme le dévoile Wired en nous priant dès le chapô de “ne pas rouler des yeux” (ce qui n’est jamais bon signe), les faits sont là : en août dernier (à leur décharge, donc, avant l’attaque du 7 octobre et l’invasion militaire en cours), l’ONU a embauché Culture Pulse pour développer un modèle d’IA capable d’imaginer, puis de tester, des “solutions” au conflit israélo-palestinien. Et là, je vous vois, mauvais esprits, en train de rouler des yeux. Alors sachez que les fondateurs de Culture Pulse, F. LeRon Shults et Justin Lane, ont conscience que leur projet puisse paraître, disons, un peu agaçant, et s’empressent de préciser que “le modèle n’est pas conçu pour résoudre la situation ; il est fait pour comprendre, analyser, et obtenir des informations sur la manière d’implémenter des politiques et des stratégies de communication.” Et si vous commencez à sentir le doux fumet de la techno-bullshit, vous êtes de mauvais esprits. (…)

  • @keepthepace@slrpnk.net
    link
    fedilink
    Français
    26 months ago

    Un peu déçu par Arrêt sur Images sur ce coup là.

    Je comprends qu’on puisse être sceptique de la démarche ou que la firme employée soit la bonne, mais dans ce cas là faut donner des éléments pour le croire. Cet article vire à la facilité. Réduisant tout un domaine à un “catalyseur de WTF de l’année 2023”

    Et je ne connais pas cette boite, il est tout à fait possible que ce soit des loufoques, mais l’approche qu’ils proposent est nouvelle et, à mon avis, vaut le coup d’explorer.

    Voilà. Le mot est lâché : jouer. On simule Israël et les Territoires palestiniens occupés sur un ordinateur, et on modifie les variables pour voir ce que ça donne. On fait de l’A/B testing diplomatique.

    Vous savez qui d’autre “joue”? Les militaire. On appelle pas ça de l’A/B mais des wargames, «jeux de guerre», ne sont pas des jeux, mais de sérieuses simulations pour essayer de préparer différents scénarios et combler des faiblesses, éviter des catastrophes. Là on parle de créer des “wargames” diplomatiques. Je trouve ça en fait assez génial, car c’est quelque chose que les diplomates pouvaient jusqu’à présent moins bien faire que les militaires. Je m’explique.

    Les militaires font en général leur simulation en formant une équipe d’opposition qui va jouer le rôle de l’ennemi. C’est imparfait mais ça marche assez car on a généralement une bonne idée des objectifs de l’ennemi: conquérir du terrain, détruire les capacités d’en face, protéger ses propres capacités. Pas besoin de vraiment simuler les valeurs humaines de l’ennemi: en tentant de “jouer” de façon optimale, on peut dévier de la réalité où incompétence, corruption ou éthique et même morale vont dans la réalité rendre l’ennemi moins fort militairement, mais ce n’est pas très grave, le résultat est qu’on pèche par excès de prudence, un moindre mal.

    En diplomatie, les buts sont moins clairs. Si la “red team” qui va simuler le camp d’en face savait bien se mettre dans sa peau, la diplomatie aurait du mal à se bloquer. Oui, les modèles de langage (“IA” dans cet article qui ne s’embarrasse pas de détails techniques) sont capables d’imaginer les réactions de certains humains et peuvent jouer un rôle à partir des bonnes données. L’exercice, tout comme les wargames militaires, a évidemment une limite, la question est de savoir si ça peut aller plus loin que ce que les humains actuels font.

    Peut être qu’Israel a besoin d’un logiciel pour comprendre que massacrer des civils engendre de la violence terroriste? Peut être que le Hamas a besoin de wargames pour comprendre qu’il ne va pas conquérir Israel même en jetant tous les Palestiniens dans le broyeur?

    La faiblesse de cette approche est sûrement de supposer que les deux camps vont utiliser ces simulations pour tenter de trouver une paix durable plutôt que l’éradication de leur adversaire, et je doute que si l’ONU trouve des «scénarios gagnants» dans cette approche ils arrivent à la pousser plus efficacement que les nombreuses résolutions restées lettre morte par véto des US.

    La question est moins dans la tech employée que dans les buts qu’on lui fixe, je trouve que cet article manque vraiment à ce à quoi Arrêt sur Images m’a habitué: une analyse en profondeur et en contexte.