Le ministère de l'Intérieur assurait jusqu'ici que l'expérimentation n'irait pas au-delà de la période des Jeux olympiques, même si le texte de la loi prévoyait déjà une prolongation jusqu'au 31 mars 2025.
Je suis curieux de ce qu’il y a dans ces algorithmes, je suppose beaucoup de bullshit vendu très chers. Comment ça réagis à une personne stressé qui tourne en rond en attendant son date, au cycliste qui profite de la place libre devant une ambassade ou une école pour s’arrêter et vérifier un truc qui fait du bruit ou un téléphone en train de tomber de sa poche ? Par contre pour un vrai criminel, le sweet à capuche est déjà à la mode et très efficace pour ne pas être visible du haut. Comment ça se passe en cas de fuite de donnée ?
Il y a pleins d’études qui montrent qu par euro dépensé, la vidéo-surveillance est inefficace, je suppose que les algos sont plus éfficace pour augmenter le cout que l’éfficacité.
Ça réagit comme on le lui demande. Dans la plupart des cas, soit en laissant pisser soit en générant une alerte pour qu’un humain regarde et prenne une décision. Pour chacun de ces cas, ça peut rentrer dans une des choses typiquement recherchées.
à une personne stressé qui tourne en rond en attendant son date,
Maraudage de plus de 300s -> alerte si ça a été configuré.
au cycliste qui profite de la place libre devant une ambassade ou une école pour s’arrêter et vérifier un truc qui fait du bruit
Stationnement devant un endroit stratégique.
ou un téléphone en train de tomber de sa poche ?
dépôt d’ordure ou dépôt de colis suspect.
Ce sont en effet des choses sur lesquelles les algos, tout comme les humains censés être chargés de la surveillance, peuvent générer des alertes. L’avantage des algos, c’est qu’ils ont beaucoup moins de mal à être neutres et non-racistes. Tu configures la maraude de 300s -> ça alertera de la blonde aux yeux bleus en habit bourgeois aussi bien que du SDF noir *. Le 2 poids 2 mesures arrive en fait quand on passe le relais à des humains. Quelque part je serais heureux que ça passe plutôt le relais à des robocops incapables de faire la différence, et que l’ensemble de la population se rendre compte d’à quel point les lois passées sont emmerdantes quand on les applique vraiment à tout le monde.
Notez que pour trouver suspect le fait d’être statique 5 min dans l’espace public, faut déjà être bien parano.
Mais j’aimerais qu’on arrête de foncer sur le chiffon rouge des “algos”. C’est leur déploiement et leur configuration qui sont problématiques et dont on doit parler, pas du fait que ce soit algorithmique, ce qui est en soit est un progrès: ça veut dire que plus des faits sont reportés, d’une façon plus objective et moins coûteuse. Le problème c’est que justement beaucoup d’équilibres dans notre société reposent sur le fait que certaines lois ne sont justement pas correctement ni systématiquement appliquées. Le coeur du problème est là.
Parce qu’il y a quand même des potentiels d’avancée assez considérables pour la vie privée dans le déploiement d’algos plutôt que d’humains: Si tu déploies un système de video surveillance pour alerter des vols dans une entreprise, tu n’as besoin d’avoir d’alertes que pour ça, t’as pas besoin des videos de quand André et Ahmed se roulent des pelles dans le fond de l’entrepôt. Bien conçu un tel système peut ne conserver réellement que les informations utiles à sa mission et pas le reste.
Il y a pleins d’études qui montrent qu par euro dépensé, la vidéo-surveillance est inefficace, je suppose que les algos sont plus éfficace pour augmenter le cout que l’éfficacité.
Si ta métrique est le “fait signalé par euro dépensé”, si tu baisses le cout, tu augmente l’efficacité économique (à nombre de signalements corrects égaux, ce que je pense que les algos n’ont pas de problème à faire). La critique de la video-surveillance est plutôt en général qu’elle déplace les problèmes: quand une caméra est installée, les crimes se déplacent hors de sa zone mais ne baissent pas dans la zone globale.
* Si vous voulez parler du racisme qui émerge de certains entraînements de modèle, on peut, mais sachez que ce n’est absolument pas systématique et que s’en prémunir ou non est une volonté politique, pas une contrainte technique.
Je te rejoins tout à fait. Mais critiquez pas la matraque, critiquez celui qui l’utilise, et adaptons la lutte. C’est bien plus facile de corriger le racisme dans un algo que dans une institution de 100 000 personnes. Exigeons que ces algos soient ouverts et examinables, ainsi que les façons de leurs configurations.
Mettez vous un moment dans la peau d’un dirigeant raciste qui décide de faire taper sur les Arabes. Vous faites une réunion avec quelques préfets, vous leur dites des trucs plein de dogwhistles “Bon, maintenant je veux qu’on embarque plus facilement les gens louches et que la peur change de camp. Faut pas se mentir, les suspect on les reconnaît vite. Vous m’avez compris.”
L’algo, lui, il a pas compris. Il regarde pas CNews et si on veut l’inspecter, on peut facilement le “mettre sur le grill” pour tester ses biais. Vous devez à ce moment là, si vous voulez les rendre racistes, donner des ordres et instructions, écrites, prouvable et aisément annulables ou vous taper tout l’entraînement sur des données racistes.
Il faut, c’est clair et certain, des organismes de contrôle (on peut pas filer plus de pouvoir à la CNIL par exemple?) mais l’organisation technique du contrôle est bien plus facile et bien plus objective. Son absence en est d’autant moins excusable et c’est là qu’il faut appuyer.
vous taper tout l’entraînement sur des données racistes.
Effectivement, et ça ne semble pas un scénario impossible non plus.
En fait de mon côté j’ai l’impression que aglos ou pas, les politiques trouveront toujours le moyen d’appliquer leurs politiques, ça ne changera pas grand chose de ce côté là. Les polítiques vont surveiller de très près les résultats fournis par les algos, et les modifier tant qu’ils ne correspondront pas à leurs attentes
Ce qui nous sauve, c’est que ces gens pensent que leurs biais racistes sont la réalité. Que si tu enlèves tout biais “woke” tu te retrouves avec un système qui justifie leur modèle du monde. La plupart accueillent comme des évolutions favorables les systèmes “neutres” sans se rendre compte qu’ils sont “biaisés” contre leur point de vue du monde.
Effectivement, et ça ne semble pas un scénario impossible non plus.
C’est en effet pas impossible d’entraîner un système raciste, mais c’est pas facile à cacher. Il suffirait d’une loi disant que la CNIL ou une résurrection de la HALDE doit avoir accès aux modèles des caméras auto à des fins de tests de discrimination pour corriger tout ce système. Bien sur que les racistes vont y résister mais ce combat là est bien plus facile à gagner pour nous. Ça demande juste une loi, très peu de budget et de personnel pour un gain immense.
J’ai été victime d’une grosse incivilité (une voiture c’est arrêté et m’a aspergé avec une bouteille), j’ai demandé les enregistrements vidéos, ou alors qu’ils me donnent la plaque d’immatriculation.
J’ai donné l’heure exacte, et une plaque d’immatriculation partielle.
C’était il y a 3 mois, j’ai toujours pas eu de réponse.
C’est bien le problème des bandes vidéos, si personne ne les regarde, ça ne sert à rien.
La réalité c’est qu’il y a un nombre finit de policiers et de juges, et qu’une partie du boulot des commissaires de polices et procureurs c’est de gerer le manque de ressource en jetant tous les cas mineurs à la poubelle La technologie ne réglera pas grand chose
Je suis curieux de ce qu’il y a dans ces algorithmes, je suppose beaucoup de bullshit vendu très chers. Comment ça réagis à une personne stressé qui tourne en rond en attendant son date, au cycliste qui profite de la place libre devant une ambassade ou une école pour s’arrêter et vérifier un truc qui fait du bruit ou un téléphone en train de tomber de sa poche ? Par contre pour un vrai criminel, le sweet à capuche est déjà à la mode et très efficace pour ne pas être visible du haut. Comment ça se passe en cas de fuite de donnée ?
Il y a pleins d’études qui montrent qu par euro dépensé, la vidéo-surveillance est inefficace, je suppose que les algos sont plus éfficace pour augmenter le cout que l’éfficacité.
Déjà, sain petit rappel sur les algorithmes. Ensuite, je vais faire une défense prudente des algorithmes et une critique de leur déploiement:
Ça réagit comme on le lui demande. Dans la plupart des cas, soit en laissant pisser soit en générant une alerte pour qu’un humain regarde et prenne une décision. Pour chacun de ces cas, ça peut rentrer dans une des choses typiquement recherchées.
Maraudage de plus de 300s -> alerte si ça a été configuré.
Stationnement devant un endroit stratégique.
dépôt d’ordure ou dépôt de colis suspect.
Ce sont en effet des choses sur lesquelles les algos, tout comme les humains censés être chargés de la surveillance, peuvent générer des alertes. L’avantage des algos, c’est qu’ils ont beaucoup moins de mal à être neutres et non-racistes. Tu configures la maraude de 300s -> ça alertera de la blonde aux yeux bleus en habit bourgeois aussi bien que du SDF noir *. Le 2 poids 2 mesures arrive en fait quand on passe le relais à des humains. Quelque part je serais heureux que ça passe plutôt le relais à des robocops incapables de faire la différence, et que l’ensemble de la population se rendre compte d’à quel point les lois passées sont emmerdantes quand on les applique vraiment à tout le monde.
Notez que pour trouver suspect le fait d’être statique 5 min dans l’espace public, faut déjà être bien parano.
Mais j’aimerais qu’on arrête de foncer sur le chiffon rouge des “algos”. C’est leur déploiement et leur configuration qui sont problématiques et dont on doit parler, pas du fait que ce soit algorithmique, ce qui est en soit est un progrès: ça veut dire que plus des faits sont reportés, d’une façon plus objective et moins coûteuse. Le problème c’est que justement beaucoup d’équilibres dans notre société reposent sur le fait que certaines lois ne sont justement pas correctement ni systématiquement appliquées. Le coeur du problème est là.
Parce qu’il y a quand même des potentiels d’avancée assez considérables pour la vie privée dans le déploiement d’algos plutôt que d’humains: Si tu déploies un système de video surveillance pour alerter des vols dans une entreprise, tu n’as besoin d’avoir d’alertes que pour ça, t’as pas besoin des videos de quand André et Ahmed se roulent des pelles dans le fond de l’entrepôt. Bien conçu un tel système peut ne conserver réellement que les informations utiles à sa mission et pas le reste.
Si ta métrique est le “fait signalé par euro dépensé”, si tu baisses le cout, tu augmente l’efficacité économique (à nombre de signalements corrects égaux, ce que je pense que les algos n’ont pas de problème à faire). La critique de la video-surveillance est plutôt en général qu’elle déplace les problèmes: quand une caméra est installée, les crimes se déplacent hors de sa zone mais ne baissent pas dans la zone globale.
* Si vous voulez parler du racisme qui émerge de certains entraînements de modèle, on peut, mais sachez que ce n’est absolument pas systématique et que s’en prémunir ou non est une volonté politique, pas une contrainte technique.
Vu les propos du ministre de l’Intérieur actuel, ce n’est pas forcément hyper rassurant
Je te rejoins tout à fait. Mais critiquez pas la matraque, critiquez celui qui l’utilise, et adaptons la lutte. C’est bien plus facile de corriger le racisme dans un algo que dans une institution de 100 000 personnes. Exigeons que ces algos soient ouverts et examinables, ainsi que les façons de leurs configurations.
Mettez vous un moment dans la peau d’un dirigeant raciste qui décide de faire taper sur les Arabes. Vous faites une réunion avec quelques préfets, vous leur dites des trucs plein de dogwhistles “Bon, maintenant je veux qu’on embarque plus facilement les gens louches et que la peur change de camp. Faut pas se mentir, les suspect on les reconnaît vite. Vous m’avez compris.”
L’algo, lui, il a pas compris. Il regarde pas CNews et si on veut l’inspecter, on peut facilement le “mettre sur le grill” pour tester ses biais. Vous devez à ce moment là, si vous voulez les rendre racistes, donner des ordres et instructions, écrites, prouvable et aisément annulables ou vous taper tout l’entraînement sur des données racistes.
Il faut, c’est clair et certain, des organismes de contrôle (on peut pas filer plus de pouvoir à la CNIL par exemple?) mais l’organisation technique du contrôle est bien plus facile et bien plus objective. Son absence en est d’autant moins excusable et c’est là qu’il faut appuyer.
Effectivement, et ça ne semble pas un scénario impossible non plus.
En fait de mon côté j’ai l’impression que aglos ou pas, les politiques trouveront toujours le moyen d’appliquer leurs politiques, ça ne changera pas grand chose de ce côté là. Les polítiques vont surveiller de très près les résultats fournis par les algos, et les modifier tant qu’ils ne correspondront pas à leurs attentes
Ce qui nous sauve, c’est que ces gens pensent que leurs biais racistes sont la réalité. Que si tu enlèves tout biais “woke” tu te retrouves avec un système qui justifie leur modèle du monde. La plupart accueillent comme des évolutions favorables les systèmes “neutres” sans se rendre compte qu’ils sont “biaisés” contre leur point de vue du monde.
C’est en effet pas impossible d’entraîner un système raciste, mais c’est pas facile à cacher. Il suffirait d’une loi disant que la CNIL ou une résurrection de la HALDE doit avoir accès aux modèles des caméras auto à des fins de tests de discrimination pour corriger tout ce système. Bien sur que les racistes vont y résister mais ce combat là est bien plus facile à gagner pour nous. Ça demande juste une loi, très peu de budget et de personnel pour un gain immense.
Quand on voit que CNEws est toujours sur la TNT malgré tous les rappels à l’ordre, j’ai l’impression que les lois ne suffisent pas malheureusement
En effet: Les lois sont appliquées par l’exécutif, on a un exécutif collaborationniste. Le problème actuel vient pas des lois en l’occurrence.
J’ai été victime d’une grosse incivilité (une voiture c’est arrêté et m’a aspergé avec une bouteille), j’ai demandé les enregistrements vidéos, ou alors qu’ils me donnent la plaque d’immatriculation.
J’ai donné l’heure exacte, et une plaque d’immatriculation partielle.
C’était il y a 3 mois, j’ai toujours pas eu de réponse.
C’est bien le problème des bandes vidéos, si personne ne les regarde, ça ne sert à rien. La réalité c’est qu’il y a un nombre finit de policiers et de juges, et qu’une partie du boulot des commissaires de polices et procureurs c’est de gerer le manque de ressource en jetant tous les cas mineurs à la poubelle La technologie ne réglera pas grand chose