« Score de suspicion » visant à évaluer l’honnêteté des chômeur·ses, « score d’employabilité » visant à mesurer leur « attractivité », algorithmes de détection des demandeur·ses d’emploi en situation de « perte de confiance », en « besoin de redynamisation » ou encore à « risque de dispersion »… France Travail multiplie les expérimentations de profilage algorithmique des personnes sans emploi.
Au nom de la « rationalisation » de l’action publique et d’une promesse « d’accompagnement personnalisé » et de « relation augmentée », se dessine ainsi l’horizon d’un service public de l’emploi largement automatisé. Cette automatisation est rendue possible par le recours à une myriade d’algorithmes qui, de l’inscription au suivi régulier, se voient chargés d’analyser nos données afin de mieux nous évaluer, nous trier et nous classer. Soit une extension des logiques de surveillance de masse visant à un contrôle social toujours plus fin et contribuant à une déshumanisation de l’accompagnement social.
Un scandale a fait des vagues et illustre quelques aspects importants de notre conception de la numérisation. Il s'agit de la Poste britannique (British Post Office), d'un grand système informatique qui n'a pas fonctionné comme prévu, qui a brisé des vies, et de l'incapacité de nos mécanismes de contrôle à le surveiller correctement.
Comment dialoguer et partager une réalité commune quand même les espaces de conversation des plateformes sont individualisés ?
She has a real good example of how algorithms on platforms like Instagram not only try to make you addicted but also divide us even more
I real LOVE the fact Mastodon and most of the Fediverse software avoids this all together
Elle a un très bon exemple de la façon dont les algorithmes sur des plateformes comme Instagram essaient non seulement de vous rendre accro, mais aussi de nous diviser encore plus.
J'AIME vraiment le fait que Mastodon et la plupart des logiciels de Fediverse évitent tout cela.
J'en parlais cet après-midi encore, alors je l'ai recherchée et retrouvée dans ma bibliothèque : le recueil de nouvelles "Jusqu'à la quatrième génération" où se trouve la nouvelle "La machine qui gagna la guerre". Elle m'avait marqué quand je l'avais lue, jeune, je l'ai toujours eu en tête. Et là, à l'heure de l'IA, elle résonne encore plus.
Je vous invite à la lire. y'a 16 pages. Elle est très drôle (moi, l'humour d'Asimov, 😻) mais ça pique un peu en y réfléchissant bien !
(si vous n'avez pas le recueil en question chez vous ou à la médiathèque du coin, cliquez sur le titre de la brève, ça vous renverra vers une transcription du texte !)
« La légitimité de l’État administratif repose sur notre confiance dans l’expertise de ses agences », rappellent les professeurs de droit Ryan Calo (@rcalo) et Danielle Citron (@daniellecitron) dans un article de recherche. Mais de plus en plus, les services administratifs adoptent des systèmes automatisés pour s’acquitter des responsabilités qui leur sont déléguées. Le problème c’est qu’en passant à l’automatisation, l’administration sape son autorité et son existence même.
Après avoir créé un nouveau compte Gmail dédié et s'être abonné à 171 listes de diffusion des candidats démocrates et de différentes ONG, ils ont en effet découvert que 63 % des courriels pro-Pete Buttigieg arrivaient directement dans la boîte de réception principale, tout comme 46 % de ceux favorisant Andrew Yang, mais seulement 17 % de ceux de Michael Bloomberg, 2 % de ceux de Bernie Sanders, et aucun de ceux d'Elizabeth Warren, Beto O'Rourke et Joe Biden.
Quand l'algorithme de Gmail influe sur la bonne ou mauvaise communication des candidats...
Vive mon mail qui m'arrive juste trié par date de réception, hein.