Prise de notes
Ici on prend des notes :)
Mémo Markdown
- passer à la ligne = double espace
- saut de ligne = saut de ligne
-
Sous-titre
-
Sous-sous-titre
-
Sous-sous-sous-titre
- italique
- bold
- Lien : Ceci est le texte du lien
-
Ceci est une citation
- Insérer une image :

Arpentage
Contre Atlas de l'intelligence artificielle de Kate Crawford publié en 2021
1er tour: chaque participant·e raconte ce qu'iel a compris de sa partie
Kay Crawford : chercheuse au sein de Microsoft point de vue critique travaille avec des artistes : ex ImageNetRoulette avec Trevor Paglen et avec Vladan Joler (voir https://calculatingempires.net/?pos=133129.68%2C11849.60%2C14.0548)
Introduction
Exemple: cheval Hans Le malin, fin 19e siècle, pouvait répondre aux questions/calculs
Son maître était fasciné par l'intelligence animale.
Pendant 2 ans, il a dressé le cheval pour lui apprendre à compter
étude scientifique pour comprendre: cheval donnait ses réponses par rapport à la personne qui posait la question (regard, gestes)
L'effet Hans Le Malin : effet des attentes du lecteur, influence des signaux extérieurs sur un sujet
Démontre les biais humains qui sont en jeu dans ce type d'expérience
Comment on fabrique l'intelligence et quels pièges ça induit?
histoire de l'intelligence artificielle : ex Alan Turing années 50: reproduire intelligence humaine avec machine, en croyant qu'on était des machines de chair
Marvin Minsky => humains = machines de chair
années 60: intelligence humaine est plus complexe mais idée de 'cerveau comme ordinateur' est toujours là aujourd'hui
C'est quoi l'intelligence ? C'est quoi l'intelligence artificielle ?
Où on se situe par rapport à l'IA (usagèr·es, chercheur·euses)
IA est ni intelligente ni artificielle, ni neutre, ni trustworthy
l'IA suit des intérêts dominants, dépendante de structures politiques et sociales
Faire un Atlas de l'IA => ??
cartes permettent de croiser plusieurs perspectives, mettre en lumière des rapports de pouvoir
Chapitre 1: La Terre
Atterrissage à Silicon Valley, d'en haut elle voit Apple/Google plexes
Elle prend 4x4 voiture et va sur Clayton Valley, où il y a beaucoup de mines lithium, cristal… (Silver Peak)
Cette vallée était Mexicaine avant 1948 (question de la colonisation des terres pour l'IA)
"Le commerce suit le chapeau, le drapeau suit la pioche"
Là où on peut extraire de la matière rare, les USA ont récupéré l'endroit
Quelle vie humaine/environnementale dans ces mines ?
C'est pire que s'il y avait eu ravage naturel.
Aucune loi ne défend la vie biologique et humaine contre les minages
Elle retourne dans la SV, vers la SOMA sur la route (où vivait les anciens mineurs) là où il y a beaucoup de sdf sans eau, services de santé
Allez plus profond dans les mines / allez plus haut avec les buildings ! Toujours plus loin !
Lieux de naissance de l'IA = mines de minéraux rares :
Bolivie, Congo, ... lieu avec conflits politiques
Tesla = une entreprise de grosses piles = besoin de beaucoup de lithium
Les 'minéraux de conflit' = exemple au Congo (or, tunstène, colbalt…)
exploitation des mines sert à financer les conflits
esclavage moderne, idem dans d'autres endroits dans le monde
Exemple de Intel et Apple : quels impacts dans le financement de ces conflits ? parfois directement, en donnant de l'argent, produits gratuits...
Chaîne d'approvisionnement => flou / opacité => l'utilisateur ne se pose pas trop de questions
Système computationnel => ??? infrastructure digitale
L'impact écologique des mines: pollution des éco-systèmes
Exemple: BaoTou, une grande ville en Mongolie, lac artificiel de déchets suite à l'extraction des minéraux dans solutions acides
extraits radio-actifs, 0.2% de la matière qui est utile de ce qu'ils enlèvent de la terre - déchets oubliés dans village à côté
Invisibilisation de ces déchets (qui sont très importants)
Mines d'étain en Indonésie : 70% de l'exploitation mondiale qui vient de là, aucune législation pour mineurs
destruction des écosystèmes, impact sur la vie humaine
il faut envisager l'ensemble de la planète quand on regarde l'IA - pas moyen d'extraire ces minéraux près de chez nous
Cables télégraphiques avant l'IA: ressemble à ce qu'on vit aujourd'hui
Michael Faradet => étude sur un arbre Palaquium Gutta, latex naturel, un matériau isolant pour les câbles sous l'eau transatlantiques
1857, 3000km, 9 tonnes, disparition de l'arbre par surexploitation
Résonne avec l'exploitation qu'on fait des minéraux rares aujourd'hui pour la technologie
toujours plus de besoin, toujours plus d'extraction
Question de la colonisation => les câbles sur les réseaux coloniaux / écho avec l'IA
le mythe de la tech propre: pour alimenter toutes machines il faut passer par carburants
minéraux rares + l'énergie électrique = forte émission de CO2
Impact carbone des digital infra = aviation
14% des émissions carbones planétaires d'ici 2040
Chine = les data centers 70% des émission dû au charbon, 98 millions de tonnes de CO2
OpenAI = 1 modèle d'IA, mutiplié par 10 chaque année depuis 2012
datacenters gros consommateurs d'énergie
Apple et Google sont neutres en carbone = ils rachètent en crédits carbone = bullshit = green washing
l'eau: utilisé pour refroidir les datacenters, souvent très pollué et jeté par après
ex datacenter Utah, EU: zone déséchée, ils utilisent 6.5 millions de litres d'eau par jour
pas de législation sur l'eau et la manière sur laquelle elle est utilisée - accord avec Utah pour payer moins cher en échange des retours économiques
couche logistique = transports, notamment voie maritime, un impact énergétique très fort, grosses émissions de Co2 = 3,1% émission du CO2 mondial (plus que l'Allemagne)
60000 décès/an lié à cette pollution
plus des pertes de containeurrs, direct à l'océan
L'IA comme méga machine = tous les systèmes qui reposent sur le travail de nombreux acteurs humains
Manhattan project - bombe nucléaire beaucoup de gens ont participé au projet sans le savoir, 130000 personnes y ont travaillé vs 230000 morts
coût de création de l'IA sera moins que les personnes affectées négativement par après
pas rendre transparent toute la logistique dans l'IA
comprendre le coût environnementale et humain de l'IA => pour aller vers une justice
Chapitre 2: La Main d'Oeuvre
elle est dans usine de tri et d'envoi d'Amazon
elle constate les conditions de travail : horloges et pointeuses meme dans les salles de pause
"plus il y a surveillance, plus il y a efficacité"
30 min de pause le midi non payée
Conditions psychologiques compliquées
beaucoup sont blessés, malades
seule chose mise en place pour repondre a ce mal etre : bar d'antalgiques en libre service, sans ordonnance
aussi des robots qui travaillent
machines mieux entretenues que les corps humains
temps de travail, capital et corps humains intégrés dans l'IA
toujours rapport humain-robot dans grandes usines
micro task => on a divisé les tâches en mini-tâches, pour ne pas avoir besoin de personnel qualifié et de pouvoir payer moins
contrôle du temps = monnaie d'échange
les travailleurs sont 'matrixés'
lien avec les prisons => panopticon 19e siècle=grande tour centrale de surveillance
rapport avec les productions agricoles pendant l'esclavage, surveillance permanente
dans toutes les étapes de création de l'IA, il y a de l'exploitation = exploitation des corps et psychologique
"Fauxtomation" (fausse automatisation // falsetomation?)
illusion que IA fonctionne 24h sur 24h, mais il y a toujours des êtres humains qui sont derrière qui travaillent 24h sur 24h pour être mal payé
division des tâches (micro tâche) = peu de qualification, travailleur·euses interchangeable, mauvais salaire
peuvent être remplacées par système automatisé
Mechanical Turk (le Turc Mécanique) => automate joueur d'échec, qui pouvait gagner contre des humains
inventé en 1870 par hongrois
habillé comme un “sorcier oriental”, “son aspect racialisé renvoyait à une altérité exotique”
c'était un faux automate, c'était un humain qui était caché dans le meuble et qui jouait aux échecs = invisibilisation
il faisait fonctionner la machine de l'intérieur et était totalement invisible, toujours le cas aujourd'hui
maintenant: plateforme de crowd sourcing de Amazon
"L'intelligence artificielle artificielle" = terme de Jeff Bezos pour plateforme de la plateforme d'Amazon Mechanical Turk (https://www.mturk.com/)
leur système de tri de pages automatisé ne fonctionnait pas
captcha: entraînement gratuit des algorithmes = travail non-rénuméré des utilisateurices quotidien.nes
IA n'est ni artificielle ni intelligente et repose sur le travail humain
automatisation du travail Charles Babbage, il voyait l'usine comme calculatrice avec l'humain comme seul élément de faiblesse besoin de systèmes qui contrôlent le temps et les corps Marché de la viande 1870 Chicago = un des premier secteur à avoir mis en place la chaîne de prod imaginée par Babbage => La chaîne de désassemblage toutes les micro-tâches pouvaient être executées par n'importe qui Henry Ford + Frédéric Winslowtaylor = contrôle du corps / chronométrage = productivité mac Marx: "le temps est tout, l'homme n'est rien, il n'est plus que la carcasse du temps" McDonald sur le même type de modèle gérer le temps / privatiser le temps
métaphore maître - esclave : contrôle = intelligence horloge maître gouverne les horloges esclaves Google a inventé protocole pour uniformaliser temps mondial, 'true time', une sorte de horloge maître centralisé = temps universel crée par une entreprise privé hégémonique
invention du télégraphe: aurait rassemblé l'humanité sur 1 seul plan histoire de centralisation du temps conditions de travail chez Amazon dans les centres de distrib = rythme de travail inhumain syndicats sont inutiles, Amazon ne veut pas négocier sur le rythme de travail solidarité chez les travailleurs d'Amazon qui se battent pour que les travailleur·euses du secteur de la tech se fassent reconnaître et pas invisibilisé
Chapitre 3: Données NIST: organisme de mesure qui récupère des images pour entraîner la reconnaissance faciale collabore avec le FBI, en utilisant les photos de personnes arrêtées utilisation des images non consenties / pas de refus possible logique du secteur tech => "toute donnée est exploitable" sert à contrôler et arrêter encore plus de personnes processus d'apprentissage de l'IA = grosse quantité de données pour que ça fonctionne. provenance des images est très importante, c'est la nourriture de l'IA
Historique de l'IA
1970: approche des systèmes experts: règles qui réduisent le champ des possibles de réponses, par une suite de résonnement logique (comme une recette de cuisine)
1989 : approche probabiliste ou force brute = système qui utilise la force de calcul pour trouver la réponse la plus probable
plus on a de données, plus on compare, plus on a de réponses problables
Exemple de la reconnaissance vocale chez IBM
on utilise techniques statistiques qui analysent fréquence des mots et leurs séquences
mots dépourvus de contexte
tout type de textes comme sources: livres d'enfants, rapports juridiques, manuels etc
Stanislaw Lem: personnage de SF décide de construire machine à poèmes basée sur des tonnes de poèmes (Le bréviaire des robots) équivalence général entre manuel technique et courriers privés
capturer le visage 1990: projet Ferret US army research laboratory va faire des portraits pour entrainer le système avec le consentement des personnes qui va être utilisé pour contrôle aux frontières 15000 images 2000: d'internet à ImageNet: tout ce qui est en ligne devient source pour l'IA 2019: 350 millions photos de FB, taggées gratuitement avec les hashtags (lieux, dates, etc) vs 14000 dans les années 1990 Comment mieux tagguer les images pour mieux entrainer les IA? Combiner toutes les images et textes d'internet pour les faire tagguer par des humains 2006 : projet ImageNet : reconnaissance des objets cartographier l'univers entier des objets 14 millions d'images et 20 000 catégories catégories qui montrent beaucoup de biais, ex alcolique, prostitué... les travailleurs de la plateforme Mechanical Turk de Amazon doivent catégoriser les images
La fin du consentement Quand on poste quelque chose sur un internet cela peut-être utilisé sans notre consentement droit à l'image
Mythes et métaphores des données "plus il y a de données, mieux c'est" comparaison avec le pétrole, les mêmes expressions sont utilisées pour parler des données le forage des données / raffinement des données "devient neutre, ressource à utiliser" toute donnée devient impératif culturel
Crowford & Paglen oeuvre d'art: https://paglen.studio/2020/04/29/imagenet-roulette/ il décrit qui tu es par rapport à IA reconnaisance faciale
Anatomy of AI: https://anatomyof.ai/
Modèles de IA ont besoin de beaucoup de données et n'atteignent jamais la précision
Histoire de l'éthique = disciplines précurseurs : mathématiques, informatique et statistique IA sortie du laboratoire devient plus dangereux ex prédire quel criminel va récidiver ou qui a le droit à des droits sociaux beaucoup d'inexactitudes, beaucoup de biais encore pire pour certaines minorités parce que les données d'entraînement étaient biasées travail à distance, loin des communautés qui sont dans ces databases
pas éthique de faire confiance aux algorithmes programmeurs devraient réfléchir plus aux conséquences de leur travail données vocales depuis nos téléphones / montres connectées / sites web / réseaux sociaux collecte de données personelles privées qui va à l'encontre du respect de la vie privée
qui récupère les données? entreprises privées stockent les données pour entraîner les IA
Chapitre 4: la classification Histoire de la classification Samuel Morton = années 1800, cranologue, père scientifique du racisme classement des crânes suivant les barèmes qu'il avait crée "objectivement" il hiérarchisait races humaines par rapport à charactéristiques physiques classement totalement biaisé jusqu'à la fin du 19e siècle ses données étaient considérées comme objectives classification dans les IA est forcément biaisée - sont une autre technologie puissante en elle-même dans l'IA Les systèmes de logique circulaire = l'IA a des biais, qui sont montrés pas un lanceur d'alerte journaliste signale qu'il y a un problème dans l'IA, système soit remplacé par nouveau systèmes, soit remédié informations restent souvent secrètes opacité du code et de la classification Exemple avec Amazon en 2014: cv d'employés, les nouveaux cv passaient dans cette base de données et généraient biais: mots techniques fréquents ignorés; cv avec mots 'femme' étaient écartés immédiatement par l'IA tentative de créer un outil pour l'embauche à Amazon, biaisé à la base puisque la masculinité est encodé dans Amazon quel est le méchanisme de construction du savoirs ?
Les limites des systèmes débiaisant
Comment créer un système avec le moins de biais possible ?
Beaucoup d'erreur de reconnaissance faciale pour personnes de peau sombre + femmes
100 millions de photos de Google/Flickr, ont créé des catégories
tout ce qui semble sort de cadre binaire est écarté (personnes trans, non-binaires), fait par crowd workers
concepteurs des systèmes décident sur les catégories/décisions vs décisions culturelles éthiques
donne pouvoir à la machine comme si elle détient la vérité
Les nombreuses définitions du biais
la classification s'aligne sur le pouvoir depuis antiquité
1900 sens plus technique, échantillon n'est pas représentatif pour la totalité
Différence entre les biais et la variance :
biais = erreur de classification régulièrement produite quand le système est confronté à de nouveaux exemples
variance = ce qui designe la sensibilité d'un algo aux différences dans les données d'entrainement
biais cognitifs peuvent être inclus par rapport à discrimination / vision du monde
l'architecture de IA reflète des formes de pouvoir
2009: ImageNet => importé de WordNet, base de données lexicale 1985
logiciel qui permet de reconnaître des objets
dérivé de WordNet, dictionnaire lisible par machine
classification de la langue anglaise => organisation des mots suivant leur fonction lexicale et thématique
9 catégories principales: plantes, formation, géologique, objets, naturel ... et divers
tout est mélangé et au même niveau
ex mot 'homosexualité' classifié dans 'troubles mentaux' 1973 cela été corrigé - décorrigé en 2024 (dans TOS de Meta)
catégorisation justifie des formes de violence et d'oppression
le pouvoir de définir la personne catégories qui donnent une certaine vision du monde catégories pour identités raciales et nationales sont toujours là catégories qui n'ont pas de sens pour des images : insultes, préjugés racistes Trevor Paglen a créé une vague de corrections après son installation 'ImageNet Roulette'
crowd workers doivent donner sens aux images au ryhtme de 50 images/minutes -> beaucoup d'erreurs construire la race et le genre les systèmes de classification exacerbe les inégalité stigmatise la différence, notamment dans classification des corps 'normaux' définir des catégories de 'normalité' réduit possibilités de ce que peut être l'humain Classer les gens est un impératif impérialiste, coloniale Technologie qui limite les modes de savoirs
Les limites de la mesure Comment remédier? en choisissant les infos (données?) qui alimenteront les systèmes d'IA, comment ils interagissent avec données, environnement, travailleurs...
Chapitre 5: Les affects Paul Ekman : une étude en papouasie Nouvelle Guinée, pour prouver que tout le monde possède émotions universelles, innées étude va donner naissance à l'industrie de la reconnaissance des affectes Détection des émotions => police, armée, justice reconnaissance faciale (identifier l'individu) vs détection des affects pour n'importe qui ex. startup londonienne Human = utilise la reconnaissance d'émotions (faciale et voix) dans des entretiens d'embauche ils utilisent aussi l'intonation de la voix ex. réaction des consommateurices face à la publicité Construction d'une grande database de réponse émotionnelle classifiée et ordonnée
Le plus célèbre lecteur de visages au monde Silvan Tomkins => tentative de prouver l'universalité des affectes https://en.wikipedia.org/wiki/Silvan_Tomkins :+1 communication non-verbale interculturelle
les affectes de la physionomie à la photographie analyse des traits du visage d'un individu => connaître l'intérieur des personnes à partir de son aspect extérieur => Paul Ekman, basé sur le travail d'un neurologue nommé Duchêne. travaille avec la photographie avec expressions artificielles créées pour la caméra à base de électroshocks sur les muscles avec patients mentals à l'hoptital ces photos alimentent les bases de données de l'IA
Capturer les sentiments et artifices des émotions jouées SPOT: Screening of Passengers by Observation Techniques utilisé après les attentats du 11/09 pour détecter potentiels terroristes à base de 95 critères qui sont des signes de stress groupes systématiquement visés + biais racistes le système génère ses propres formes de profilage raciale
critique du travail d'Ekman antropologue Margaret Mead: un sourire n'est pas forcément un signe d'être heureux (intérieur/extérieur) les études d'Ekman ne sont pas fiables qu'elles sont basés sur ce que l'on perçoit des autres dans une vision universelle / efface différences et contextes culturels, l'IA est entrainée à reconnaître de fausses émotions politique des visages => l'IA est bête, différence entre hommes et femmes et notamment chez les femmes noires - IA attribue émotions négatives associées au visage noir
Chapitre 6: L'état IA sert service de renseignements des gouvernements plus riches du monde affaire Edward Snowden 2013 : il découvre la surveillance massive de la population américaine et le rend publique affaire Cambridge Analytica : entreprise britannique de communication qui s'est servi des données de Facebook pour influencer l'élection en faveur de Trump en 2017 des archives dans l'affaire Snowden qui montre que l'état tente de changer la loi pour pouvoir accéder aux données personnelles pas pour sécuriser les données personnelles de chacun mais pour surveiller IA guidée par des priorités militaires qui modèlent ce qu'est l'IA ou ce qu'elle va devenir ex détection de cible, comment on évalue un risque... Comment évalue-t-on des cibles potentielles pour tuer ?
Recherches sur internet sont aussi surveillées dur d'évaluer les intentions derrière une recherche, l'IA ne fait pas de différence histoire de la création d'internet => militaire américain l'IA est devenue une collaboration géopolitique ? ex problème de sécurisation des données différentes ex language de la guerre qui a formé l'IA On asssite a une course a l'IA (comme course à la conquête de l'espace), c'est un enjeu de sécurité nationale pour les Etats > renforce structures de domination et discriminations les services de renseignement doivent collaborer avec des entreprises des big tech (google par ex) ex https://en.wikipedia.org/wiki/Project_Maven payer entreprises privées pour analyser des données militaires Google l'a eu au début, avec leur librairie IA 'tensorflow' ils arrivaient à détecter drones etc travailleurs de Google ont protesté pour faire annuler le contrat Microsoft a récupéré le contrat Ça pose des questions éthiques et morale plus poussées : à partir de quel moment on peut tuer quelqu'un ? à partir de quel moment on fraude ? question de la prédiction ! (cf Minority Report)
Palantir créé par 2004, Peter Thiel (Paypal, conseiller de Trump) [https://fr.wikipedia.org/wiki/Palantir_Technologies]
Conclusion : Le pouvoir L'IA n'est pas une technologie universelle, objective ou neutre. c'est une expression du pouvoir Mais ce ne sont pas les récits qu'on entend : mystifcation de l'IA : comme si c'était magique L'IA surhumaine dans les récits => comme une intelligence extraterreste avec des compétences surnaturelles origines de l'IA pendant la seconde guerre mondiale : simplifier le monde comme un champ de bataille impossible d'interpréter les approches d'apprentissage
2 tendances : utopisme tech et dystopisme tech, mais c'est une mauvaise approche IA comme solution/ IA comme péril il faut regarder toutes les formes systémiques qui mettent en place ces technologies l'illusion dans la presse et les médias détournent des questions importantes:
- à qui profitent ces tech
- quelles conséquences planétaires
- inégalités raciales
- exploitation de la main d'oeuvre
Elle fait ensuite le résumé du livre les coûts réels ne sont jamais révélés : vision partielle, opacité selon ... : "double opération d'abstraction et d'exctraction du capitalisme d'information" ce livre l'infrastructure planétaire comme une industrie extractive question de la collecte des données : on oublie que l'étiquetage des données est une intervention politique avec une vision du monde liée aux affects Le livre se termine avec une question : pourrait-il exister une IA pour le peuple ? Elle propose le refus => une nouvelle politique du refus Donna Haraway : informatique de la domination Il faudrait adopter des solidarités alternatives, notre tâche est de tracer l'itinéraire qui y mène
Coda coda = dernier mouvement d'un morceau de musique classique
elle parle de l'espace Jeff Bezos, patron d'Amazon, passionné par l'Espace, investit avec sa thune dans une société d'exploration spatiale notamment des descentes lunaires : BlueOrigin cfr livre Planet B, Gwenola Wagon
Bezos: "Est-ce que vous préférez dans un état d'immobilité où on limite mobilités, population ... ou vous préférez l'espace" Il veut faire des colonies dans l'espace : la Terre sera invivable, donc on va exploiter la Lune Cloud computing Amazon (héberge tous les grandes collections ex Netflix) elle parle de Google qui a un projet de miner des métaux rares sur des astréroïdes Elon Musk & SpaceX: coloniser Mars -> il n'y a pas de limites, fantasme des milliardaires de la tech on peux tuer la Terre puisqu'il ya encore l'espace a exploiter l'espace : a priori un bien commun. les big bro s'approprient ses ressources c'est des surhommes avec des super pouvoirs le coda est pas très joyeux "cette sinistre escorte me suit jusqu'à la limite de la vallée qu'envahit la pénombre"
Debrief
Ce qui vous a touché
// récits //
- Invisibilisation [+3]
- La manière dont on nous détourne des questions de l'IA, opacité des structures de domination, nous garder dans notre propre bulle, nationalismes
- "Capture des visages" => ce que l'IA nous vole sans avoir conscience
- nouvelle de Stanislaw Lem: créer une machine à faire des poèmes (même si cela ne marche pas)
// travail & temps, optimisation //
- abstrait
- les conditions de travail des travailleur·euses de la tech [+3]
- histoire de l'automatisation travail à la chaine, optimisation de la main d'oeuvre - comment on en arrivé là
- rapport au temps: accélération - maître/esclave
- La question du temps : consommer plus vite, aller plus vite, produire plus vite, optimisation pour quoi ? deux vitesses ? qu'est-ce qu'on fait contre l'accélérationisme ? On fait la sieste, on éteint le téléphone. cf BD https://fr.wikipedia.org/wiki/L%27An_01_(bande_dessin%C3%A9e)
- Mechanical Turk
// Homme-machine //
- comprendre les sous-couches de l'IA
- frontière entre homme et machine, comment on essaye de faire en sorte qu'une machine soit surhumaine, mais sans âme et la plus objective possible
- dépendance des outils / colère / norme si on ne veut pas utiliser l'IA - on est conseillé de les utiliser pour être dans le temps - culpabilité - comment ne pas l'utiliser? [+3]
- utiliser les ressources qu'on a, même si c'est interdit - question de la contre-attaque
// Classification //
- la question de la classification
Envies générales
// rendre visibile //
- rendre visible l'invisible : avoir une idée de flux de stockage, illustrer travail d'échelle, les outils, la main d'oeuvre humaine [+4]
- cartographier ontologies, catégories
- trouver des images pour visibiliser (exemple : projet IA Ex Machina, Lou Vettier, une série d'objet qui essaye d'expliquer l'IA) => https://louvettier.com/iaexmachina.html
- rendre physique en créant des objets
- repasser fragments du livre
// faire //
- création algorithmique
- Cuisine : faire des choses ensemble avec nos mains => analogie entre la nourriture et l'IA [+3]
- Faire son propre serveur (https://yunohost.org/) / sa propre IA (avec des modèles pré-entraînés ex https://diffusionbee.com/) - se réapproprier les outils - revenir à du tangible / du local [+4]
- Site internet
- Ne pas utiliser l'IA / créer des choses nous-mêmes qui ne seront pas de la nourriture d'IA - politique de refus
- Récupérer des livres, faire un prompt physique et trouver les réponses ? comment ?
- comment changer d'identité numérique? cfr prédiction de ce qui va te plaire
//récits //
- interviewer des gens par rapport à l'IA
- Radio
- créer une fiction: archéologie du futur, retournement de la machine sur les milliardaires de la big tech
- inventer de nouvelles classifications à 'notre sauce' / de nouvelles définitions // déclassifier
Aspects à explorer plus
"On ne détruit pas la maison du maître avec les outils du maître"
Positions possibles
- fuite
- politique du refus
- acceptation totale
- s'informer mutuellement
- création de contre-récits (utopies)
Propositions
Gros Fanzine + émission de radio
- Archéologie du futur, quelle esthétique ? un contre-récit [Charlotte², Tong, Orion]
- Tutos, répertorier les alternatives à Google & cie [Zoé, Flavie]
- Écrire un protocole expérimental de performance sans les technologies, faire différemment [Maé, Cassandre, Amel, Léa, Laïa, Simon, Anna, Zhijie, Yaqi (Zoé et Charlotte solidaires)]
- Atelier culinaire : sans technologie + cariole
- Rèf : Dérives situationnistes
- Radio [Christophe, Claire, Jeanne, (Maé et Cassandre solidaires)]
- Création d'un objet, rendre physique [Arthaud, Simon]
- Rendre visible par l'image + illustrations [Amel, Charlotte, Simon, Arthaud, Laïa, Cassandre, Maé]
Planning
Mercredi matin
- Orga "Rendre visible par l'image"
- Orga par groupe
Mercredi après-midi
- Récap / Point
Jeudi matin
- Récap / Point
Jeudi après-midi
- Radio Crousti + Bouffe + Cariole + Gros Fanzine + Objet (et tout ça sans IA)
DOCUMENTATION