Femmes et numérique : enjeux et défis
24 carteAnalyse des inégalités de genre dans le secteur numérique, des biais algorithmiques et des initiatives pour promouvoir la parité.
24 carte
Voici un résumé détaillé sur les femmes dans le numérique, les enjeux éthiques et la place du droit, structuré comme une antisèche :
Femmes et Numérique : Un Inégal Accès et Ses Conséquences
Le Contexte : Près de 1 femme sur 2 quitte la tech à cause de la pression quotidienne.
Objectif : La fondation Femme @Numérique vise 50% de femmes dans le numérique d'ici 2030.
Réalité Actuelle :
Selon l'INSEE : 24% de femmes dans le numérique.
Rapport Haut Conseil (2022) : 22% de femmes parmi les membres de la French Tech.
Impact de la Mixité :
Baromètre (mars 2022) : Les équipes mixtes sont plus performantes pour les levées de fonds et génèrent de meilleurs rendements.
Commission Européenne : Un gain de 9 millions d'euros par an est estimé si la parité est atteinte.
Explications Historiques :
Livre "La construction sociale de l’inégalité des sexes" de Paula Tabec : La division sexuelle n'est pas neutre ; les hommes s'approprient les outils pour augmenter leur pouvoir, laissant aux femmes les tâches fastidieuses.
Femmes Pionnières :
Jusqu'à la 1GM, les femmes ont été actives dans le numérique.
Edith Lamarre (1941) : Crée un système de codage des transmissions (ancêtre du Wi-Fi).
ENIAC : Premier ordinateur programmé par des femmes.
L'Effacement : Leur contribution a été progressivement effacée, et la programmation a été dévalorisée en devenant perçue comme une tâche subalterne et "féminisée".
Isabelle Collet ("Les oubliés du numérique") : Le désintérêt n'est pas inné mais le résultat d'un processus social ; la pression sociale dès l'enfance mène à l'autocensure.
Inégalités Persistantes :
25% moins de chances pour une femme de savoir exploiter le numérique que pour un homme.
4 fois moins de chances de savoir utiliser un ordinateur.
13 fois moins de chances de déposer un brevet technologique.
Conséquences Concrètes : Absence de diversité entraîne :
Biais algorithmiques : Les machines "apprennent" à reproduire les discriminations (ex: rejet de CV féminins pour certains postes).
Reconnaissance faciale : Moins performante pour les femmes ou les personnes de couleur (double discrimination).
Principe Fondamental : La technologie n'est jamais neutre ; elle reflète l'état de la société.
Le Rôle du Droit Face au Numérique
Relation de Protection et de Renforcement
Loi Rixain du 24.12.2021 :
Instauration d'un quota de 40% de femmes dans les postes de direction d'ici 2030.
Sanctions financières possibles : jusqu'à 1% de la masse salariale en cas de non-respect.
Entreprises de + de 1000 salariés doivent publier les écarts (début des sanctions en 2027).
Dispositifs de Signalement : Prévision de mécanismes en cas de sexisme.
L'État "Plateforme" :
Constat : L'État ne peut pas rivaliser avec les GAFAM.
Stratégie : Adopter les mêmes modèles que les plateformes privées (ex: FranceConnect).
Uberisation de l'État : Perte de services publics (ex: Waze vs Bison Futé).
Consentement et "Auto-Mesure" : L'autorisation de collecte de données est souvent implicite (ex: montres connectées).
"Bio-pouvoir" (Michel Foucault) : Gouverner par la gestion de la vie des populations (ex: campagnes de santé).
Relation de Collaboration
Le Numérique comme Outil : Aide à la manipulation des données.
Types de Données auquel se heurte les professionnels:
Données à caractère personnel : Identifient directement ou indirectement une personne physique.
RGPD (2018) : Réglementation européenne (précédé par la Loi Informatique et Libertés de 1978 en France).
Objectif 1978 : Réaction au projet "Safari" (base de données de tous les citoyens).
Droits garantis : Suppression, déréférencement, droit à l'oubli.
CNIL : Autorité de référence en cas de problème.
Exemple : L'adresse IP et les données de compteurs Linky sont des données personnelles.
Données publiques : Proviennent d'administrations ou d'entreprises de service public.
Open Data : Politique publique d'ouverture des données publiques au public (ex: data.gouv.fr).
CADA : Saisir en cas de non-accès à une donnée publique.
CNIL: saisir en cas de problème de données personnelles
Exemple Santé :
Mon Espace Santé : Service public numérique (données sensibles).
Coexistence avec Doctolib (et Santé Doctolib).
Partenariats public/privé pour la circulation des données de santé.
Loi pour une République Numérique (Lemaire) du 7 oct. 2016 :
Modification de nombreux codes.
Définition des plateformes dans le Code de Commerce.
Démocratie participative : Les citoyens peuvent proposer des amendements aux projets de loi.
Obligation de l'Open Data pour l'administration.
Open Data des décisions de justice (toutes les décisions de justice doivent être sur Legifrance).
Décret d'application 2021.
Anonymisation et pseudonymisation des données.
Expérimentation de la Cour de Cassation avec le lab IA pour détecter les divergences de JP.
Interdiction du profilage des magistrats.
Contrats Intelligents (Smart Contracts) : Clauses automatisées basées sur des conditions (ex: "si la condition X est remplie, alors Y").
Relation de Concurrence et de Soumission
Code is Law (Lessig, "Code V2") : Le code informatique a force normative et crée des règles (mais est faillible).
Définition de l'Algorithme : Suite d'instructions mathématiques (données d'entrée -> traitement -> données de sortie).
Difficulté à traduire le droit dans un algorithme.
Justice prédictive : Analyse de la jurisprudence passée pour dégager des tendances.
Problème de la "boîte noire" : Impossibilité d'expliquer comment l'algorithme arrive à ses résultats.
Biais et paramétrage : Ex: dilemme du tramway (biais inhérents aux choix de conception).
Méthodes d'Apprentissage des Algorithmes :
Machine Learning (Apprentissage Automatique) : L'algorithme s'améliore sans intervention directe du programmeur en répétant des exécutions sur des jeux de données.
Exemple : Classification de données.
Jamais neutre : Contient toujours une part humaine (et ses erreurs).
Utilisé dans l'Open Data des décisions de justice.
Deep Learning : Sous-ensemble du Machine Learning avec une très grande volumétrie de données (Big Data).
Exemples : Voitures autonomes, détection de tumeurs, robots tueurs.
Utilisation des Algorithmes :
Procédure automatisée : Décision entièrement automatique.
Outil d'aide à la décision : Intervention humaine minimale, mais pleine et entière responsabilité du décisionnaire.
Problème des Biais et Discriminations :
Exemple : Application COMPAS (score de risque de récidive aux USA) avec un taux élevé de faux positifs pour les individus d'origine africaine (biais raciste).
Rapport CNIL (Décembre 2017) : "Comment permettre à l’homme de garder la main : les enjeux éthiques de l’algorithme."
Société Palantir :
Entreprise américaine d'analyse de données (Alex Karp, CEO).
Objectif : Créer une base de données géante de citoyens, détenant un pouvoir de gouverner par les données.
Réflexions Philosophiques et Éthiques
La Singularité Technologique
Deux Doctrines :
La Singularité Remplacera l'Humain (Shanna Anne) : Croissance technologique exponentielle selon la Loi de Moore (vitesse des processeurs double tous les 18 mois).
La Singularité est un Mythe (Jean-Gabriel Ganascia, président du comité d'éthique du CNRS) : La Loi de Moore est une feuille de route industrielle, pas une loi inévitable. Critiques des GAFA qui promeuvent cette idée.
Impact Environnemental du Numérique
Obsolescence Matérielle : Augmentation de l'obsolescence des appareils.
Impact Ignoré : Le numérique a un impact environnemental fort :
Extraction de métaux rares (silicium, cobalt).
Augmentation des GES : Google (+48%), Microsoft (+30%).
Data centers : Consommation énergétique et en eau pour le refroidissement.
Le droit n'a pas encore posé de limites claires.
La Question de la Personnalité Juridique des Robots
Débat : Le droit de l'UE et certains avocats suggèrent une personnalité juridique spécifique pour les robots.
Position de la France : Résistance à un tel statut :
Le Code civil français permet déjà d'engager la responsabilité du concepteur ou du gardien (responsabilité du fait des choses).
Un robot ne peut avoir de personnalité physique (impliquerait des droits humains) ou morale (impliquerait une représentation humaine).
Lois d'Asimov (Bioprofesseur Isaac Asimov) : Règles régissant le comportement des robots :
Ne pas nuire à un humain.
Obéir aux ordres humains (sauf conflit avec la 1ère loi).
Protéger sa propre existence (sauf conflit avec les 1ère et 2ème lois).
Protéger l'identité humaine (ajout non officiel souvent cité).
Terminologie et Concepts Clés
Numérique / Digital : Souvent synonymes ; le numérique est un milieu d'interactions, pas seulement un outil ou un algorithme.
Philosophie des Techniques : Étude des activités humaines à travers les outils.
Don Ihde (Théorie de la Médiation) : Accès au monde toujours médiatisé par la technologie.
Bernard Stiegler (Pharmacologie) : La technologie est à la fois remède et poison.
Article 1 de la Loi du 6 janv. 1978 : "L’informatique doit être au service de l’humanité."
Inizia un quiz
Testa le tue conoscenze con domande interattive