Introduction à l'IA et Humanités numériques
30 cartesCe cours explore les concepts avancés et les applications pratiques de l'IA et du traitement automatique des langues dans les sciences humaines et sociales. Il aborde également les limites des techniques actuelles et les enjeux scientifiques, sociétaux et environnementaux liés à ces technologies.
30 cartes
Introduction à l'Intelligence Artificielle (IA) et ses Applications
Ce cours de l'EFELIA (École Française de l'Intelligence Artificielle) Côte d'Azur, dispensé par Sofiane Elguendouze, vise à familiariser les étudiants avec les concepts avancés et les applications pratiques de l'IA et du traitement automatique du langage, notamment dans les sciences humaines et sociales.
Il ne s'agit pas d'apprendre à programmer ou d'enseigner les spécificités techniques de l'IA.
Objectifs du Cours
- Familiarisation avec les concepts avancés et les applications pratiques de l'IA en SHS.
- Confrontation aux technologies IA déjà intégrées (ex: traduction, génération de contenu).
- Mise en évidence des limites actuelles et des enjeux (scientifiques, sociétaux, environnementaux) de l'IA.
- Développer l'esprit critique et saisir les opportunités offertes par l'IA dans diverses disciplines.
Déroulement du Cours
- En séance : Cours, discussions, quelques manipulations (~TP).
- En dehors des séances : Lectures.
Évaluation
- Participation active : 20% (engagement en séance).
- Travaux pratiques : 30% (exercices pratiques, application d'outils).
- Examen écrit : 50%.
Qu'est-ce que l'Intelligence Artificielle (IA) ?
L'Intelligence Artificielle (IA) est généralement définie comme la science qui consiste à faire faire aux ordinateurs des tâches qui requièrent de l'intelligence lorsqu'elles sont effectuées par des humains. - Jack Copeland
L'IA a vu le jour lors de la conférence de Dartmouth en 1956, bien que le concept d'automates existe depuis l'Antiquité (Héphaïstos).
Composantes de l'Intelligence humaine visées par l'IA :
- Apprentissage : Mémoriser des exemples ou généraliser des règles.
- Raisonnement : Tirer des conclusions logiques.
- Résolution de problèmes : Trouver des solutions par des méthodes spécialisées ou générales.
- Perception : Interpréter l'environnement (capteurs, caméras).
- Compréhension du langage : Traiter et générer le langage humain (défi : le contexte et le sens).
Approches de l'IA
IA "Descendante" (Top-down / Knowledge-driven) ou axée sur les connaissances :
- Hypothèse sur le fonctionnement du monde.
- Traduction en règle/équation.
- Calcul d'un résultat à partir d'une donnée.
- Exemples : Systèmes experts.
- Échecs récents soulignant les limites (ex: Watson en santé, voitures autonomes).
IA "Ascendante" (Bottom-up / Data-driven) ou axée sur les données :
- Les algorithmes sont modifiés par des calculs pour s'adapter aux données observées.
- Exemples : Apprentissage automatique (Machine Learning), Apprentissage profond (Deep Learning).
- Principal moteur des succès récents de l'IA (depuis les années 1990).
Les trois types d'IA basés sur les capacités (IBM) :
- IA Faible / Weak AI / ANI (Artificial Narrow Intelligence) :
- Approches pragmatiques (ingénieurs, mathématiciens).
- Systèmes autonomes réduisant les coûts de supervision.
- Résout des problèmes spécifiques, souvent mieux que les humains.
- Simule l'intelligence, sans conscience réelle.
- Exemples : voitures autonomes, reconnaissance faciale, Google Translate.
- IA Forte / Strong AI / AGI (Artificial General Intelligence) :
- Théorique, aux premiers stades de la recherche.
- Égalise l'intelligence et la flexibilité humaines.
- Imagine une machine capable de conscience de soi, de "sentiments" et de compréhension de ses propres arguments.
- Capable d'effectuer toute tâche intellectuelle humaine.
- Super IA / Superintelligence / ASI (Artificial Superintelligence) :
- Hypothétique, plus intelligente que les meilleurs esprits humains dans tous les domaines.
- L'IA générative et les voitures autonomes sont des précurseurs.
- Présente des risques sérieux si non alignée avec les valeurs humaines.
Effet de la "Disparition de l'IA" (AI Effect) :
- Tendance à ne plus qualifier d'IA ce qui fonctionne bien et devient courant (ex: correcteurs orthographiques, GPS).
- "L'IA, c'est tout ce qui n'a pas encore été fait" (Larry Tesler).
Les Différentes Méthodes d'IA
1. Machine Learning (ML) :
Domaine d'étude qui donne aux ordinateurs la capacité d'apprendre sans être explicitement programmés. - Arthur Samuel, 1959
- Tâches : Prédiction des prix, reconnaissance d'images, détection de spam, traduction.
- L'approche ascendante : amélioration significative depuis les années 1990.
- Le ML peut automatiser des tâches nécessitant moins d'une seconde de réflexion humaine.
- Fonctionne bien si : concept "simple" à apprendre, grande quantité de données.
- Fonctionne moins bien si : concepts complexes avec peu de données, nouveaux types de données.
2. Data Science :
- Science qui consiste à extraire des connaissances et des informations à partir de données.
- Tâches : Visualisation de données, analyse commerciale, rapports, analyse statistique.
- Permet d'extraire des connaissances comme "Les maisons à 3 chambres sont plus chères" ou "Les maisons rénovées ont une prime de 15%".
3. Deep Learning (DL) / Réseaux de Neurones :
- Utilise des structures complexes inspirées du cerveau humain pour capturer des relations complexes dans les données.
- Neurone artificiel : reçoit des signaux, les combine, et s'active si un seuil est dépassé.
- Capable d'apprendre automatiquement les caractéristiques pertinentes des données.
Réseau de Neurones Profond (DNN) :
- Pile de plusieurs couches cachées de neurones interconnectées.
- Optimise un réseau neuronal général pour apprendre le meilleur modèle sans hypothèses initiales.
- Les poids du réseau sont ajustés jusqu'à la convergence (erreur minimale).
Processus d'apprentissage (Backpropagation & Descente de Gradient) :
- Rétropropagation : Propage l'erreur en arrière dans le réseau pour calculer le gradient.
- Descente de gradient : Algorithme qui ajuste itérativement les paramètres (poids) pour minimiser la fonction de perte (l'erreur).
Imaginez que vous êtes dans une montagne, dans le brouillard. Vous voulez descendre au point le plus bas. Le gradient vous dit la direction et l'intensité de la pente.
Données en ML et DL
Qu'est-ce qu'une donnée ?
- Une donnée est une information mesurable, une propriété (caractéristique, variable, attribut).
- Peut être numérique ou catégorielle.
- Elle peut être brute, transformée en information, puis en connaissances, menant à des insights et à la compréhension.
Types de Données :
- Non structurées : images, audio, texte.
- Structurées : données tabulaires (ex: prix des maisons).
Ensemble de données (dataset) :
- Collection d'exemples.
- Les performances d'un modèle ML dépendent de la qualité et de la quantité des données d'entraînement.
- La qualité des données implique de traiter les erreurs d'étiquetage, les données bruitées, et le filtrage.
Collecte de Données :
- Étiquetage manuel : Ex: classer des images de "chat" ou "pas chat".
- Observation des comportements : Ex: données d'achat en ligne.
- Téléchargement : Sites web (ex: Data.gouv.fr, Kaggle).
- La publication des données peut attirer de l'intérêt pour le problème.
Apprentissage supervisé vs. non supervisé vs. par renforcement
1. Apprentissage supervisé :
- La fonction doit faire correspondre les entrées aux sorties attendues (ex: images de pommes/bananes).
- Le modèle s'entraîne à minimiser l'erreur (perte) jusqu'à un seuil.
- Classification : Attribuer une catégorie (étiquette) à chaque instance.
Évaluation des performances :
- Nécessite des données avec des exemples d'entrées et de sorties.
- Comparaison des prédictions aux sorties attendues, mise à jour du modèle selon l'erreur.
- Métriques clés :
- Vrai Positif (TP) : Modèle correct, prédiction positive.
- Faux Positif (FP) : Modèle incorrect, prédiction positive.
- Faux Négatif (FN) : Modèle incorrect, prédiction négative.
- Vrai Négatif (TN) : Modèle correct, prédiction négative.
- Precision = (proportion de positifs réels parmi les positifs prédits).
- Recall (Sensibilité) = (proportion de positifs réels détectés).
- Diviser les données en ensemble d'entraînement (~80%) et ensemble de test (~20%).
2. Apprentissage non supervisé :
- Détection de patterns et régularités dans les données d'entrée sans supervision.
- Exemple : Clustering (regrouper des points de données similaires).
- Application : regrouper des clients par habitudes.
3. Apprentissage par renforcement :
- Apprentissage par essais et erreurs grâce à des récompenses ou punitions.
- L'agent apprend à interagir avec un environnement pour maximiser les récompenses.
- Exemple : apprendre à jouer à un jeu vidéo (récompense si victoire, punition si défaite).
Défis et Limites de l'IA
- Les systèmes basés sur les données importent les biais de leurs créateurs et de la société ("Data is not blind. Data is us, just reduced to binary code." - Andrew G. Ferguson).
- Les machines ne comprennent que les chiffres (nécessité de convertir audio, images, texte en représentations numériques : 'embeddings' à partir d'occurrences ou 'one-hot encoding').
- Difficulté à traiter les sentiments complexes ou l'implicite en PNL (ex: "Le service était satisfaisant, mais la livraison a été lente").
- Dépendance à la diversité des données et difficulté à saisir le contexte (ex: chihuahua ou muffin).
- Complexité des interactions entre les mots et du contexte pour le NLP.
Concepts Clés
- IA : Science de la simulation de l'intelligence humaine.
- ML : Apprentissage à partir de données sans programmation explicite.
- DL : Utilisation de réseaux neuronaux profonds pour des relations complexes.
- Donnée : Propriété mesurable, base de l'apprentissage.
- Apprentissage supervisé : Avec étiquettes et sorties attendues.
- Apprentissage non supervisé : Sans étiquettes, recherche de patterns.
- Apprentissage par renforcement : Essais-erreurs avec récompenses.
- Biais des données : Reflet des biais humains dans les modèles.
Introduction à l'Intelligence Artificielle (IA)
L'IA est un domaine de recherche qui a commencé officiellement avec la conférence de Dartmouth en 1956, bien que ses concepts remontent à l'Antiquité avec des automates (Source 27).
Définitions de l'IA
Selon Jack Copeland : « La science qui consiste à faire faire aux ordinateurs des tâches qui requièrent de l'intelligence lorsqu'elles sont effectuées par des humains » (Source 28).
Selon Marvin Minsky (1956) : « La science de faire en sorte que les machines fassent des choses qui exigeraient de l'intelligence si elles étaient faites par des hommes » (Source 37).
Selon Wikipédia : « Capacité à percevoir ou à déduire des informations, et à les conserver sous forme de connaissances pouvant être appliquées à des comportements adaptatifs dans un environnement ou un contexte donné » (Source 30).
Selon Larousse.fr : « Ensemble des fonctions mentales ayant pour objet la connaissance conceptuelle et rationnelle » (Source 30).
L'intelligence humaine est perçue comme un ensemble de composantes, et la recherche en IA se concentre sur plusieurs d'entre elles :
Apprentissage par l'expérience (mémorisation ou généralisation de règles) (Source 28).
Raisonnements et conclusions logiques (Source 28).
Résolution de problèmes (méthodes spécialisées ou stratégies générales) (Source 28).
Perception de l'environnement (capteurs, reconnaissance d'objets) (Source 28).
Compréhension et génération du langage humain (Source 28).
Approches de l'IA : Ascendante et Descendante
Le manifeste de Turing de 1948 distinguait 2 approches principales :
IA Descendante (Top-down / Knowledge-driven) : Définie par des règles logiques et des hypothèses sur le fonctionnement du monde.
Exemple : Systèmes experts.
Fonctionnement : Nous formulons des hypothèses, les traduisons en règles/équations, puis calculons des résultats à partir des données.
Échecs récents : Watson dans la santé, voitures autonomes de Google face à des situations ambiguës).
IA Ascendante (Bottom-up / Data-driven) : Axée sur les données, où les algorithmes s'adaptent et modifient leurs calculs en fonction des observations.
Exemple : Machine Learning (réseaux de neurones, forêts aléatoires, Support Vector Machines, Deep Learning).
Ces approches ont connu des améliorations significatives depuis les années 1990 et sont à l'origine des grandes réussites de l'IA actuelle, notamment avec le Deep Learning.
Types d'IA selon leurs Capacités (IBM)
L'IA est souvent catégorisée en 3 types distincts en fonction de leur niveau de capacité :
Intelligence Artificielle Étroite (ANI) / IA Faible / Weak AI :
C'est l'IA la plus répandue et largement utilisée aujourd'hui.
Elle est conçue pour résoudre des problèmes spécifiques et est très performante dans des tâches prédéfinies, parfois surpassant les capacités humaines.
Exemples : voitures autonomes, reconnaissance faciale, recherche sur Internet.
La machine simule l'intelligence sans en avoir une véritable conscience .
Intelligence Artificielle Générale (AGI) / IA Forte / Strong AI :
Une IA théorique, encore au stade de la recherche.
Aspire à égaler l'intelligence humaine et sa flexibilité dans toutes les tâches intellectuelles.
Impliquerait une conscience de soi et une compréhension de ses propres actions et arguments.
Super Intelligence Artificielle (ASI) :
Hypothétique, elle surpasserait l'intelligence humaine dans tous les domaines.
L'IA générative et les voitures autonomes sont considérées comme des précurseurs.
Présenterait des risques si elle n'est pas alignée sur les valeurs humaines.
L'Effet AI : Le Paradoxe d'une Définition Mouvante
Le terme « Intelligence Artificielle » a tendance à s'appliquer uniquement aux capacités encore inexplorées. Une fois qu'une technologie fonctionne bien et se généralise, elle est souvent perçue comme un outil ordinaire plutôt que comme de l'IA.
Comme l'a souligné Larry Tesler : « L'IA, c'est tout ce qui n'a pas encore été fait ».
John McCarthy a également noté : « Dès que cela fonctionne, plus personne ne parle d'IA » .
Des exemples comme les correcteurs orthographiques ou le GPS, autrefois considérés comme de l'IA, sont aujourd'hui des outils quotidiens.
Il est crucial de comprendre que l'IA actuelle n'a pas de conscience d'elle-même ni de ses décisions ; elle est définie et entraînée par les humains et les données.
Applications de l'IA
L'IA a un impact économique considérable, avec une création de valeur estimée à 13 000 milliards de dollars d'ici 2030. Son adoption par les entreprises ne cesse de croître, s'intégrant dans diverses fonctions métier comme le marketing, les ventes, l'IT, le développement de produits, et les opérations. L'IA améliore significativement de nombreuses mesures organisationnelles, incluant la réduction des coûts et l'augmentation des revenus.
L'IA dans le domaine des SHS et Humanités Numériques
L'IA et le Traitement Automatique du Langage (TAL) sont devenus des composants essentiels dans les Sciences Humaines et Sociales (SHS), offrant de multiples applications allant de l'aide à la traduction à la création de contenu.
IA pour l'écriture et la poésie
Assistants de rédaction : L'IA peut aider à générer des premières ébauches, lancer des idées et réduire le temps de production (Source 19, Source 20).
Création de contenu : Des outils comme GPT-3 peuvent être utilisés pour écrire des romans ou de la poésie, en apprenant à prédire des séquences de mots et à structurer des textes (Source 19, Source 20).
Positionnement face à l'écrivain humain : L'IA peut imiter le style, le rythme et la langue, mais manque encore de créativité, d'empathie, de passion et d'une pleine compréhension contextuelle du monde (Source 20).
IA dans l'industrie cinématographique
Écriture de scénarios : L'IA peut générer des scénarios complets, des synopsis, ou aider à la création de nouveaux récits à partir de données existantes (Source 17, Source 18).
Génération et analyse vidéo : L'IA permet la création de vidéos, la prédiction du succès des films, l'analyse des notations et la génération de vidéos à partir de textes (Source 17, Source 18).
Préproduction et Postproduction : Assistance pour les effets visuels (rajeunissement), le casting (sélection d'acteurs, personnages numériques), la planification, la composition musicale à partir de vidéos, et le montage (Source 17).
Promotion : Personnalisation des recommandations et de la présentation des films pour les spectateurs, comme le fait Netflix (Source 17).
IA pour la communication et le marketing numérique
Stratégie de contenu : Optimisation de la publicité et du référencement, analyse des sentiments pour comprendre la perception des clients (Source 16, Source 19).
Création et personnalisation de contenu : Génération de descriptions de produits, personnalisation des emails et des affichages numériques, profilage des clients (Source 16, Source 19).
Interactions client : Utilisation de chatbots pour le service client ou des IA de recommandation de produits et de tarification (Source 19).
IA en éducation
L'IA peut transformer l'éducation en offrant de nouvelles expériences d'apprentissage (Source 22).
Exemple : Duolingo utilise l'IA pour améliorer l'apprentissage des langues, en personnalisant les leçons et en offrant des retours ciblés (Source 22).
Traduction automatique
Des outils comme Google Translate et DeepL ont considérablement progressé, passant d'une traduction mot à mot à une traduction contextuelle plus nuancée (Source 23).
Ces systèmes sont devenus des assistants précieux pour la traduction de textes (Source 4).
Traitement automatique du langage (TAL) étendu
Applications variées : Détection de spam, catégorisation de sujets, détection de discours haineux et analyse de sentiments (Source 24, Source 63).
Vision par ordinateur : Dans le domaine de la vision, l'IA est utilisée pour la classification, la reconnaissance, la détection et la segmentation d'images. Elle améliore la productivité manufacturière, détecte les tumeurs en santé et surveille l'agriculture (Source 61, Source 62).
Vocal et Audio : Reconnaissance vocale (speech-to-text), synthèse vocale (text-to-speech), détection de mots déclencheurs, reconnaissance du locuteur et analyse des émotions vocales pour des applications comme les assistants virtuels ou la détection de stress (Source 65).
Multimodal : L'IA combine les informations de différents médias (texte, image, vidéo, audio) pour des tâches complexes comme le sous-titrage d'images, la réponse visuelle aux questions, la génération d'images à partir de texte, le résumé vidéo ou la création d'avatars virtuels (Source 66).
IA et robotique
L'IA permet aux robots et aux véhicules autonomes de percevoir leur environnement, de planifier leurs mouvements et de contrôler leurs actions (Source 67).
Apprentissage Automatique (Machine Learning - ML)
L'apprentissage automatique est un champ de l'IA qui permet aux ordinateurs d'apprendre à partir de données sans être explicitement programmés (Source 53).
Définition et Principes
« Domaine d'étude qui donne aux ordinateurs la capacité d'apprendre sans être explicitement programmés » (Arthur Samuel, 1959) (Source 53).
Le ML vise à « apprendre » à partir de données via des modèles mathématiques, en extrayant des informations pertinentes d'un ensemble de données d'entraînement pour optimiser les performances d'un modèle (Source 58).
Un problème de ML est facilité par la simplicité du concept à apprendre et la grande quantité de données disponibles (Source 70).
Le ML fonctionne bien pour des concepts simples et de grandes quantités de données, mais moins bien pour des concepts complexes avec peu de données ou de nouveaux types de données (Source 73).
Ce que le ML peut faire
Le ML peut automatiser tout ce qui peut être résolu en moins d'une seconde de réflexion (Source 59). Exemples :
Filtrage de spam (email → spam/non-spam) (Source 59).
Reconnaissance vocale (audio → transcription textuelle) (Source 59).
Traduction automatique (anglais → chinois) (Source 59).
Publicité en ligne (informations utilisateur → clic ou non) (Source 59).
Voitures autonomes (image, radar → position d'autres voitures) (Source 59).
Reconnaissance faciale (visage humain → nom) (Source 59).
Pour la vision par ordinateur, le ML gère la classification, la détection et la segmentation d'objets, la reconnaissance faciale, etc. (Source 61).
Le ML est apte à diagnostiquer une pneumonie à partir de 10 000 images (Source 72).
Ce que le ML ne peut pas faire facilement
Le ML a du mal avec :
Des tâches nécessitant une connaissance du monde ou la déduction d'intentions (ex: distinguer la raison pour laquelle une personne lève le bras) (Source 71).
Des problèmes nécessitant une grande précision et dont les données sont ambiguës (Source 71).
Le diagnostic de maladies à partir de très peu d'images, car cela nécessite de comprendre des concepts complexes avec une faible quantité de données (Source 72).
Types d'Apprentissage Automatique
Il existe trois paradigmes principaux d'apprentissage automatique :
Apprentissage Supervisé :
Le modèle apprend à mapper des entrées à des sorties attendues à partir d'un ensemble de données étiquetées (ex: images de pommes/bananes avec leurs labels) (Source 90, Source 94).
L'objectif est de minimiser l'erreur entre les prédictions du modèle et les sorties attendues (rétropropagation) (Source 96).
La classification est une tâche courante, où le modèle assigne une catégorie à chaque instance (Source 94).
L'évaluation des performances est cruciale, souvent mesurée par la précision (proportion de prédictions positives correctes) et le rappel (proportion d'éléments positifs correctement identifiés) (Source 99, Source 100).
Apprentissage Non Supervisé :
Le modèle détecte des patterns et des régularités dans les données d'entrée sans labels prédéfinis (Source 104).
Le clustering est une tâche typique, où des points de données similaires sont regroupés sans supervision externe (Source 103).
Exemple : regrouper des clients par habitudes d'achat (Source 104).
Apprentissage par Renforcement :
Un agent apprend à interagir avec un environnement pour maximiser des récompenses cumulées (Source 105).
L'apprentissage se fait par essais et erreurs, où des actions correctes sont récompensées et des actions erronées sont pénalisées (Source 106).
Exemple : Apprendre à jouer à un jeu vidéo comme Atari Breakout sans instructions explicites, juste par récompense (Source 105).
Données en IA et ML
Les données sont le fondement de l'apprentissage automatique et de l'IA (Source 75).
Définition et Types de Données
Une donnée brute (raw data) est transformée en information, puis en connaissances (Source 74).
Les données peuvent être non structurées (images, audio, texte) ou structurées (tables avec des colonnes et des lignes) (Source 76).
Un ensemble de données (dataset) est une collection d'exemples (Source 77).
Une caractéristique (feature) est une propriété mesurable dans un ensemble de données (variable, attribut) (Source 78). Elles peuvent être numériques ou catégorielles et sont souvent des combinaisons de propriétés complexes (ex: couleur, contours d'images ou structure de texte) (Source 78).
Qualité et Quantité des Données
Les performances des modèles ML dépendent fortement de la qualité et de la quantité des ensembles de données (Source 80). Des ensembles de données plus volumineux et de meilleure qualité donnent généralement de meilleurs résultats (Source 80).
Le maintien de la qualité des données implique de traiter des problèmes comme les erreurs d'étiquetage, les caractéristiques bruitées et le filtrage approprié (Source 80).
Les modèles ML doivent être entraînés sur de nombreux exemples (au moins un ou deux ordres de grandeur d'exemples supplémentaires par rapport aux paramètres entraînables) (Source 80).
Données et Biais
Les systèmes basés sur les données importent les biais de leurs constructeurs et de la société en général (Source 82).
Comme l'a dit Andrew G. Ferguson : « Les données ne sont pas aveugles. Les données, c'est nous, juste réduites à du code binaire » (Source 82).
L'étiquetage manuel et la collecte de données peuvent introduire des biais (Source 87, Source 88).
Représentation des Données pour les Machines
Les machines ne comprennent que les chiffres (Source 83). Les données (audio, images, texte) doivent être converties en représentations numériques (Source 83).
Cela inclut la transformation de l'occurrence des lettres en codage one-hot ou des représentations d'embedding (Source 85, Source 86).
Collecte et Partage des Données
Il est essentiel de collecter les données qui répondent spécifiquement à une question de recherche (Source 87).
Des plateformes comme Data.gouv.fr et Kaggle.com facilitent le partage et la publication de jeux de données, encourageant ainsi la collaboration et l'intérêt pour des problèmes spécifiques (Source 89).
Apprentissage Profond (Deep Learning - DL)
L'apprentissage profond est une sous-catégorie du Machine Learning qui utilise des structures complexes, inspirées du cerveau humain, pour capturer des relations complexes dans les données (Source 109).
Inspiration Biologique : le Cerveau Humain
Les réseaux de neurones profonds sont inspirés par le fonctionnement des neurones biologiques : réception de signaux via des dendrites, transmission via des axones, et contact via des synapses (Source 110).
Les neurones biologiques présentent un effet de seuil et fonctionnent de manière robuste, adaptable et parallèle (Source 110).
Réseaux de Neurones Artificiels
Les structures imitent les neurones humains : un neurone artificiel réalise une opération simple et est activé si le signal agrégé dépasse un certain seuil (Source 111, Source 119).
Les réseaux de neurones peuvent apprendre à extraire automatiquement des caractéristiques pertinentes des données, ce qui les rend efficaces pour des structures de données complexes (Source 112).
Fonctionnement d'un Réseau de Neurones
Calcul de prédiction : Un « neurone » simple peut calculer une sortie (ex: demande = poids * prix) (Source 115).
Optimisation des poids : Les poids (w) du réseau sont mis à jour en fonction de l'erreur entre la prédiction et les résultats attendus, jusqu'à atteindre une erreur minimale (Source 114, Source 117).
Réseau Feed Forward (FFNN) : Composé de couches de neurones interconnectées où les données progressent d'une couche d'entrée vers des couches cachées, puis vers une couche de sortie (Source 123).
Couches cachées : Les données sont composées plusieurs fois pour apprendre des non-linéarités complexes (Source 123). Un réseau avec au moins deux couches cachées est un réseau neuronal profond (DNN) (Source 123).
Apprentissage dans les Réseaux Profonds
Rétropropagation (Backpropagation) : L'erreur est propagée en arrière dans le réseau pour calculer le gradient de l'erreur par rapport à chaque poids du modèle (Source 124, Source 125).
Descente de Gradient : Algorithme utilisé pour minimiser la fonction d'erreur en ajustant itérativement les poids du modèle. Le gradient indique la direction pour réduire l'erreur (Source 125, Source 126, Source 127).
L'apprentissage profond peut être mis en œuvre en mode supervisé ou non supervisé (Source 128).
Défis
Le DL, malgré ses capacités, reste confronté à l'importance de la diversité des données et la difficulté à saisir pleinement le contexte, ce qui peut entraîner des confusions humoristiques (ex: chihuahua ou muffin) (Source 129).
Ressources supplémentaires
Pour approfondir : Lecture de la section 1.3 "Histoire de l'intelligence artificielle" dans le chapitre 1 du livre de Pearson (Source 130).
Points Clés à Retenir
L'IA est une science en évolution constante, historiquement issue de deux branches (ascendante et descendante) et catégorisée par le niveau d'autonomie (ANI, AGI, ASI).
Elle impacte fortement les SHS, l'écriture, le marketing, et le cinéma, en offrant des outils puissants pour la création, l'analyse et la personnalisation.
Le Machine Learning se base sur l'apprentissage à partir de grandes quantités de données pour résoudre des problèmes spécifiques, via des approches supervisées, non supervisées ou par renforcement.
Les données sont cruciales pour l'IA : leur qualité, quantité et représentation numérique influencent directement les performances des modèles, tout en étant source potentielle de biais.
Le Deep Learning utilise des réseaux de neurones, inspirés du cerveau humain, pour extraire des caractéristiques complexes et optimiser les performances par des mécanismes de rétropropagation et de descente de gradient.
Bien que performante, l'IA actuelle manque de conscience et de compréhension contextuelle humaine, mais son évolution continue de redéfinir les frontières de l'automatisation.
Introduction générale à l'IA et Humanités numériques
L'intelligence artificielle (IA) est un domaine en évolution constante, défini comme la science qui permet aux machines d'effectuer des tâches nécessitant l'intelligence humaine. Ce cours vise à familiariser les étudiants avec les concepts avancés et les applications pratiques de l'IA et du traitement automatique du langage (TAL) dans les sciences humaines et sociales, tout en développant un esprit critique face à ces technologies.
Objectifs du cours
- Familiariser avec les concepts avancés et applications de l'IA/TAL en SHS.
- Confronter les étudiants aux technologies IA déjà intégrées dans leur écosystème professionnel.
- Mettre en évidence les limites et enjeux (scientifiques, sociétaux, environnementaux) de ces technologies.
- Développer l'esprit critique et saisir les opportunités de l'IA dans leurs disciplines.
Ce que le cours n'enseigne PAS
- La programmation en IA.
- Les spécificités techniques approfondies de l'IA.
Déroulement du cours
- En séance : Cours, discussions, manipulations (~TP).
- En dehors des séances : Lectures.
Évaluation
- Participation active (20%) : Engagement pendant les séances.
- Travaux pratiques (30%) : Exercices pratiques et application d'outils.
- Examen écrit (50%).
Historique et définition de l'IA
- L'IA est née à la conférence de Dartmouth en 1956.
- Jack Copeland : "L'IA est la science qui consiste à faire faire aux ordinateurs des tâches qui requièrent de l'intelligence lorsqu'elles sont effectuées par des humains."
- L'intelligence humaine est un ensemble de composantes distinctes :
- Apprentissage (par l'expérience ou généralisation).
- Raisonnement (conclusions logiques).
- Résolution de problèmes (méthodes spécialisées ou stratégies générales).
- Perception (interpréter l'environnement).
- Compréhension du langage (défi majeur au-delà de la syntaxe).
Approches de l'IA (Manifeste de Turing, 1948)
Le manifeste de Turing a distingué deux approches principales :
- IA "descendante" (Top-down / Knowledge-driven) :
- Basée sur des hypothèses sur le fonctionnement du monde, traduites en règles/équations.
- Exemples : Systèmes Experts, Logique, Raisonnement.
- Reconnaît les limites actuelles (ex: échecs de Watson en santé, voitures autonomes indécises).
- IA "ascendante" (Bottom-up / Data-driven / Connectionist AI) :
- Les algorithmes sont modifiés par d'autres calculs pour s'adapter aux données observées.
- Exemples : Machine Learning, Deep Learning.
- A connu des progrès considérables depuis les années 1990, en particulier avec le Deep Learning.
Types d'IA selon les capacités (IBM)
- IA faible (ANI / Artificial Narrow Intelligence) :
- Aussi appelée Machine Learning.
- Résout des problèmes spécifiques avec des algorithmes.
- Peut surpasser l'humain dans des tâches précises.
- Simule l'intelligence sans réelle conscience.
- Exemples : voitures autonomes, reconnaissance faciale, GPS.
- IA forte (AGI / Artificial General Intelligence) :
- Théorique et en recherche.
- Égale l'intelligence et la flexibilité humaines.
- Possède une véritable conscience de soi et des sentiments.
- Capable d'effectuer n'importe quelle tâche intellectuelle.
- Super IA (ASI / Artificial Super Intelligence) :
- Plus intelligente que les meilleurs esprits humains dans tous les domaines.
- Présente des risques sérieux si non alignée avec les valeurs humaines.
Le "AI Effect"
- Tendance à ne plus qualifier de l'IA ce qui fonctionne bien et est devenu courant (Théorème de Larry Tesler).
- Exemples : correcteurs orthographiques, Google Translate, GPS (autrefois IA, maintenant outils ordinaires).
L'IA en pratique : Méthodes et Concepts
- Machine Learning :
- Donne aux ordinateurs la capacité d'apprendre sans être explicitement programmés. (Arthur Samuel, 1959)
- Tâches : prédiction de prix, reconnaissance d'images, détection de spams, traduction.
- Data Science :
- Extrait des connaissances et informations à partir de données.
- Tâches : visualisation de données, analyse statistique, rapports.
- Deep Learning / Réseaux de Neurones :
- Utilise des structures complexes (réseaux de neurones) pour capturer des relations complexes dans les données.
- Inspiré du cerveau humain (neurones, synapses, effet de seuil).
Ce que le Machine Learning peut/ne peut pas faire
- Facile : Apprendre un concept simple avec beaucoup de données (ex: filtrage de spam, reconnaissance vocale, traduction).
- Difficile : Apprendre des concepts complexes avec peu de données, ou traiter de nouveaux types de données.
- Les modèles ML peuvent détecter une voiture, mais peinent à distinguer les intentions humaines ambiguës.
- Diagnostiquer une pneumonie avec ~10k images (possible) vs. 10 images (difficile).
La Donnée (Data) en IA
- Essentielle pour l'apprentissage automatique.
- Transformée de données brutes en informations, puis en connaissances et compréhension.
- Types de données :
- Non structurées (images, audio, texte).
- Structurées (tableaux, bases de données).
- Un ensemble de données est une collection d'exemples.
- Une caractéristique (feature) est une propriété mesurable dans un ensemble de données.
- La qualité et quantité des données sont cruciales pour la performance du modèle.
- Les systèmes basés sur les données importent les biais de leurs créateurs et de la société.
- Les machines ne comprennent que les chiffres (ex: audio, images, texte convertis en vecteurs numériques).
Collecte et Préparation des Données
- Étiquetage manuel (ex: classer une image "chat").
- Observation des comportements (ex: achats en ligne, défauts machine).
- Téléchargement depuis des plateformes (ex: Data.gouv.fr, Kaggle).
- Un ensemble de données est divisé en :
- Ensemble d'entraînement (~80%) pour l'apprentissage.
- Ensemble de test (~20%) pour l'évaluation.
Types d'apprentissage automatique
- Apprentissage supervisé :
- Nécessite des données avec entrées et sorties attendues (étiquetées).
- Le modèle est entraîné à faire correspondre les entrées aux sorties en minimisant l'erreur.
- Exemple : Classification (pommes/bananes, spam/non-spam).
- Méthodes : Rétropropagation (propagation de l'erreur en arrière), Descente de gradient (ajustement itératif des poids).
- Apprentissage non supervisé :
- Détecte des patterns et régularités dans les données sans étiquettes prédéfinies.
- Exemple : Clustering (regrouper des images similaires, clients par habitudes).
- Apprentissage par renforcement :
- L'agent apprend à interagir avec un environnement pour maximiser des récompenses.
- Apprentissage par essais et erreurs à partir de récompenses ou punitions.
- Exemple : apprendre à jouer à un jeu vidéo.
Évaluation des performances d'un modèle
- Évaluation par rapport au comportement humain ("référence absolue").
- Comparaison à l'« état de l'art ».
- Mesures clés :
- Vrais Positifs (TP), Faux Positifs (FP), Faux Négatifs (FN), Vrais Négatifs (TN).
- Précision : $ \frac{TP}{TP + FP} $ (proportion des prédictions positives correctes).
- Rappel (ou TPR) : $ \frac{TP}{TP + FN} $ (proportion des vrais positifs détectés).
Réseaux de Neurones Profonds (Deep Learning)
- Imitent le fonctionnement des neurones humains (neurones, agrégation, activation).
- Extraient automatiquement les caractéristiques pertinentes des données.
- Un réseau de neurones profond (DNN) a deux couches cachées ou plus.
- L'apprentissage consiste à trouver les coefficients (poids) synaptiques qui minimisent l'erreur.
- Peut être supervisé ou non supervisé.
Applications de l'IA multimodale
- Texte + Image : Sous-titrage d'images, génération d'images, recherche d'images par description.
- Texte + Vidéo : Résumé de vidéo, doublage et sous-titrage.
- Image + Audio + Texte : Avatars virtuels, reconnaissance multimodale des émotions.
Limites et Défis
- Complexité du langage naturel (sentiments, implicite).
- Difficulté à saisir le contexte et la diversité des données.
- L'IA peut faire des erreurs sur des images ambigües (ex: chihuahua ou muffin).
Points Clés à Retenir
- L'IA est une discipline en constante évolution, avec des applications pratiques croissantes.
- Elle se divise en approches "descendantes" (règles) et "ascendantes" (données).
- Le Machine Learning, la Data Science et le Deep Learning sont des piliers de l'IA moderne.
- La qualité et la quantité des données, ainsi que l'évaluation rigoureuse sont fondamentales.
- L'IA a d'énormes opportunités, mais aussi des limites et des enjeux éthiques à considérer.
Lancer un quiz
Teste tes connaissances avec des questions interactives