[
Stratégie
]

Le grand retour de la connaissance explicite

Ontologies et Knowledge Graphs, le retour

Dérisquez

Planifiez un échange avec un expert en IA pour vous aider à atteindre vos objectifs

nous contactez

Introduction
Les dernières années ont vu l’essor spectaculaire du deep learning, porté par la puissance de calcul et l’abondance de données. Les modèles neuronaux profonds, capables d’extraire des régularités complexes, se sont imposés dans une multitude de domaines : vision par ordinateur, traitement du langage, détection de fraude, etc. Pourtant, ces approches de type « boîte noire » posent un problème crucial : l’absence d’explications claires sur la façon dont la décision a été prise.

Dans des secteurs comme la santé, la finance ou la gouvernance, cette opacité ne suffit plus. Les législations (RGPD, futur AI Act) et les préoccupations éthiques imposent une transparence accrue. Les Knowledge Graphs (ou graphes de connaissances), soutenus par des ontologies solides, offrent alors une voie alternative ou complémentaire : non seulement organiser et structurer l’information, mais aussi expliquer la logique derrière les décisions.

Dans cet article, nous verrons pourquoi ces approches basées sur la connaissance reviennent en force et de quelle manière elles répondent à l’exigence grandissante de rendre l’IA plus transparente et responsable.

1. L’apport du deep learning… et sa limite d’explicabilité

Le deep learning, grâce à la multiplication des données et à des architectures de plus en plus sophistiquées, a fait franchir à l’IA des caps impressionnants :

  • Vision par ordinateur : détection d’objets, reconnaissance faciale, analyse d’imagerie médicale.
  • Traitement automatique du langage : chatbots, traduction neuronale, génération de texte.
  • Détection de fraude et analyse prédictive dans la finance et l’assurance.

Toutefois, en dépit de leurs performances, ces systèmes restent opaques. Ils sont composés de millions, voire de milliards, de poids ajustés par apprentissage, rendant difficile de retracer un chemin de décision compréhensible par un humain. C’est précisément dans les domaines soumis à une forte régulation ou ayant des enjeux sociétaux que cette absence d’explicabilité suscite le plus d’inquiétudes.

2. Les Knowledge Graphs : une vision structurée de la connaissance

Contrairement aux réseaux de neurones, les Knowledge Graphs (KG) s’appuient sur des relations explicites entre des entités (personnes, objets, concepts, lieux, événements…). Ils reposent souvent sur des standards comme RDF ou OWL, permettant de décrire la connaissance sous forme de triplets (sujet–relation–objet). Cette structure offre plusieurs avantages :

  1. Interrogation et inférence : On peut formuler des requêtes logiques pour extraire de l’information ou déduire de nouveaux faits, grâce à des règles ou à des moteurs d’inférence.
  2. Transparence : Chaque lien entre des concepts est défini de façon explicite (par exemple, “un patient souffre d’une maladie” ou “ce médicament traite cette pathologie”).
  3. Interopérabilité : En utilisant des langages standardisés, différents systèmes peuvent partager et comprendre la même base de connaissances.

3. Les ontologies : colonne vertébrale et règles de logique

Les ontologies viennent compléter les Knowledge Graphs en définissant un vocabulaire et des axiomes logiques pour un domaine donné. Elles précisent :

  • Les classes (ex. « Maladie », « Traitement », « Patient »),
  • Les propriétés (ex. « aPourSymptôme », « estTraitéPar »),
  • Les contraintes ou règles logiques (ex. « Un traitement médicamenteux est prescrit pour soigner une maladie »).

Dans le domaine médical, des référentiels tels que SNOMED CT ou LOINC permettent d’harmoniser la terminologie. Grâce à une ontologie précise, l’IA peut expliquer sur quelles règles et concepts elle s’est appuyée pour aboutir à un diagnostic ou une recommandation.

4. Pourquoi l’explicabilité est devenue cruciale

  1. Confiance et adoption : Les utilisateurs, qu’ils soient professionnels de santé, investisseurs ou citoyens, souhaitent savoir comment une décision a été prise avant de la valider ou de l’appliquer.
  2. Cadre légal et réglementaire :
    • Le RGPD (Règlement Général sur la Protection des Données) impose que les décisions automatisées soient compréhensibles pour les individus concernés (articles 13 à 15), et prévoit des droits de contestation (article 22). Même s’il n’emploie pas le terme exact de “droit à l’explication”, il insiste sur la transparence de la logique sous-jacente.
    • L"AI Act européen classe certaines IA comme “à haut risque” et exige alors des mécanismes d’explicabilité et de traçabilité.
  3. Valeur stratégique : Comprendre et documenter les décisions d’une IA permet de mieux les améliorer, d’identifier les biais éventuels et de dégager de nouvelles opportunités d’optimisation.

5. Vers une IA hybride : deep learning et logique explicite

L’enjeu aujourd’hui n’est pas d’opposer le deep learning aux Knowledge Graphs, mais de les combiner. On parle parfois d’IA neurosymbolique ou d’approches hybrides, où :

  • Le deep learning excelle à détecter des schémas dans des données massives (images, textes bruts, signaux).
  • La logique explicite (via les ontologies et les KG) permet de représenter, structurer et expliquer la connaissance.

Cette complémentarité accroît la robustesse et la fiabilité de l’IA. Dans la mesure où le système peut se référer à des règles précises et rendre compte de son raisonnement, on limite les décisions arbitraires et on améliore la traçabilité.

Conclusion

Si le deep learning a transformé la manière dont nous abordons l’intelligence artificielle, il est aujourd’hui clair que la demande d’explicabilité est incontournable. Dans certains domaines critiques, la boîte noire n’est pas acceptable.

C’est là que les Knowledge Graphs et les ontologies reprennent la main : ils structurent la connaissance et rendent les décisions plus claires, justifiables et auditables. Le futur de l’IA se dessine dans une approche hybride, alliant la puissance du machine learning à l’intelligibilité d’une logique explicite.

En somme, l’IA de demain ne sera pas seulement performante, elle sera aussi capable de révéler comment et pourquoi elle prend ses décisions, pour susciter la confiance, respecter les exigences légales et apporter une valeur stratégique durable.

[
faites-nous confiance]

Prêt à innover ?

Contactez-nous pour découvrir comment notre expertise en IA peut transformer votre entreprise