Solution

Détectez les problèmes avant qu'un recall ne vous tombe dessus

Darwin ne se contente pas de capturer et tracer — il analyse vos données en temps réel pour détecter des anomalies, prédire des risques et répondre à des questions complexes de compliance. IA qui explique chaque alerte en citant la réglementation applicable.

Deux piliers

IA appliquée au compliance régulé

Plus que des dashboards : de l'intelligence actionnable

La traçabilité génère beaucoup de données. La valeur est que quelqu'un — ou quelque chose — revoie ces données 24/7 et vous prévienne avant qu'un auditeur ne vous signale un problème ou qu'un détaillant ne rejette une expédition.

Détection d'anomalies

Pipeline qui croise un rules engine déterministe + analyse sémantique sur embeddings. Identifie ghost lots, ruptures de chaîne du froid, shrinkage et déviations de route — avec explication en langage naturel.

Compliance agéntico

Agent qui répond à des questions comme "Le lot LOT-8901 est-il conforme pour exporter aux USA ?" en croisant des données on-chain + réglementation en vigueur + analyse de risque. Output : compliance report avec gap analysis et risk score.

Pilier 1 — Détection d'anomalies

5 catégories, 16+ règles, explication automatique

Chaque alerte arrive avec la raison exacte, la réglementation citée et l'action recommandée — pour que votre équipe sache quoi faire sans lire de code.

Intégrité des données

KDEs manquants, lots dupliqués, TLCs avec format incohérent entre acteurs. Détecté avant que ça arrive à l'audit.

Temporel

Séquences violées (Harvest > Pack), backdating on-chain, gaps temporels sans événements, transits impossibles par distance/vitesse.

Chaîne de custody

Ghost lots (réception sans envoi), custody gaps, acteurs non autorisés pour ce type d'événement. Les défaillances les plus coûteuses à détecter manuellement.

Quantité / mass balance

Shrinkage excessif entre envoi et réception, yield gonflé sur transformations, mismatch d'unités de mesure. Signaux précoces de fraude ou erreur.

IoT / environnemental

Ruptures de chaîne du froid, déviations de route GPS, température hors plage par commodité. Détecté en temps réel depuis des capteurs IoT intégrés.

Explication contextualisée

Chaque alerte arrive avec sévérité (CRITICAL/HIGH/MEDIUM/LOW), section de FSMA 204 violée, historique du lot et action concrète à prendre — générée par LLM.

Pilier 2 — Compliance agéntico

Demandez en langage naturel, obtenez un compliance report

De l'analyste junior au senior, en secondes

Votre équipe n'a pas besoin de mémoriser 400 pages de réglementation ou de naviguer dans 10 systèmes — elle demande à l'agent et obtient la réponse avec la trace de comment elle a été obtenue. Explicabilité totale pour l'audit.

Requête en langage naturel

Ex : "Ce lot d'épinards biologiques respecte-t-il les exigences pour exporter aux USA ?" — l'agent route la query entre plusieurs sources de données.

Crosscheck multi-source automatique

L'agent interroge les données on-chain (chaîne de custody, lab results, acteurs), la réglementation en vigueur (FSMA 204, EUDR, certifications privées) et les modules de risque (anomalies + règles).

Compliance report structuré

Output avec status (COMPLIANT / NON_COMPLIANT / REQUIRES_REVIEW), gap analysis (ce qui manque), risk scoring, citations de réglementation et actions recommandées concrètes.

Pipeline

Comment ça fonctionne end-to-end

1. Ingestion d'événements

Les CTEs capturés par Captia et ancrés par Tracium entrent dans le pipeline — avec enrichment temporel, géographique et relationnel.

2. Détection parallèle

Rules engine (16+ règles déterministes) + centroid-based anomaly detection (sémantique, unsupervised) tournent sur chaque événement.

3. Score combiné

Si rules + semantic coïncident en flaggant → sévérité haute. Si seule une le marque, reste en watch. Filtres pour minimiser les faux positifs.

4. Explication avec LLM + RAG

Le LLM génère une explication en citant FSMA 204, historique du lot et profil de l'acteur. Tout indexé dans Qdrant pour le retrieval.

5. Alertes et feedback

Notification par sévérité (Slack/email/webhook). Opérateur marque false_positive → retro-alimente le modèle. Anomalies confirmées enrichissent le contexte futur.

5
Catégories d'anomalies
16+
Règles déterministes
100%
Explicabilité
Oui
Self-hosted possible

FAQs

Questions fréquentes

Dois-je entraîner un modèle avec des données labellisées ?

Non. La détection sémantique utilise des centroïdes sur embeddings (unsupervised), donc pas besoin d'historique d'anomalies labellisées. Le rules engine utilise des règles explicites de FSMA 204. Les deux fonctionnent dès le jour 1.

Comment le système explique-t-il les anomalies ?

Le LLM combine les données de l'événement anormal avec RAG sur la réglementation FSMA 204, historique du lot, profil de l'acteur et anomalies similaires passées. Output : sévérité, section de réglementation violée, et action concrète — pas un score opaque.

Puis-je marquer des faux positifs ?

Oui. Chaque alerte permet du feedback. Les false positives s'excluent du calcul des centroïdes futurs (pour ne pas contaminer). Les anomalies confirmées sont indexées comme cas historiques pour améliorer les explications futures.

Ça tourne en temps réel ou en batch ?

Par défaut, pipeline batch quotidien/hebdomadaire — suffisant pour la plupart des cas réglementaires. Cas critiques (ex : chaîne du froid, événements IoT) peuvent se configurer en streaming avec alertes immédiates.

Peut-on faire tourner en self-hosted sans APIs externes ?

Oui. Nous supportons le mode self-hosted avec Ollama (LLMs locaux) + Qdrant + embedding local. Idéal pour les clients avec exigences de souveraineté de la donnée ou projets gouvernementaux. Il existe aussi un mode API-based (plus rapide et moins cher) pour les clients sans ces restrictions.

Qu'est-ce qui différencie ça d'un dashboard BI ?

Un BI montre ce que vous savez déjà chercher. Ça vous dit ce que vous ne saviez pas qu'il se passait — et l'explique. L'agent répond à des queries composées qui exigent aujourd'hui un analyste croisant 3 systèmes + lisant la réglementation.

Laissez l'IA veiller sur votre chaîne

24/7, sans fatigue, avec une explication pour chaque alerte. Parlons de comment l'implémenter sur vos données actuelles.