index - Confiance.ai

Un collectif français d’envergure inédite pour concevoir et industrialiser des systèmes à base d’intelligence artificielle de confiance

Une stratégie nationale au service de l’ingénierie française

Pilier technologique du Grand Défi « Sécuriser, certifier et fiabiliser les systèmes fondés sur l’intelligence artificielle » lancé par l’Etat, Confiance.ai est le plus gros programme de recherche technologique du plan #AIforHumanity qui doit faire de la France un des pays leader de l’intelligence artificielle (IA)

Relever le défi de l’industrialisation de l’IA

Le déploiement à très grande échelle de systèmes industriels intégrant de l’IA est un enjeu crucial de compétitivité industrielle, économique et de souveraineté nationale. Le programme Confiance.ai porte donc une ambition forte : lever les verrous associés à l’industrialisation de l’IA et doter les acteurs industriels français de méthodes outillées adaptées à leurs ingénieries et construites sur des bases technologiques indépendantes. L’originalité du programme repose sur sa stratégie intégrative : il traite les défis scientifiques relatifs à l’IA de confiance et apporte des solutions tangibles, applicables dans le monde réel et industrialisables.

Fédérer les forces vives

Le programme Confiance.ai rassemble un collectif d’acteurs académiques et industriels français majeurs des domaines de la défense, des transports, de l’industrie manufacturière et de l’énergie qui ont décidé de mutualiser leurs savoir-faire scientifiques et technologiques de pointe. Le programme s’appuie sur une ingénierie et une culture mathématiques fortes associée à une excellence en intelligence artificielle pour établir de manière solidement argumentée la confiance dans les systèmes. Il est en cela, le symbole de l’approche culturelle française en matière de validation de l’intelligence artificielle.

 

Dernières publications

 

Mots-clés

AI-Systems Engineering Computer vision Uncertainty AI engineering Apprentissage automatique Explainability Adversarial Training Trustworthiness Assessment Explicabilité AI Robustness Monitoring Computer Vision Vision par ordinateur Body of knowledge Robustness Autonomous system Realization theory Calibration Reliability ODD Adversarial physical attack Confiance explicabilité Bayesian Optimization Intelligence Articifielle Machine Learning Body-of-Knowledge Assurance Cases Trustworthy AI-based systems AI System Characterization Contextual Evaluation Trustworthiness Attributes Conformal Prediction AI Safety Tools Intelligence artificielle Bayesian optimization AI systems Generative Models XAI Neural ODEs Critical systems Knowledge extraction Anomaly detection Machine learning Anomaly Assessment Concepts Distributed learning Neural Architecture Search Neural Network Adversarial Attacks Case-based Assurance case Recurrent Neural Networks Semantic segmentation Multi-fidelity BO Artificial intelligence Adversarial attack AI-Based Systems Knowledge fusion Aide à la décision Bayesian inference Neural network Arcadia Method Complexity Counterfactuals Collaboration Human-IA Adversarial examples Branch-and-Bound algorithm Boosted Decision Trees BDT Robustesse Knowledge graph Computer Vision and Pattern Recognition AI-Based Critical Systems AI component evaluation methodology Sûreté de fonctionnement Trustworthiness Conformal prediction AI System Identification Confiance Christoffel functions Mixed Integer Programming Artificial Intelligence AI explainability AI Governance Certification Automated vehicle Attack transferability Anomaly Detection Bias Detection Long Short-Term Memory ML Engineering Cryptography and Security Engineering processes Al monitoring Adversarial attacks Explainable AI Sûreté