index - Confiance.ai Accéder directement au contenu

Un collectif français d’envergure inédite pour concevoir et industrialiser des systèmes à base d’intelligence artificielle de confiance

Une stratégie nationale au service de l’ingénierie française

Pilier technologique du Grand Défi « Sécuriser, certifier et fiabiliser les systèmes fondés sur l’intelligence artificielle » lancé par l’Etat, Confiance.ai est le plus gros programme de recherche technologique du plan #AIforHumanity qui doit faire de la France un des pays leader de l’intelligence artificielle (IA)

Relever le défi de l’industrialisation de l’IA

Le déploiement à très grande échelle de systèmes industriels intégrant de l’IA est un enjeu crucial de compétitivité industrielle, économique et de souveraineté nationale. Le programme Confiance.ai porte donc une ambition forte : lever les verrous associés à l’industrialisation de l’IA et doter les acteurs industriels français de méthodes outillées adaptées à leurs ingénieries et construites sur des bases technologiques indépendantes. L’originalité du programme repose sur sa stratégie intégrative : il traite les défis scientifiques relatifs à l’IA de confiance et apporte des solutions tangibles, applicables dans le monde réel et industrialisables.

Fédérer les forces vives

Le programme Confiance.ai rassemble un collectif d’acteurs académiques et industriels français majeurs des domaines de la défense, des transports, de l’industrie manufacturière et de l’énergie qui ont décidé de mutualiser leurs savoir-faire scientifiques et technologiques de pointe. Le programme s’appuie sur une ingénierie et une culture mathématiques fortes associée à une excellence en intelligence artificielle pour établir de manière solidement argumentée la confiance dans les systèmes. Il est en cela, le symbole de l’approche culturelle française en matière de validation de l’intelligence artificielle.

 

Dernières publications

 

Mots-clés

Cycle-accurate simulator System Identification Anomaly detection GPU LSTM Long Short-Term Memory Influence Functions Adversarial attacks Interpretability and explainability AI System Characterization Fault detection Explicabilité Deep learning Contextual Evaluation Distributed learning Data Stream Processing Bayesian inference Engineering Processes Calibration AI-Based Systems Federated Learning Computer Vision and Pattern Recognition Counterfactuals Hardware Embedded AI Christoffel functions Artificial intelligence Anomaly Bayesian Optimization Adversarial examples Monitoring Complexity Data Stream Intelligence Articifielle Machine learning Data Analysis Adversarial physical attack AI component evaluation methodology Robustesse Computer vision Example-based Custom search space Confiance Fault tolerance Enalty Bayesian Neural Networks Anomaly Detection Distribution based method Sûreté de fonctionnement Conformal Prediction Confiance explicabilité Fault tolerant systems Computer Vision Arcadia Method Explainable AI AI-Based Critical Systems FOS Computer and information sciences Recurrent Neural Networks Branch-and-Bound algorithm AI Adversarial attack Data Quality Fiabilité Mental models Deep neural network classifiers Neural Network Embarqué Sûreté Data Visualization MBSE Machine leanring Trustworthiness Attributes ODD Explainability AI engineering Intelligence artificielle Cryptography and Security Critical systems Bias Detection Distributed Machine Learning Gas Distribution Neural ODEs Trustworthiness Assessment Evaluation Decision tree Data-driven reachability Markov Chain Robustness Machine Learning Generative Models Attack transferability AI-based systems Realization theory Conformal prediction Explicability Concepts Ingénierie algorithmique de l’IA Case-based Artificial Intelligence Explanations XAI