index - Confiance.ai Accéder directement au contenu

Un collectif français d’envergure inédite pour concevoir et industrialiser des systèmes à base d’intelligence artificielle de confiance

Une stratégie nationale au service de l’ingénierie française

Pilier technologique du Grand Défi « Sécuriser, certifier et fiabiliser les systèmes fondés sur l’intelligence artificielle » lancé par l’Etat, Confiance.ai est le plus gros programme de recherche technologique du plan #AIforHumanity qui doit faire de la France un des pays leader de l’intelligence artificielle (IA)

Relever le défi de l’industrialisation de l’IA

Le déploiement à très grande échelle de systèmes industriels intégrant de l’IA est un enjeu crucial de compétitivité industrielle, économique et de souveraineté nationale. Le programme Confiance.ai porte donc une ambition forte : lever les verrous associés à l’industrialisation de l’IA et doter les acteurs industriels français de méthodes outillées adaptées à leurs ingénieries et construites sur des bases technologiques indépendantes. L’originalité du programme repose sur sa stratégie intégrative : il traite les défis scientifiques relatifs à l’IA de confiance et apporte des solutions tangibles, applicables dans le monde réel et industrialisables.

Fédérer les forces vives

Le programme Confiance.ai rassemble un collectif d’acteurs académiques et industriels français majeurs des domaines de la défense, des transports, de l’industrie manufacturière et de l’énergie qui ont décidé de mutualiser leurs savoir-faire scientifiques et technologiques de pointe. Le programme s’appuie sur une ingénierie et une culture mathématiques fortes associée à une excellence en intelligence artificielle pour établir de manière solidement argumentée la confiance dans les systèmes. Il est en cela, le symbole de l’approche culturelle française en matière de validation de l’intelligence artificielle.

 

Dernières publications

 

Mots-clés

Artificial Intelligence Decision tree XAI Artificial intelligence Explainability Deep learning Computer Vision and Pattern Recognition Reliability Sûreté de fonctionnement Christoffel functions Sûreté Robustness Complexity Enalty Bayesian Neural Networks Semantic segmentation Robustesse Neural network Computer Vision Explainable AI Custom search space Deployment Neural ODEs Computer vision Bayesian Optimization Data trustworthiness ED-324/ARP6983 Deep Reinforcement Learning Conformal prediction AI AI System Characterization Embedded AI Calibration ODD Case-based Automated vehicle Adversarial physical attack Edge computing Example-based Counterfactuals AI-based systems Evaluation Machine Learning AI-Based Systems Mixed Integer Programming Intelligence Articifielle Adversarial attack Bias Detection AI-Systems Engineering Anomaly detection Conformal Prediction Realization theory Cycle-accurate simulator Adversarial examples Explicabilité Confiance explicabilité Arcadia Method Anomaly Detection Neural Network Data Stream Processing Distributed Machine Learning Adversarial attacks Data Visualization Concepts Adversarial Training Long Short-Term Memory Assurance case Data Stream Generative Models Confiance System Identification Branch-and-Bound algorithm Embarqué AI component evaluation methodology Dempster Shafer theory Machine learning Monitoring Data-driven reachability Certification Cryptography and Security Explanations Critical systems Distribution based method Data Quality Engineering Processes Attack transferability Deep neural network classifiers Data Analysis AI-Based Critical Systems Explicability AI engineering Deep Reinforcement Learning Robustness Adversarial Attacks Adversarial Training Recurrent Neural Networks Anomaly Bayesian optimization Contextual Evaluation Bayesian inference Trustworthiness Attributes Trustworthiness Assessment Adversarial Attacks Distributed learning