AI Act : échéance du 2 août 2026 pour les systèmes à haut risque — ce que chaque dirigeant de PME doit vérifier maintenant pour éviter jusqu'à 35 M€ d'amendes
BlogActualité IA

AI Act : échéance du 2 août 2026 pour les systèmes à haut risque — ce que chaque dirigeant de PME doit vérifier maintenant pour éviter jusqu'à 35 M€ d'amendes

Mai 20268 min de lectureLesage.AI

Depuis le 1er mai 2026, la Commission Européenne a lancé une nouvelle vague de contrôles inopinés dans le cadre de l'AI Act — le règlement européen sur l'intelligence artificielle. Le 2 août 2026, toutes les obligations relatives aux systèmes IA à haut risque entrent pleinement en vigueur. Pour les PME françaises, le changement est concret : si vous utilisez un chatbot pour filtrer des candidatures, un algorithme pour scorer vos clients ou un outil IA qui influence des décisions RH ou financières, vous êtes directement concerné. Et la nouveauté majeure de 2026, c'est la co-responsabilité : votre entreprise est responsable de la conformité de ses outils IA, même si c'est votre prestataire qui les a déployés. Les amendes peuvent atteindre 35 millions d'euros ou 7 % du chiffre d'affaires mondial. Cet article vous donne les clés pour comprendre vos obligations et vous mettre en conformité avant l'été.

Le problème : 80 % des PME utilisent de l'IA, moins de 5 % savent si elles sont conformes

Selon la Commission Européenne, plus de 80 % des PME utilisent déjà au moins un outil d'intelligence artificielle — chatbot de service client, outil de rédaction automatique, scoring commercial, analyse prédictive de trésorerie, tri automatisé de CV. Mais moins de 5 % de ces entreprises ont réalisé un audit de conformité AI Act. La plupart des dirigeants pensent que la réglementation ne concerne que les géants de la tech ou les systèmes autonomes de type robotique. C'est faux. L'AI Act s'applique à tout système qui utilise l'apprentissage automatique ou des techniques statistiques pour générer des prédictions, des recommandations ou des décisions. Si votre outil de recrutement classe automatiquement les candidatures, si votre CRM attribue un score de risque à vos clients, si votre logiciel de paie ajuste automatiquement les variables de rémunération — vous déployez potentiellement un système IA à haut risque. Et depuis mai 2026, les contrôles ne sont plus théoriques.

Ce que l'AI Act change concrètement au 2 août 2026

L'AI Act classe les systèmes IA en quatre niveaux de risque : inacceptable (interdit), haut risque (strictement encadré), risque limité (obligations de transparence) et risque minimal (libre). Pour les PME, l'enjeu principal concerne le haut risque. Sont considérés à haut risque les systèmes IA utilisés dans le recrutement et la gestion des ressources humaines, l'évaluation de la solvabilité et le scoring crédit, l'accès aux services publics et prestations sociales, la surveillance des salariés et l'évaluation des performances, et certains outils de catégorisation biométrique. Si votre PME utilise un outil IA dans l'un de ces domaines, vous devez disposer au 2 août 2026 d'une documentation technique complète décrivant l'architecture du système, d'un système de gestion des risques documenté, de la traçabilité des données utilisées pour l'entraînement, d'une supervision humaine effective avec des procédures d'escalade, et d'un registre des décisions prises par le système IA.

La co-responsabilité : votre PME est dans la ligne de mire, pas seulement votre prestataire

C'est le changement le plus important et le moins compris de l'AI Act. La responsabilité est partagée entre le fournisseur du système IA et le déployeur — c'est-à-dire votre entreprise. Le fournisseur assume les obligations de conception, de conformité technique et de marquage CE. Mais en tant que déployeur, votre PME doit respecter les obligations d'usage, de contrôle, de transparence et de mise en œuvre des procédures internes. Concrètement, si votre prestataire IA vous a vendu un système de scoring client non conforme et que vous l'utilisez sans avoir vérifié sa conformité, les deux parties sont sanctionnables. Depuis le 1er mai 2026, les autorités de contrôle effectuent des vérifications inopinées qui ciblent prioritairement la justification de la chaîne de traitement algorithmique, la qualité des données d'entraînement, l'exactitude de la documentation, la robustesse des processus d'automatisation et la formation des équipes. Ne pas savoir que votre outil était à haut risque n'est pas une excuse recevable.

Les sanctions : jusqu'à 35 millions d'euros, mais des allègements pour les PME

  • Utilisation d'un système IA interdit (risque inacceptable) : jusqu'à 35 millions d'euros ou 7 % du chiffre d'affaires mondial annuel.
  • Non-conformité d'un système à haut risque : jusqu'à 15 millions d'euros ou 3 % du chiffre d'affaires mondial annuel.
  • Fourniture d'informations incorrectes aux autorités : jusqu'à 7,5 millions d'euros ou 1,5 % du chiffre d'affaires mondial annuel.
  • Allègement PME : les amendes sont plafonnées au montant le plus bas entre le forfait et le pourcentage du CA. Les autorités doivent privilégier l'accompagnement avant la sanction pour les petites structures.
  • Échéance repoussée : grâce au Digital Omnibus, les PME déployant un système haut risque bénéficient d'un délai supplémentaire jusqu'au 2 décembre 2027 — mais les contrôles et les audits commencent dès maintenant.

Checklist de conformité AI Act en 5 points pour votre PME

  • Inventaire IA — Listez tous les outils IA utilisés dans votre entreprise : chatbots, CRM avec scoring, outils RH automatisés, analyse prédictive, génération de contenu. Pour chaque outil, identifiez le fournisseur, les données traitées et le domaine d'application.
  • Classification des risques — Pour chaque outil, déterminez son niveau de risque selon l'AI Act. Si l'outil prend ou influence des décisions sur l'emploi, le crédit, l'accès aux services ou la surveillance des personnes, il est probablement à haut risque. En cas de doute, faites-le évaluer par un spécialiste.
  • Audit documentaire — Demandez à chaque fournisseur IA sa documentation de conformité AI Act : fiche technique du système, évaluation des risques, politique de données d'entraînement, mécanismes de supervision humaine. Si le fournisseur ne peut pas fournir ces documents, c'est un signal d'alarme.
  • Procédures internes — Mettez en place une procédure de supervision humaine pour chaque système à haut risque : qui valide les décisions, comment escalader un cas litigieux, comment tracer les décisions automatisées. Formez les collaborateurs concernés.
  • Registre de conformité — Créez un registre centralisé documentant vos outils IA, leur classification, les mesures de conformité appliquées et les audits réalisés. Ce registre est le premier document que les contrôleurs demanderont.

Cas concret : un cabinet de recrutement de 25 salariés face à l'AI Act

Prenons un cabinet de recrutement basé à Nantes, 25 salariés, qui utilise un outil IA pour pré-trier les CV et un chatbot pour les premiers échanges avec les candidats. Avant mai 2026, le dirigeant considérait ces outils comme de simples gains de productivité. Mais le tri automatisé de CV est un cas d'usage explicitement classé haut risque par l'AI Act — il influence directement l'accès à l'emploi. Le cabinet a réalisé un audit express : l'outil de tri de CV n'avait aucune documentation de conformité disponible auprès du fournisseur, aucune procédure de supervision humaine n'était formalisée, et les critères de scoring des candidatures n'étaient pas traçables. En 3 semaines, avec l'accompagnement d'un spécialiste, le cabinet a obtenu la documentation technique du fournisseur (qui avait anticipé l'AI Act), mis en place une procédure de validation humaine systématique sur les 20 % de candidatures les moins bien notées, formé les 4 consultants RH à l'utilisation conforme de l'outil, et créé un registre de conformité centralisé. Coût total : 3 500 euros. Risque évité : jusqu'à 15 millions d'euros d'amende et une interdiction d'utilisation de l'outil.

Comment Lesage.AI accompagne votre mise en conformité AI Act

Chez Lesage.AI, nous ne nous contentons pas de déployer des solutions IA — nous nous assurons qu'elles sont conformes dès le départ. Notre accompagnement AI Act pour les PME comprend un audit complet de vos outils IA existants avec classification des risques, la rédaction de la documentation technique requise en collaboration avec vos fournisseurs, la mise en place des procédures de supervision humaine adaptées à votre organisation, la création de votre registre de conformité, et la formation de vos équipes aux bonnes pratiques. L'AI Act n'est pas un frein à l'adoption de l'IA — c'est un cadre qui protège votre entreprise et vos clients. Les PME qui anticipent la conformité transforment cette contrainte réglementaire en avantage concurrentiel : elles peuvent garantir à leurs clients et partenaires que leur utilisation de l'IA est responsable, traçable et conforme. C'est un argument commercial de plus en plus différenciant.

L'échéance du 2 août 2026 approche et les contrôles AI Act ont déjà commencé. Lesage.AI propose un diagnostic de conformité gratuit de 30 minutes pour identifier vos outils IA à risque, évaluer votre niveau de conformité actuel et définir un plan d'action concret avant l'été. Sans engagement, sans jargon technique. Contactez-nous : bonjour@nathanlesage.dev

PartagerLinkedInX / Twitter

Passer à l'action

Ce sujet vous concerne ?

Premier diagnostic offert, sans engagement.