Guide de l’AI Act
Loi sur l'IA : se conformer au nouveau règlement sur l'intelligence artificielle (RIA)
Découvrez le nouveau règlement européen encadrant l'intelligence artificielle, un tournant majeur pour les acteurs de l’Union européenne. Le règlement sur l'intelligence artificielle (RIA) aussi appelé « AI Act » vise à établir un cadre clair et éthique pour la conception, la fourniture et l’usage de systèmes d’IA, tout en protégeant les droits individuels et en favorisant l'innovation.
Cette réglementation impacte directement l’ensemble des individus des organisations. Les CEO, les cadres dirigeants, les responsables des technologies de l'information, les juristes et responsables de la conformité sont particulièrement concernés. La conférence s'adresse à toute ces personnes concernées par les contraintes de conformité en matière d'IA, souhaitant comprendre les implications de ce nouveau règlement et les meilleures pratiques pour s'y conformer.
En intégrant les enjeux éthiques, juridiques et de conformité qu’apportent l'IA, les organisations pourront relever les défis de leur transformation digitale tout en saisissant les opportunités d'innovation qu'offre cette révolution technologique.
Plongez-vous dans les enjeux essentiels de l'intelligence artificielle et préparez-vous à naviguer dans un environnement réglementaire complexe mais porteur d'opportunités. Explorez les différentes perspectives présentées lors de cette conférence par les meilleurs experts du sujet pour adopter une approche proactive et informée face à la réglementation de l'IA.
Nous vous attendons nombreux pour cette journée d’explications et d'échanges sur les aspects pratiques, juridiques et stratégiques passionnants sur l'IA et les bouleversements sociétaux qu’elle génère.
Conférence présidée par :
Yves Poullet
Professeur émérite à la faculté de droit et recteur honoraire de l’université de Namur
Membre de l’académie royale de Belgique
Membre de la chambre juridictionnelle de l’APD
Membre de la CCF d’INTERPOL
Vice-président du programme IFAP de l’UNESCO en charge des aspects légaux et éthiques
Rue Gineste, 3
1210 Bruxelles
Belgique
- Développer des stratégies en fonction des nouvelles obligations en ce qui concerne l’utilisation des données et des systèmes recourant à l’intelligence artificielle
- Adapter la gouvernance de son organisation en prenant en compte les différents enjeux que génère le recours à l’intelligence artificielle
- Evaluer les risques générés par l'IA ainsi que les risques liés aux biais au sein des algorithmes
- Examiner comment mettre en œuvre les nouvelles obligations tout en permettant à son organisation de se développer
- Préparer son organisation à l'entrée en vigueur du règlement européen régentant l'intelligence artificielle
- Se familiariser avec l'IA pour rester compétitif et innovant dans un environnement en évolution constante
Agréments
- L’organisateur est accrédité par la FSMA - N° d’accréditation : 500036A et 50036B - 1 point par heure
- Abilways est également reconnu par la FSMA dans le cadre de la formation permanente des compliance officers : 1 point par heure
- OBFG (Ordre des Barreaux Francophones & Germanophone) sur demande
- IJE (Institut des juristes d'entreprise) : sur demande
- Besoin d’une autre accréditation ? N’hésitez pas à nous en faire part en amont de la conférence
- CEO, Administrateurs, présidents, directeurs généraux et dirigeants
- Chiefs Compliance Officers (CCO), Heads of compliance, Compliance managers, Compliance Officers
- Responsables des technologies de l'information (IT), déployeurs de solutions d'IA, data scientists et spécialistes en intelligence artificielle
- Heads of Strategy & Innovation
- Responsables des données (Chiefs Data Officer, Data Analysts)
- CRO et département risks
- Responsables des départements juridiques, Legal counsels, Conseillers juridique, juristes, personnel juridique
- Audit et contrôle interne
- Avocats
- Consultants
- Responsables dématérialisation, digital Transformation Managers, digital product managers, consultants techniques
- Chief Information Officers, Architectes informatiques, directeurs des systèmes informatique et/ou d'information, responsables de la sécurité des systèmes d'information, chefs de projet IT, responsables des études informatiques
- Délégués à la protection des données (DPO)
- Responsables marketing et commerciaux
- Directeurs et gestionnaires des ressources humaines (RH)
- Directeurs marketing
- Toute personne souhaitant comprendre les implications de ce nouveau règlement sur son travail
Introduction au règlement européen établissant des règles harmonisées concernent l'IA – la souveraineté européenne et ses ambiguïtés
Yves Poullet
Professeur émérite à la faculté de droit et recteur honoraire de l’Université de Namur
Membre de l’académie royale de Belgique
Membre de la chambre juridictionnelle de l’Autorité de protection des données (APD)
Membre de la CCF d’INTERPOL
Une vue sur les innovations et stratégies à partir des données et de l'IA
- Vue d’ensemble des enjeux des entreprises en Europe pour adopter et intégrer des solutions en IA
- Quelques exemples de cas d’usage qui sont aux frontières de certains risques définis par l’AI Act
- Quelles stratégies les sociétés parmi les plus avancées adoptent pour avancer dans leur feuille de route et garantir une bonne gouvernance et maitrise des risques
Patrice Latinne
Partner | Data & Artificial Intelligence, EY
Lead Data & AI consulting services for EY EMEIA FSO Belgium
Lead Artificial Intelligence for Financial Services in EMEIA
Lecturer, Business Analytics, Machine Learning & AI, Solvay Brussels School of Economics and Management (SBS-EM) – ULB
AI4Belgium
De la classification et la gestion des risques des systèmes d’IA aux responsabilités et obligations des fabricants, fournisseurs, utilisateurs et parties prenantes
- Comment comprendre les règles permettant de classer le niveau de risque des systèmes d’IA ?
- Quels systèmes de gestion des risques mettre en place ?
- Comment déterminer les mesures de gestion des risques les plus adaptées ?
- De quelle manière faut-il garantir l’exactitude, la robustesse et la cybersécurité des applications d’intelligence artificielle ?
- Quelles sont les obligations incombant aux fournisseurs de systèmes d’IA à haut risque ?
- Comment doivent-ils mettre en place la gestion et le suivi des systèmes d’IA ?
- Qu’est-ce qui doit être documenté ?
- Que faut-il faire par rapport aux journaux générés automatiquement ?
- Quelles sont les particularités pour les organismes de crédit ?
Elisabeth Dehareng
Partner focusing on IT, data protection/privacy and IP disputes Baker & McKenzie
De la compliance aux sanctions en passant par le contrôle des applications, la gestion des risques et de l’ineffectivité
- Quelles sont les mesures correctives appropriées qui peuvent ou doivent être prises ?
- Procédure de sauvegarde de l’Union
- Quelles sont les procédures vis-à-vis d’un système d’IA conforme mais qui présente un risque ?
- Modus operandi des inspections, investigations et audits
- Quelles sont les sanctions qui sont prévues ?
- Comment mettre en place un programme de compliance et répondre aux attentes des régulateurs ?
Anne-Gabrielle Haie
AI, Data & Digital Partner, Steptoe
Des Data Protection Impact Assessments aux AI Impact Assessments pour limiter les risques et garantir le respect des droits individuels
- Quels critères utiliser pour un DPIA ? Comment évaluer les impacts ? Comment analyser les risques ? Comment les atténuer ?
- Quels sont les objectifs visés par un AIIA ? Quel est le champ d’application de l’AI IA? Quel sera le contexte d’utilisation de l’IA, y compris les processus concernés, les utilisateurs impactés, et les limites technologiques et organisationnelles ?
- Comment organiser la collecte, le stockage et l'utilisation des données, les corriger/mettre à jour ?
- Quelle base légale en cas de traitements de données personnelles ?
- Comment évaluer la proportionnalité de l'outil d'IA ?
- Comment assurer la transparence et l'explicabilité de l'IA ?
- Comment exiger une intervention humaine ?
Alain Strowel
Senior Partner Pierstone
Professeur Université catholique de Louvain (UCL et Saint-Louis, Brussels) : Droits intellectuels et nouvelles technologies, Digital Law, Data Law and Innovation, Droit de l’information et de la communication, Droit et économie des biens informationnels, Prof. invité Université d’Alicante (LLM in IP and IT law), Munich Intellectual Property Law Center
&
Martin Rappe
Legal Researcher, CRIDS/NaDI Unamur
Data Protection Officer, Interparking
Pouvoirs, fonctionnement et gouvernance des organismes européens et nationaux
- Qui seront les autorités notifiantes, l’organisme national d’accréditation et les organismes d’évaluation de la conformité ?
- Filiales et sous-traitants des organismes notifiés
- Comment la coordination et la coopération entre organismes notifiés va-t-elle se construire ?
- Quels seront la composition, la mission, la structure, les tâches et le fonctionnement du Comité européen de l’intelligence artificielle
Charles-Albert Helleputte
Partner, Squire Patton Boggs
Legal Expert at ENISA, the European Union Cybersecurity Agency
European Advisory Board Member, International Association of Privacy Professionals (IAPP)
Lecturer, UCLouvain & Université Saint Louis (Law & Tech Governance)
Founding member of DRAILS (Data, Robotics, Artificial Intelligence, Law and Society)
Vision, prospective et lignes directrices à propos de l’IA au sein du secteur publique belge
- Aperçu de l’écosystème belge et des enjeux actuels en matière d’IA
- Quel usage allez-vous pouvoir faire de l’AI Ethics Assessment Tool ?
- Comment intégrer la charte pour l’utilisation responsable de l’IA au sein des services publics ?
- Quelles sont les possibilités qu’apportent l’IA pour ces porchaines années ? Applications, tâches
- Boulversements sociétaux à venir
- Comment se préparer au futur du marché de l’emploi et de l’éducation ?
Nathanael Ackerman
Digital Mind for Belgium / Digital Champion for Wallonia
Chief Evangelist Officer, AI4Belgium
Head of AI - Blockchain & Digital Minds, FPS Policy & Support (BOSA SPF Stratégie et Appui)
Expert & Belgian Federal Government Delegate, GPAI
Member of the Belgian Delegation to the AI Ethics Committee, UNESCO
Member of the OECD Network of Experts on AI (ONE AI), OECD.AI
L’Union Européenne (UE) a mis récemment en application un cadre réglementaire général pour un emploi éthique et responsable de l’IA (intelligence artificielle) avec des lois qui entrent en vigueur progressivement pour chacun des ses membres.
L’objectif de l’IA act (ou "loi européenne sur l'IA") est de protéger les droits humains fondamentaux en évitant de décourager l’innovation technologique.
Nous allons donc voir quels sont les tenants et aboutissants de cette législation ainsi que l’impact sur la gouvernance de l’écosystème entrepreneurial.
Pourquoi mettre votre entreprise en conformité avec l'IA act ?
Des sanctions pourront porter lourdement atteinte à la pérennité de votre entreprise
- Les entreprises qui ne respecteront pas les obligations de l'IA act risquent une amende de 7 % de leurs chiffres d’affaires jusqu’à 35 millions d’euros
- Les entreprises devront engager des investissements significatifs pour entrer en conformité avec l’AI act
Grâce à son approche spécifique, le Guide de l'AI act vous permettra de démystifier ce nouveau règlement et vous apportera des conseils pour vous éviter de l'enfreindre.
L’IA act offre aussi de nombreuses opportunités
En effet, cette réglementation procure un cadre clair pour les start-up et les entreprises au niveau européen.
- D’une part pour le développement des nouvelles technologies
- D’autre part pour recueillir l’assentiment du grand public en garantissant la transparence et la sécurité de l’IA
Le Guide de l'IA vous éclairera pour tirer parti au mieux de cette loi dans le cadre de vos projets, de vos innovations et de votre activité quotidienne
Les 3 principaux objectifs de l’AI act
- Procurer de la transparence et de la sécurité
- Protéger les droits fondamentaux
- Encourager l’innovation au sein de l’UE en la rendant compétitive au niveau international
L'IA act encadre les systèmes comportant des risques importants
L’IA act défini strictement les limites des systèmes d’IA comportant des risques jugés élevés. Cela concerne particulièrement les secteurs de la santé, de la justice, de l'éducation, mais aussi de la sécurité.
Certains usages de l'IA sont clairement pointés du doigt.
Par exemple, les usages de l’identification faciale et la biométrie sont rendues possibles dans des cas très restreints afin d'éviter la surveillance de masse. C'est la même chose pour les systèmes de reconnaissance des émotions ou pour tout système ayant vocation à instaurer une notation sociale (à l'instar de ce qu'a mis en place le régime chinois).
La transparence et la qualité des données
La manière de fonctionner de chaque système d’IA doit être clairement connue, tout comme la qualité des données utilisées dans le cadre de son entraînement.
En effet, une mauvaise qualité des données d'entraînement de l'IA contribue à amplifier les biais et peut avoir des conséquences dramatiques sur vos clients ou vos utilisateurs, que ce soit en matière d'embauche, d'octrois de prêts, etc.
L'attention portée à l'éthique des données de l'IA prend une importance fondamentale pour assurer l'équité des algorithmes d'IA.
La loi IA act a été promulguée dans un contexte de développement anarchique de l’IA
L’IA act a été proposé par la commission européenne
Le projet de loi a commencé à être mis en œuvre par la commission européenne en avril 2021 et le texte a été ratifié en décembre 2023 pour une mise en application rapide de ses obligations au niveau européen.
Le grand challenge a consisté à trouver le juste équilibre entre la préservation des droits fondamentaux et le fait d'inciter les entreprises à renforcer leurs capacités à innover.
L’enjeu est de rester en pointe en regard à la concurrence mondiale
L’IA act a pour objectif de servir de modèle, de norme internationale qui serait adoptée par l’ensemble des pays du Monde pour une application générale.
En effet, pour garantir la compétitivité des entreprises et les droits fondamentaux dans l'UE, il est nécessaire que toutes les régions du monde suivent des règles similaires pour éviter les dérives inacceptables.
Quels sont les 3 types d'Intelligence artificielle
Il y a différents types d'IA qui ont chacune leur stade de développement. Il s'agit de l'IA étroite ou faible, l'IA générale ou forte, et la super intelligence artificielle.
Nous n'avons pas passer l'étape de la 1ère à ce jour;
L'Intelligence artificielle étroite (ANI)
Les capacités de cette AI est dite "étroite" ou "faible" car elle conçue pour réaliser des tâches uniques dans un but bien précis.
- reconnaissance faciale
- reconnaissance vocale
- recherche sur internet
- guidage de trajets via un GPS
L'intelligence de cet IA n'est qu'apparente. Elle ne fait que simuler l'intelligence humaine.
Cependant grâce au deep learning (apprentissage profond), des énormes progrès ont permis des avancées spectaculaires dans les diagnostics de maladies, comme par exemple les cancers. La précision obtenue est inédite en imitant le raisonnement et le système cognitif d'un être humain.
L'intelligence générale artificielle (AGI)
L'IA générale (dite forte ou profonde) n'existe pas encore. Elle est conceptualisée par une machine qui reproduit les comportements humains, notamment dans sa capacité d'apprentissage tout en employant son intelligence pour trouver les solutions adaptées aux problèmes posés.
Cette IA suppose d'apporter une conscience et des capacités cognitives à la machine mais aussi de l'expérience. Les chercheurs et scientifiques sont pour l'instant confrontés à un problème majeur : la méconnaissance du fonctionnement de notre propre cerveau.
Par exemple, le K, superordinateur de Fujitsu, l'un des plus rapides au monde, met aujourd'hui 40 minutes pour simuler 1 seconde d'activité neuronale. Ainsi l'avenir de l'IA forte n'est pas encore prévisible.
La superintelligence artificielle (ASI)
L'ASI (ou intelligence hypothétique) va au-delà de l'AGI. Elle n'adopte pas seulement les comportements humains comme modèle mais devient consciente d'elle-même, et dépasse les capacités et l'intelligence humaine.
C'est l'intelligence que nous observons habituellement dans les films de science fiction. La machine est capable d'émotion, a des désirs, des besoins, des croyances etc. Elle dépasserait les capacités humaines par sa rapidité et sa supériorité à tous les niveaux.
Quels sont les réels dangers de l'IA ?
Chaque innovation apporte des avancées favorables à l'activité humaine mais aussi des risques qu'il faut maîtriser pour la survie de l'humanité.
La découverte du nucléaire a permis de nous fournir de l'électricité en abondance et bon marché, mais il est aussi capable de détruire notre planète et l'humanité tout entière avec seulement quelques bombes.
Au stade de développement actuel de l'IA et en ce qui vous concerne, les risques sont liés avant tout à la confidentialité des données, à une utilisation malveillante de l'IA pour attaquer et aux attaques par fishing.
Quels sont les risques pour la confidentialité de vos données ?
Le détournement de l'IA peut exposer vos informations sensibles, même involontairement. Il est donc essentiel de renforcer vos protocoles de sécurité afin d'éviter que soient divulgués vos contenus personnels ou commerciaux confidentiels.
Comment l'IA peut avoir une utilisation malveillante de vos données ?
Le détournement de l'IA est en mesure de provoquer des attaques d'une ampleur inédite par l'automatisation de processus malveillants. La menace est à prendre très au sérieux et doit vous inciter à prendre des mesures sérieuses en matière de cyber protection.
L'industrie de la cybersécurité est sans cesse sollicitée par les risques de nouvelles menaces et utilise elle-même l'IA pour contrer ces attaques.
L'IA occasionne des attaques de fishing de plus en plus ingénieuses
La dangerosité du fishing s'est amplifiée avec l'apparition de l'IA. C'est le !er risque de cybercriminalité qui touche les entreprises et dont il faut vous protéger. Il concerne aussi bien les TPE, PME que les multinationales.
Vos collaborateurs doivent absolument être sensibilisés aux risques du fishing sous peine de mettre en péril l'activité de votre entreprise.
Le fishing consiste à piéger un utilisateur en se faisant passer pour une entité de confiance. Il permet d'extorquer une sommes d'argent ou de voler vos informations confidentielles. Pour vous donner une idée, entre 2021 et 2022, on estimait à 600 000 par jour le nombre de tentatives de fishing par téléphone à l'échelle mondiale. Le phénomène ne fait que se multiplier au fur et à mesure que l'IA progresse et il passe par une multitude d'autres canaux dont vos emails.
Le Guide de l'IA act est un phare indispensable pour vous éviter le pire
La conférence Guide de l'IA vous donnera toutes les clés pour vous conformer à l'IA act avec la mise à jour de toutes vos obligations dans le cadre de ses applications.
D'autre part elle vous permettra aussi de mieux identifier les dangers de l'IA en général et liés à vos activités spécifiques pour vous en protéger.
Enfin le Guide de l'IA act a aussi pour but de vous permettre d'être offensif, de saisir les opportunités de surfer sur cette législation d'apparence contraignante.
Pour cela, il faut en connaître les règles complexes et vous les approprier afin que l'IA act ne soit pas subie mais une opportunité de développement pour votre entreprise.
L’IA act a été instauré pour éviter toutes les dérives éthiques que pourraient occasionner une utilisation non maîtrisée de l’IA par les acteurs économiques, ce qui inclus tous les types d'entreprises.
Cependant, pour que ses conséquences ne soient pas rédhibitoires pour votre activité et vous dissuade d’innover, vous devez obligatoirement en connaître les tenants et les aboutissants de manière exhaustive. Il faut savoir ce qui est possible et ce qui est interdit afin de l'intégrer dans la gouvernance de chaque entreprise.
Le Guide de l'IA act ne vous permet pas seulement de connaître les mesures en vigueur, il vous donne les clés pour éviter les risques, pour remplir vos obligations grâce à une mise en application vertueuse de nouveaux usages.
Le compte à rebours est enclenché pour notre prochaine session à laquelle nous vous invitions vivement à participer.