L’utilisation de l’IA place les entreprises devant de nouveaux défis juridiques, y compris en matière de protection des données. La transparence, l’équité et un traitement des données conforme à la loi doivent notamment être garantis pour les systèmes d’IA afin d’éviter les sanctions et les atteintes à la réputation. Des risques concrets se posent donc.
Comment utiliser les outils d'IA en toute sécurité juridique dans l'entreprise, conformément aux exigences de la protection des données
Vous obtiendrez une vue d’ensemble approfondie des exigences légales actuelles pour les systèmes d’IA dans l’entreprise. À l’aide d’exemples, vous apprendrez à identifier, évaluer et éviter les risques typiques liés à la protection des données, de l’évaluation correcte de l’impact sur la protection des données à la prévention des conséquences possibles en matière de responsabilité. L’accent est mis sur l’élaboration de directives internes pour une utilisation sûre des outils d’intelligence artificielle par les collaborateurs.
Votre avantage
- Comprendre les bases juridiques, pour l’utilisation de systèmes d’IA.
- Reconnaitre les risques typiques liés à la protection des données dans les solutions.
- Savoir comment réaliser correctement une analyse d’impact sur la protection des données (AIPD) pour les projets d’IA.
- Etablir une directive interne concernant l’utilisation sûre des outils d’IA.
Thèmes
- Aperçu général : Les technologies d'IA et leur pertinence en matière de protection des données.
- Situation juridique actuelle : LPD, RGPD, EU AI Act - aperçu et conséquences
- Défis typiques de la protection des données avec l'IA
- Collecte de données et données d'entraînement
- Transparence et obligations d'information
- Droits des personnes concernées (information, suppression, opposition)
- Profilage et décisions automatisées
- Évaluation de l'impact sur la protection des données (DPIA)
- Spécificités des applications d'IA
- Analyse des risques et documentation
- Privacy by design et by default dans les projets d'IA
- Anonymisation, pseudonymisation
- Mesures techniques et organisationnelles
- Élaboration de directives internes pour l'utilisation de l'IA
- Quels outils d'IA peuvent être utilisés et comment ?
- Quelles données ne doivent pas être traitées ? (par ex. données personnelles sensibles, secrets commerciaux)
- Directives pour l'introduction de données dans les systèmes d'IA
- Responsabilités et contrôle du respect
- Relations avec les tiers : Traitement des commandes et transmission des données, utilisation des données saisies
- Mise en œuvre pratique
Intervenant

David Raedler, docteur en droit
Spécialiste FSA en droit du travail et spécialiste en protection des données, il s’intéresse tout particulièrement à la thématique des nouvelles technologies appliquées aux rapports de travail. Après l’obtention de son brevet d’avocat, il s’est consacré à la rédaction d’une thèse de doctorat sur les enquêtes internes. Il est également député dans le Canton de Vaud et membre de la Commission fédérale pour les questions féminines.
Groupe cible
Cadres, chefs de service, directeurs, collaborateurs informatiques et de projet, juristes, avocats et conseillers impliqués dans l’introduction de systèmes d’intelligence artificielle, DPO, responsables RH.
Remarque importante
Prendre un ordinateur portable, accès à un chatbot IA utile (des licences libres suffisent).
myEvents, notre plateforme de formation continue
Via myEvents, vous pouvez accéder directement à la documentation digitale de votre formation, à des précieuses informations et aides de travail complémentaires pour assurer une mise en pratique rapide des connaissances. Une fois enregistré, grâce votre login personnel, vous disposez d’un accès illimité à l’ensemble les documentations et aides de travail de toutes les formations WEKA que vous avez suivies. Vous trouverez un guide étape par étape pour accéder à myEvents ici.