Avocats en intelligence artificielle
Maîtriser l'IA avant qu'elle ne vous échappe.
Depuis 2021, INFLUXIO accompagne entreprises, développeurs et créateurs dans la maîtrise juridique de l'intelligence artificielle.
Conformité au règlement européen sur l'IA (AI Act), protection des créations générées par IA, contrats de développement, RGPD appliqué aux algorithmes : notre équipe, emmenée par Maria BERRADA, intervient depuis Paris et Bruxelles sur l'ensemble des enjeux juridiques liés à l'IA.
accompagnés
médias
Alexandre Bigot-Joly
Avocat associé
Droit de la musique, influence, médias & communication. Intervenant au CELSA, ISCOM et ESP.
Raphaël Molina
Avocat associé
Propriété intellectuelle, droit du numérique & droit de l'influence. Contributeur à la loi influenceurs 2023.
Maria Berrada
Avocat associé
Propriété intellectuelle, IA, Web3, RGPD & eSport. Conseillère juridique de la FF Jeux Vidéo.
Nos interventions
Comment nous pouvons vous aider.
Cas pratiques
Audit de conformité AI Act pour une startup HealthTech
Une startup développant un outil de diagnostic médical par IA devait évaluer son niveau de risque au regard du AI Act. Un audit complet a été réalisé, le système classifié en « haut risque » et la feuille de route de conformité définie.
Contentieux sur la titularité d'œuvres générées par IA
Un studio créatif utilisait l'IA générative pour produire des visuels commerciaux. Un client a contesté la titularité des droits. Le cadre contractuel a été structuré et la titularité du studio défendue avec succès.
Avis clients
Ce que nos clients en disent.
« Une grande réactivité de la part de tous les collaborateurs, des solutions trouvées rapidement et efficacement. »
Christ C.
« Nous avons confié au cabinet INFLUXIO un dossier complexe. Son expertise technique, sa vision stratégique et la qualité de ses écritures ont été décisives. »
Mia-Line C.
Contact
Contacter INFLUXIO.
Vous souhaitez prendre rendez-vous ou obtenir un devis ?
Nous vous répondons en 24 heures.
Éclairages
En savoir plus sur ce domaine.
Pourquoi un avocat spécialisé en intelligence artificielle ?
L'intelligence artificielle transforme en profondeur la manière dont les entreprises créent, produisent et interagissent.
Mais chaque innovation soulève des questions juridiques inédites : à qui appartiennent les contenus générés par une IA ? Quelles sont vos obligations au titre du règlement européen sur l'IA ? Comment protéger vos algorithmes, vos données d'entraînement, vos modèles ? Un avocat spécialisé en intelligence artificielle vous aide à transformer ces incertitudes en leviers stratégiques.
Chez INFLUXIO, nous intervenons à la croisée du droit du numérique, de la propriété intellectuelle et du RGPD pour sécuriser vos projets d'IA dès leur conception.
- ✓Protéger vos modèles, vos données et vos droits de propriété intellectuelle
- ✓Anticiper les litiges et répartir clairement les responsabilités
- ✓Sécuriser vos contrats avec partenaires, sous-traitants et clients
- ✓Assurer votre conformité au règlement européen sur l'IA (AI Act) et au RGPD
Le règlement européen sur l'IA (AI Act) : ce que vous devez savoir.
Le règlement européen sur l'intelligence artificielle (règlement UE 2024/1689), dit « AI Act », constitue le premier cadre juridique complet au monde dédié à l'IA. Voté par le Parlement européen le 13 mars 2024, adopté définitivement par le Conseil le 21 mai 2024, publié au JOUE le 12 juillet 2024 et entré en vigueur le 1er août 2024, il s'applique progressivement entre 2024 et 2027.
INFLUXIO vous accompagne dans la compréhension et la mise en conformité avec ce texte majeur.
Calendrier d'entrée en vigueur (2024-2027).
L'AI Act s'applique par étapes : les interdictions des pratiques à risque inacceptable sont effectives depuis février 2025 ; les obligations de transparence pour l'IA à usage général s'appliquent à partir d'août 2025 ; les obligations complètes pour les systèmes à haut risque entreront en vigueur en août 2026 ; et les systèmes d'IA déjà sur le marché bénéficient d'un délai supplémentaire jusqu'en août 2027.
La classification par niveaux de risque.
Le règlement classe les systèmes d'IA en quatre niveaux : risque inacceptable (interdit : scoring social, manipulation subliminale, reconnaissance faciale de masse), risque élevé (obligations strictes de conformité, documentation technique et supervision humaine), risque limité (obligations de transparence, notamment pour les chatbots et deepfakes) et risque minimal (pas d'obligation spécifique, mais codes de conduite encouragés).
- Systèmes interdits : scoring social, exploitation de vulnérabilités, reconnaissance biométrique en temps réel dans l'espace public
- Systèmes à haut risque : recrutement automatisé, scoring crédit, systèmes judiciaires, dispositifs médicaux
- Systèmes à risque limité : chatbots, générateurs de deepfakes, systèmes de recommandation
- Systèmes à risque minimal : filtres anti-spam, jeux vidéo, applications de loisir
Obligations des fournisseurs de systèmes d'IA.
Les fournisseurs de systèmes d'IA à haut risque doivent notamment : mettre en place un système de gestion des risques, assurer la qualité et la représentativité des données d'entraînement, maintenir une documentation technique détaillée, garantir la transparence et fournir des informations aux déployeurs, permettre une supervision humaine effective, et passer une évaluation de conformité avant mise sur le marché.
Obligations des déployeurs.
Les entreprises qui utilisent des systèmes d'IA à haut risque (« déployeurs ») ont également des obligations : vérifier que le système est utilisé conformément à sa notice, assurer la supervision humaine requise, surveiller le fonctionnement et signaler les incidents, et réaliser une analyse d'impact sur les droits fondamentaux dans certains cas.
Sanctions prévues.
Les sanctions pour non-conformité à l'AI Act sont significatives : jusqu'à 35 millions d'euros ou 7 % du chiffre d'affaires mondial pour les pratiques interdites, jusqu'à 15 millions d'euros ou 3 % pour les autres violations, et jusqu'à 7,5 millions d'euros ou 1,5 % pour les informations inexactes fournies aux autorités.
IA générative et créateurs : enjeux juridiques.
L'IA générative, ChatGPT, Midjourney, Suno, ElevenLabs, bouleverse la création de contenu. Les créateurs, influenceurs, artistes et musiciens sont en première ligne de ces transformations. INFLUXIO est le premier cabinet français à traiter ces enjeux sous l'angle spécifique de la Creator Economy.
Droit d'auteur sur les créations générées par IA.
En l'état actuel du droit français, seule une personne physique peut être reconnue comme auteur d'une œuvre. Les créations purement autonomes d'une IA ne sont pas protégeables par le droit d'auteur.
Cependant, lorsque l'intervention humaine est suffisamment créative, choix des prompts, sélection, composition, retouches, la personne qui a dirigé le processus créatif peut revendiquer des droits. Nous vous aidons à structurer votre processus de création pour maximiser la protection de vos outputs.
Deepfakes d'influenceurs et d'artistes : vos recours.
La génération de deepfakes, vidéos ou images hyperréalistes usurpant l'apparence d'une personne, constitue une atteinte au droit à l'image et peut relever de l'usurpation d'identité numérique (art. 226-4-1 du Code pénal). L'AI Act impose désormais une obligation de transparence pour tout contenu généré ou manipulé par IA.
Nous intervenons en urgence pour obtenir le retrait des contenus et engager des poursuites.
Voix synthétiques et droits des artistes interprètes.
La reproduction synthétique de la voix d'un artiste interprète sans son autorisation porte atteinte à ses droits voisins (articles L.212-1 et suivants du CPI). Cette question est au cœur des débats en matière de droit de la musique et du droit des artistes. INFLUXIO accompagne les artistes dans la défense de leurs droits vocaux face aux IA génératives.
Entraînement d'IA sur des œuvres protégées.
L'utilisation d'œuvres protégées par le droit d'auteur pour entraîner des modèles d'IA soulève la question de l'exception de fouille de textes et de données (text and data mining). La directive européenne 2019/790 prévoit une exception pour la recherche, mais son application aux usages commerciaux est contestée.
L'opt-out des ayants droit est possible mais complexe à mettre en œuvre. Nous conseillons les créateurs et les entreprises sur leurs droits respectifs.
Protection de vos actifs IA.
Vos algorithmes, vos modèles et vos données représentent une valeur considérable. Leur protection juridique passe par une stratégie combinant plusieurs mécanismes complémentaires.
Algorithmes et logiciels.
Les algorithmes en tant que tels ne sont pas brevetables en Europe, mais le logiciel qui les implémente peut être protégé par le droit d'auteur (article L.112-2 13° du CPI). Les inventions mises en œuvre par ordinateur peuvent également faire l'objet de brevets sous certaines conditions. Nous définissons la stratégie de protection la plus adaptée à votre situation.
Bases de données et datasets.
Les bases de données bénéficient d'une double protection en droit européen : le droit d'auteur sur leur structure (si elle est originale) et le droit sui generis du producteur de bases de données (directive 96/9/CE). Vos datasets d'entraînement constituent un actif stratégique dont la protection doit être anticipée dès la phase de collecte.
Secret des affaires et savoir-faire.
La loi du 30 juillet 2018 transposant la directive 2016/943 offre une protection spécifique au secret des affaires. Pour vos modèles d'IA, vos hyperparamètres et votre savoir-faire technique, la mise en place de mesures de protection raisonnables (NDA, restrictions d'accès, traçabilité) est essentielle pour bénéficier de ce régime.
Conformité RGPD et traitement de données par l'IA.
Tout système d'IA traitant des données personnelles doit respecter le RGPD. Les exigences sont renforcées lorsque l'IA prend des décisions automatisées affectant les personnes (article 22 du RGPD). INFLUXIO vous accompagne dans l'articulation entre les obligations du RGPD et celles de l'AI Act, qui se complètent sans se substituer l'une à l'autre.
Nos interventions couvrent : l'identification des bases légales de traitement (intérêt légitime, consentement), la réalisation d'analyses d'impact (DPIA) obligatoires pour les traitements à risque, l'encadrement des transferts de données vers les fournisseurs d'IA (souvent américains), la gestion du droit d'opposition à une décision automatisée, et la mise en conformité avec les lignes directrices de la CNIL sur l'IA.
Contrats et IA : sécuriser vos relations.
Un contrat mal rédigé peut transformer un partenariat IA prometteur en litige coûteux. INFLUXIO rédige et négocie l'ensemble de vos contrats liés à l'intelligence artificielle.
Contrats de licence IA.
Licence d'utilisation de modèles pré-entraînés, conditions d'accès aux API, limitations d'usage, clauses de non-rétro-ingénierie : chaque contrat de licence IA doit être adapté à votre cas d'usage spécifique et anticiper les évolutions réglementaires.
Contrats de développement.
La titularité des droits sur les développements réalisés, les livrables, les données d'entraînement et les modèles intermédiaires doit être clairement définie. Nous sécurisons vos contrats de développement IA avec vos prestataires, freelances et équipes internes.
Clauses de responsabilité et d'assurance.
La responsabilité en cas de dommage causé par une IA est un sujet en pleine évolution. La directive européenne sur la responsabilité en matière d'IA (proposition 2022/0303, retirée par la Commission européenne en 2025 faute d'accord entre co-législateurs) visait à faciliter l'indemnisation des victimes.
Nous intégrons dès maintenant les clauses de limitation et de partage de responsabilité adaptées à ce cadre émergent.
Notre expertise en intelligence artificielle.
INFLUXIO est l'un des premiers cabinets français à s'être spécialisé dans les enjeux juridiques de l'IA, dès 2021. Notre équipe, emmenée par Maria BERRADA, combine une expertise technique approfondie et une connaissance fine de l'écosystème créatif.
Nous conseillons des startups IA, des plateformes de création de contenu, des agences de communication utilisant l'IA générative, et des artistes confrontés aux deepfakes et aux reproductions non autorisées. Notre double implantation Paris-Bruxelles nous permet d'intervenir sur la réglementation européenne avec une proximité unique auprès des institutions de l'UE.
Nous publions régulièrement sur les évolutions du droit de l'IA dans notre podcast INFLUXIO Talk et dans nos articles spécialisés. La première étape de la mise en conformité avec l'AI Act consiste à cartographier l'ensemble des systèmes d'IA déployés ou en cours de développement au sein de votre organisation, puis à classifier chacun selon les quatre niveaux de risque définis par le règlement.
Pour les systèmes à haut risque, un dossier technique complet doit être constitué. Les systèmes à risque limité (chatbots, générateurs de contenu) doivent satisfaire des obligations de transparence. INFLUXIO réalise des audits de classification et accompagne les entreprises dans la constitution de leur documentation technique et la mise en place des processus de gouvernance exigés par le règlement.
Besoin d'accompagnement ?
Notre équipe vous répond sous 24 heures.
FAQ
Questions fréquentes.
En l'état actuel du droit français, seule une personne physique peut être auteur d'une œuvre protégée par le droit d'auteur. Une création purement autonome d'une IA n'est pas protégeable. Cependant, si l'intervention humaine est suffisamment créative, sélection des paramètres, composition, retouches, la personne qui a dirigé le processus peut revendiquer des droits d'auteur sur le résultat.
L'AI Act (règlement UE 2024/1689) est le premier cadre juridique mondial dédié à l'intelligence artificielle.
Voté par le Parlement européen le 13 mars 2024 et entré en vigueur le 1er août 2024, il s'applique par étapes : interdictions des pratiques à risque inacceptable depuis février 2025, obligations de transparence à partir d'août 2025, conformité complète pour les systèmes à haut risque en août 2026, et délai pour les systèmes existants jusqu'en août 2027.
La mise en conformité commence par la classification de vos systèmes d'IA selon les niveaux de risque définis par l'AI Act. Selon votre catégorie : documentation technique, évaluation de conformité, mise en place d'une supervision humaine, transparence vis-à-vis des utilisateurs, et enregistrement dans la base de données européenne pour les systèmes à haut risque.
INFLUXIO réalise un audit complet de vos systèmes et vous accompagne dans chaque étape.
Oui. La création et la diffusion d'un deepfake sans le consentement de la personne représentée constitue une atteinte au droit à l'image (article 9 du Code civil) et peut relever de l'usurpation d'identité numérique (article 226-4-1 du Code pénal, puni de 1 an d'emprisonnement et 15 000 € d'amende). L'AI Act impose en outre une obligation de marquage pour tout contenu généré ou manipulé par IA.
La question de la responsabilité est complexe et fait l'objet de la directive européenne sur la responsabilité en matière d'IA (proposition 2022/0303). En l'état, la responsabilité peut peser sur le fournisseur du système d'IA, le déployeur, ou l'utilisateur, selon les circonstances. Les contrats doivent prévoir des clauses de répartition de responsabilité claires.
Plusieurs mécanismes se combinent : le droit d'auteur protège le code source du logiciel ; le droit sui generis protège les bases de données d'entraînement ; le secret des affaires protège les hyperparamètres et le savoir-faire technique ; et les brevets peuvent couvrir les inventions mises en œuvre par ordinateur sous certaines conditions. Une stratégie de protection sur mesure est indispensable.
La légalité dépend du cadre applicable. La directive européenne 2019/790 prévoit une exception de text and data mining pour la recherche (article 3) et une exception plus large (article 4), mais cette dernière peut être neutralisée par un opt-out des ayants droit.
En pratique, la licéité de l'entraînement dépend de la nature des œuvres, de l'usage commercial et des réservations exprimées par les titulaires de droits.
La désignation d'un DPO (Data Protection Officer) est obligatoire lorsque les activités de base du responsable de traitement impliquent un suivi régulier et systématique des personnes à grande échelle, ou un traitement à grande échelle de données sensibles (article 37 du RGPD). De nombreux projets d'IA entrent dans ces catégories.
Même lorsqu'il n'est pas obligatoire, la désignation d'un DPO est fortement recommandée pour les projets impliquant de l'IA.
Publications liées



