
Meta et les données des Européens : l’IA au mépris du RGPD ?
Par Maryam EL-JOULALI
Responsable RSE
Hôtel Byblos
Posté le: 09/05/2025 14:34
Meta s’autorise à utiliser les publications publiques : que signifie vraiment "public" ?
Depuis avril 2025, Meta a modifié ses conditions d’utilisation pour les Européens : toutes les publications publiques (photos, textes, commentaires, stories visibles par tous) peuvent être utilisées pour entraîner ses systèmes d’intelligence artificielle, y compris ses IA génératives.
Mais cette annonce a déclenché une série de réactions critiques en Europe, notamment en France, où la CNIL a rapidement exprimé sa vigilance quant à la conformité de cette pratique avec le RGPD.
Le problème ? La notion de « public » n’efface pas automatiquement les droits des utilisateurs. Le RGPD exige un consentement libre, spécifique, éclairé et univoque pour tout traitement de données sensibles — y compris à des fins d’entraînement algorithmique.
Un consentement implicite ? La faille juridique pointée par les régulateurs
Meta défend sa position en affirmant qu’il est possible de refuser cet usage via une procédure en ligne. Mais cette procédure est jugée complexe, peu visible, et surtout inversée : l’utilisateur doit se retirer activement, au lieu de donner son accord au départ.
Pour plusieurs juristes et associations, cela contrevient au principe fondamental du RGPD : le traitement doit être opt-in, pas opt-out.
De son côté, l’ONG NOYB (None of Your Business), fondée par Max Schrems, a déposé plainte dans plusieurs pays européens, dénonçant une atteinte massive à la vie privée et un non-respect du droit de s’opposer au traitement.
L’UE à la croisée des chemins : innovation ou protection ?
Cet épisode révèle une tension croissante : peut-on encore innover en IA générative sous les règles strictes du RGPD ?
Avec l’AI Act en cours d’adoption, l’Union européenne cherche à définir un équilibre. Le texte prévoit des obligations spécifiques pour les modèles dits "fondationnels" (comme LLaMA, GPT ou Claude), y compris la documentation des données d’entraînement.
Mais le cas Meta montre les limites de la régulation actuelle : les grandes plateformes avancent vite, souvent plus vite que les institutions. Les autorités doivent donc non seulement réagir, mais aussi anticiper les prochaines étapes de l’IA, y compris en matière d’usage des données biométriques ou émotionnelles.
Vers une reprise en main des données personnelles ?
Ce débat dépasse la seule question juridique. Il soulève une interrogation fondamentale : à qui appartiennent nos données ?
L'entraînement de l'IA sur nos traces numériques, même "publiques", remet en cause la maîtrise individuelle sur notre identité numérique. C’est tout le sens des nouvelles initiatives pour renforcer le contrôle des citoyens : meilleurs paramétrages de confidentialité, exigences d’explicabilité des algorithmes, et droit de s’opposer au profilage automatique.
Face aux géants du numérique, les citoyens européens réclament une IA digne de confiance, respectueuse non seulement du droit, mais aussi des valeurs démocratiques.
Meta vient peut-être de franchir une ligne rouge en utilisant les contenus publics européens pour entraîner ses IA. Si cette pratique est tolérée, elle pourrait devenir un précédent inquiétant. L’Europe est donc confrontée à un choix décisif : renforcer la souveraineté numérique ou céder du terrain à des entreprises qui redéfinissent les règles à leur avantage. Ce combat ne fait que commencer, et il déterminera les conditions d’une intelligence artificielle réellement éthique, transparente et humaine.
Sources :
CNIL (2025). Entraînement de l’IA par Meta : quelles obligations en matière de consentement ?
NOYB.eu (2025). Meta’s AI Training on Europeans’ Data: 10 complaints filed under GDPR
European Commission (2025). AI Act – Final adoption expected summer 2025
Meta Newsroom (2025). How Meta Trains AI Using Public Content in Europe
Politico (2025). Europe’s privacy watchdogs gear up for fight over AI data training