
ميتا وبيانات الأوروبيين: الذكاء الاصطناعي على حساب حماية البيانات؟
Par Maryam EL-JOULALI
Responsable RSE
Htel Byblos
Posté le: 09/05/2025 14:55
ميتا: استخدام البيانات العامة لتدريب الذكاء الاصطناعي
في أبريل 2025، أعلنت ميتا عن تحديث شروط الاستخدام لمستخدمي فيسبوك وإنستغرام في الاتحاد الأوروبي. حيث ستتمكن ميتا من استخدام جميع البيانات العامة التي يشاركها المستخدمون (منشورات، تعليقات، صور، وما إلى ذلك) لتدريب نماذج الذكاء الاصطناعي الخاصة بها.
ولكن، هذا القرار أثار قلقًا كبيرًا، خاصةً في ضوء قانون حماية البيانات العامة، الذي يتطلب الحصول على موافقة صريحة من المستخدمين قبل استخدام بياناتهم الشخصية لأغراض معينة. يطرح هذا التساؤل حول مدى قانونية هذه الخطوة وهل تتماشى مع حماية الخصوصية في أوروبا.
الموافقة الصريحة أم الموافقة الضمنية؟
تدافع ميتا عن قرارها بالإشارة إلى أن المستخدمين لديهم إمكانية الاعتراض على استخدام بياناتهم عبر إعدادات الخصوصية. ولكن، تبقى هذه الموافقة العكسية (اختياري) محل انتقاد، حيث يعتقد الكثيرون أن قانون حماية البيانات العامة يتطلب موافقة مبدئية (اختياري) من المستخدم قبل استخدام بياناته.
منظمة NOYB المعنية بحماية الخصوصية، قدمت شكاوى ضد ميتا في عدة دول أوروبية، معتبرة أن هذه الممارسة تمثل انتهاكًا صارخًا للخصوصية. المنظمة تسلط الضوء على أن السماح باستخدام البيانات العامة لتدريب الذكاء الاصطناعي دون موافقة واضحة من المستخدمين قد يشكل تجاوزًا للحقوق الفردية.
الذكاء الاصطناعي في الاتحاد الأوروبي: بين الابتكار وحماية الخصوصية
فيما يتعلق بالذكاء الاصطناعي، فإن الاتحاد الأوروبي يسعى إلى تنظيم هذه التقنيات المتقدمة من خلال قانون الذكاء الاصطناعي، الذي يهدف إلى وضع معايير صارمة لحماية البيانات الشخصية أثناء تدريب النماذج. لكن، من الواضح أن الشركات الكبرى مثل ميتا تتقدم بسرعة أكبر من التنظيمات الحالية، مما يثير التحديات القانونية في تطبيق هذه القوانين على الواقع التكنولوجي المتطور بسرعة.
يتعين على السلطات الأوروبية أن توازن بين الابتكار التكنولوجي وحماية الخصوصية، وهو ما يتطلب تحديثًا مستمرًا للأنظمة القانونية لمواكبة التطورات السريعة في هذا المجال.
كيف نعيد السيطرة على البيانات الشخصية؟
في ضوء هذه التطورات، تبرز تساؤلات أساسية حول الملكية الرقمية و التحكم في البيانات الشخصية. هل يمكن للشركات مثل ميتا استخدام بياناتنا دون موافقتنا الصريحة لأغراض تدريب الذكاء الاصطناعي؟ وما هي الحقوق التي يملكها الأفراد في عصر البيانات الضخمة والذكاء الاصطناعي التوليدي؟
بالمجمل، يرى الكثيرون أنه يجب على المستخدمين أن يكون لديهم القدرة على تحكم كامل في بياناتهم وأن يكون لهم الخيار في رفض استخدام بياناتهم لأغراض التدريب على النماذج الذكية. وهذا يتطلب شفافية أكبر من قبل الشركات في كيفية جمع البيانات واستخدامها.
الخاتمة: مستقبل الذكاء الاصطناعي وحماية البيانات في أوروبا
بين الابتكار وحماية الخصوصية، فإن الاتحاد الأوروبي في مفترق طرق. إذا سمحت الهيئات التنظيمية باستخدام البيانات العامة لتدريب الذكاء الاصطناعي دون موافقة صريحة، فقد تفتح هذه الخطوة الباب لممارسات مشكوك فيها تهدد حقوق المستخدمين. من هنا، يبدو أن التحكم في البيانات و الشفافية هما المفاتيح المستقبلية لضمان تكنولوجيا ذكاء اصطناعي أخلاقية وآمنة للمجتمع.
المصادر
الهيئة الوطنية لحماية البيانات. تدريب الذكاء الاصطناعي بواسطة ميتا: ما هي الالتزامات المتعلقة بالموافقة؟
منظمة NOYB. تدريب ميتا للذكاء الاصطناعي على بيانات المستخدمين: 10 شكاوى تم تقديمها بموجب قانون حماية البيانات العامة
الاتحاد الأوروبي. قانون الذكاء الاصطناعي – من المتوقع اعتماده الصيف المقبل 2025
أخبار ميتا. كيف تقوم ميتا بتدريب الذكاء الاصطناعي باستخدام المحتوى العام في أوروبا