
1.5M
OU ميتا تستغلك ‼️
تحديث سياسة الخصوصية 2025: هل ستستخدم ميتا صورك لتدريب أنظمة الذكاء الاصطناعي؟
ابتداءً من 16 دجنبر 2025، أعلنت ميتا عن تغيير جوهري في سياسة الخصوصية الخاصة بها، وهو تغيير أثار الكثير من النقاش والجدل بين المستخدمين.
فوفقاً للتحديث الجديد، ستبدأ الشركة في استعمال التفاعلات والمحتوى الذي ينشره المستخدم — بما في ذلك الصور والفيديوهات — بهدف تطوير خوارزميات الذكاء الاصطناعي وتحسين دقتها.
هذا يعني باختصار:
أي محتوى تشاركه على منصات ميتا قد يساهم في تدريب أنظمة الذكاء الاصطناعي الخاصة بها، ما لم يقم المستخدم بتغيير إعداداته أو اعتراضه على ذلك.
ما الذي يتغير فعلياً؟
التحديث يشير بوضوح إلى اعتماد الذكاء الاصطناعي في:
• تحليل الصور والمحتوى الذي ينشره المستخدم.
• استخدام البيانات العامة لتطوير نماذج الذكاء الاصطناعي.
• تخصيص الإعلانات وتجربة الاستخدام بناءً على نشاطك داخل التطبيق.
ورغم أن ميتا تقول إن الهدف هو “تحسين التجربة”، إلا أنّ الكثير من الخبراء يرون أن الأمر قد يفتح الباب لاستعمال صور وبيانات المستخدمين دون علمهم الكافي.
لماذا يجب أن تكون حذراً؟
لأن قبولك التلقائي بالسياسة الجديدة يعني أنك تسمح للشركة أن:
• تحلل صورك باستخدام أنظمة الذكاء الاصطناعي.
• تستخدم محتواك في تدريب نماذجها المستقبلية.
• تبني ملفات توصيات دقيقة جداً عنك.
وبما أن الذكاء الاصطناعي أصبح قادراً على توليد صور جديدة أو التعرف على الوجوه، فإن السماح باستخدام صورك قد يكون له تأثير مباشر على خصوصيتك الرقمية.
كيف تحمي نفسك؟
• راجع سياسة الخصوصية الجديدة فوراً.
• غيّر إعدادات الخصوصية إذا كنت لا ترغب في مشاركة بياناتك في تدريب الذكاء الاصطناعي.
• تجنّب نشر صور حساسة أو شخصية بشكل كبير.
• تابع المستجدات المتعلقة بحقوق المستخدم داخل تطبيقات ميتا.
خلاصة
التحديث الجديد ليس مجرد تغيير عادي…
بل خطوة كبيرة نحو دمج الذكاء الاصطناعي في كل جوانب التجربة داخل تطبيقات ميتا، وهو ما يجعل الوعي والاحتياط أمراً ضرورياً.
فإذا كنت لا ترغب في استخدام صورك أو محتواك لتطوير أنظمة الذكاء الاصطناعي، فعليك الانتباه جيداً قبل الموافقة على الشروط الجديدة.
#meta #privacy #politics
@oussama.ouaaziz










