هل تعتمد شركات التكنولوجيا على بياناتك الخاصة لتدريب نماذج الذكاء الاصطناعي؟ أخبار التقنية

تتسابق كبرى شركات التكنولوجيا لإطلاق وتحسين منتجات الذكاء الاصطناعي، تاركة المستخدمين في الولايات المتحدة يتساءلون إلى أي مدى يمكن استخراج بياناتهم الشخصية لتدريب هذه الأدوات. شركات مثل ميتا (مالكة فيسبوك وإنستغرام وثريدز وواتساب)، وجوجل، ولينكدإن أطلقت ميزات تعتمد على الذكاء الاصطناعي قد تستعين بملفات المستخدمين العامة أو رسائلهم في بعض الحالات. جوجل ولينكدإن أتاحتا طرقاً لرفض المشاركة في بعض هذه الميزات، بينما لا توفر أداة ميتا آلية رفض واضحة للمستخدمين.

ادّعى منشور على إنستغرام أن جيمايل أجرى تغييراً خطيراً بتاريخ 10 أكتوبر 2025، وأن 99% من مستخدميه لا يعلمون بذلك. تحذيرات أخرى انتشرت بأن طرح أدوات الذكاء الاصطناعي على المنصات يجعل معظم المعلومات الخاصة قابلة «للحصاد» من قبل شركات التكنولوجيا: «كل محادثة، كل صورة، كل رسالة صوتية تُغذّى إلى الذكاء الاصطناعي وتُستغل لأغراض ربحية»، جاء في فيديو منشور على منصة X بتاريخ 9 نوفمبر.

في تغريدة نُشرت أيضاً بأن ميتا ستبدأ منذ 16 ديسمبر في إطعام جميع بياناتك للذكاء الاصطناعي، وكان فيديو يشرح كيف يمكن إيقاف هذه الإعدادات؛ نُشر هذا المحتوى بتاريخ 9 نوفمبر 2025.

قلة الشفافية حول أنواع البيانات التي تجمعها شركات التكنولوجيا وكيفية استخدامها أمر مألوف، كما قالت كريستينا سيكورا، محللة أبحاث في تحالف تأمين الديمقراطية بـ German Marshall Fund، لصحيفة PolitiFact. وأضافت أن هذا النقص في الوضوح يمكن أن يثير ارتباكاً واسعاً ويؤدي إلى نشر معلومات مضللة ومبالغات مخيفة حول ما هو مسموح به فعلاً وما ليس كذلك.

أفضل وسيلة — وإن كانت مملة — لحماية حقوق الخصوصية هي قراءة شروط الخدمة وسياسات الخصوصية بعناية، لأنها غالباً ما تحدد صراحة كيف ستُستخدم البيانات وما إذا كانت ستُنقل إلى أطراف ثالثة. وفي الولايات المتحدة لا توجد قوانين اتحادية شاملة تحكم خصوصية بيانات شركات التكنولوجيا كما هو الحال في بعض دول العالم.

ماذا تعني سياسات كل منصة عملياً:

ميتا
المزاعم على وسائل التواصل: «ابتداءً من 16 ديسمبر ستبدأ ميتا بقراءة رسائلك الخاصة، كل محادثة، كل صورة، كل رسالة صوتية تُغذى إلى الذكاء الاصطناعي وتُستغل للربح.» (منشور على X بتاريخ 9 نوفمبر حظي بملايين المشاهدات).

يقرأ  «لا دلائل على وجود حياة»الآمال تتحول إلى يأس بعد انهيار مدرسة في إندونيسيا

الحقائق: أعلنت ميتا عن سياسة جديدة تدخل حيز التنفيذ في 16 ديسمبر، لكن السياسة وحدها لا تعني أن رسائلك الخاصة أو صورك أو رسائلك الصوتية تُضاف تلقائياً إلى مجموعات تدريب الذكاء الاصطناعي. السياسة تتعلق بطريقة تخصيص المحتوى والإعلانات بناءً على كيفية تفاعل المستخدمين مع ميتا AI. مثلاً، إن تفاعل شخص مع روبوت محادثة ميتا حول موضوع التنزه قد يبدأ بظهور اقتراحات متعلِّقة بالمجموعات أو الأحذية المخصصة لذلك.

مع ذلك، تُستخدم بيانات المستخدمين المعلنة كـ«عامة» — صور، منشورات، تعليقات، مقاطع ريلز — في بعض آليات ميتا. وتقول الشركة إن النظام مصمم لتفادي تحويل محادثات تتعلق بالآراء الدينية أو التوجه الجنسي أو الأصل العرقي إلى إعلانات. وإذا استعمل المستخدم ميزة الصوت في ميتا AI، فالميكروفون يعمل فقط إذا منح المستخدم الإذن.

تحذير إضافي: قد تُستخدم معلومات أشخاص ليس لديهم حسابات ميتا إذا ظهرت بياناتهم في منشورات عامة للمستخدمين الآخرين؛ على سبيل المثال، لو أشار مستخدم ميتا إلى شخص غير مستخدم في وصف صورة عامة، فقد تُستغل تلك الصورة والنصوص في تدريب ميتا AI.

هل يمكنك الانسحاب؟ لا توجد وسيلة عامة لتعطيل ميتا AI عبر إنستغرام أو فيسبوك أو ثريدز. يمكن لمستخدمي واتساب تعطيل خيار التحدث مع ميتا AI في كل دردشة على حدة من إعدادات الخصوصية المتقدمة، أي يجب تعطيلها لكل محادثة على حدة. ونُشرت نصائح خاطئة تدعو الناس لتعبئة نموذج «الانسحاب»؛ لكنه في الحقيقة نموذج لإبلاغ ميتا عندما ينتج الذكاء الاصطناعي إجابة تحتوي على معلومات شخصية عن شخص ما.

قال ديفيد إيفان هاريس، أستاذ أخلاقيات الذكاء الاصطناعي بجامعة كاليفورنيا في بيركلي، إن غياب تشريعات اتحادية واضحة في الولايات المتحدة يمنع وجود حق قانوني موحّد يتيح للمستخدمين الانسحاب من تدريب الذكاء الاصطناعي كما يحدث في دول مثل سويسرا والمملكة المتحدة وكوريا الجنوبية. وحتى عندما توفر المنصات خيارات انسحاب للعملاء الأميركيين، غالباً ما تكون هذه الإعدادات صعبة الاكتشاف.

يقرأ  ترمب يرفع الرسوم الجمركية على البضائع الكندية رداً على إعلان ريغان

حذف حسابات ميتا لا يضمن إزالة إمكانية استخدام ميتا لبياناتك العامة السابقة، حسب متحدث باسم الشركة.

جوجل
المزاعم على وسائل التواصل: «هل تعلم أن جوجل منحت للتو ذكاءها الاصطناعي حق قراءة كل بريدك في جيمايل — حتى المرفقات؟» (منشور على إنستغرام بتاريخ 8 نوفمبر حاز آلاف التفاعلات).

الحقائق: لدى جوجل مجموعة من المنتجات التي تتعامل مع بيانات خاصة بطرق مختلفة. أعلنت جوجل في 5 نوفمبر عن منتجها الذكي Gemini Deep Research الذي يمكنه الاتصال بمنتجات غوغل الأخرى مثل جيمايل ودرايف وشات، لكن المستخدمين يجب أن يمنحوا الإذن أولاً لاستخدام الأداة. يمكن للمستخدمين اختيار مصادر البيانات التي يسمحون لGemini باستخدامها (بحث جوجل، جيمايل، درايف، غوغل شات).

تجمع جوجل بيانات أيضاً عبر:
– عمليات البحث والمطالبات داخل تطبيقات Gemini (تطبيق الهاتف أو في متصفح كروم أو غيره)
– أي فيديو أو صورة يُحمّلها المستخدم داخل Gemini
– التفاعل مع تطبيقات مثل يوتيوب أو سبوتيفاي إذا سمح المستخدم
– سجلات المكالمات والرسائل في تطبيقات الاتصالات إذا منح المستخدم الإذن

تقول جوجل إنها لا تستخدم هذه المعلومات لتدريب الذكاء الاصطناعي عندما يكون المستخدمون المسجلون دون سن 13.

يمكن لجوجل أيضاً الوصول إلى البيانات عندما تُفعّل الميزات الذكية في إعدادات جيمايل وGoogle Workspace (وهي مفعّلة تلقائياً في الولايات المتحدة)، مما يمنح جوجل صلاحية الاستفادة من محتوى البريد ونشاط المستخدم لمساعدة التكوّن الآلي للرسائل أو اقتراح أحداث في التقويم. وبتحويل الاشتراكات المدفوعة يمكن الحصول على ميزات إضافية، بما في ذلك ملخصات Gemini داخل التطبيق.

إيقاف ميزات جيمايل الذكية يوقف وصول ذكاء جوجل إلى جيمايل، لكنه لا يمنع وصول Gemini نفسه عبر تطبيقه أو عبر المتصفح. رفعت دعوى قضائية في كاليفورنيا تتهم Gemini بالتجسس على الاتصالات الخاصة للمستخدمين، وتقول الدعوى إن تعديل سياسة أكتوبر منح Gemini وصولاً افتراضياً إلى محتوى خاص كالبريد والمرفقات في جيمايل وتشات وميت. قبل أكتوبر، كان على المستخدمين منح الإذن يدوياً؛ الآن عليهم الدخول إلى الإعدادات الخصوصية لتعطيله، وتدّعي الدعوى أن التحديث ينتهك قانونْ حماية الخصوصية في كاليفورنيا لعام 1967 الذي يحظر التنصت أو تسجيل الاتصالات السرية بدون موافقة.

يقرأ  أهمية اختيار الفصل المناسب — دروسٌ مستفادة من عقدٍ في التربية الخاصة

هل يمكنك الانسحاب؟ لتفادي استخدام محادثاتك في تدريب ذكاء جوجل، يمكن استخدام محادثات «مؤقتة» أو الدردشة دون تسجيل الدخول إلى حساب Gemini، ما يمنع حفظ تاريخ الدردشة. خلاف ذلك، يتطلب الانسحاب من استخدام ذكاء جوجل في جيمايل ودرايف وميت إيقاف الميزات الذكية في الإعدادات.

لينكدإن
المزاعم على وسائل التواصل: «ابتداءً من 3 نوفمبر، لينكدإن سيبدأ باستخدام بياناتك لتدريب الذكاء الاصطناعي.» (منشور على إنستغرام بتاريخ 2 نوفمبر نال آلاف الإعجابات).

الحقائق: أعلنت لينكدإن، المملوكة لمايكروسوفت، أنها ابتداءً من 3 نوفمبر ستستعمل بيانات بعض أعضاء الولايات المتحدة لتدريب نماذج ذكاء اصطناعي تُولِّد محتوى. تشمل البيانات المستخدمة معلومات من الملفات الشخصية والمحتوى العام الذي ينشره المستخدمون. التدريب لا يشمل رسائل الأعضاء الخاصة، بحسب لينكدإن.

كما أعلنت الشركة أن مايكروسوفت بدأت تتلقى بيانات عن أعضاء لينكدإن — مثل معلومات الملف الشخصي، نشاط الخلاصة والتفاعل مع الإعلانات — منذ 3 نوفمبر بهدف عرض إعلانات مخصَّصة.

هل يمكنك الانسحاب؟ نعم. أكدت ناطقة باسم لينكدإن لPolitiFact أن الأعضاء يمكنهم الانسحاب إذا لم يرغبوا في استخدام محتواهم لأغراض تدريب الذكاء الاصطناعي، كما يمكنهم الانسحاب من الإعلانات المخصصة. لإزالة بياناتك من التدريب، اذهب إلى إعدادات خصوصية البيانات، اختر «البيانات لتحسين الذكاء الاصطناعي التوليدي» ثم أوقف خيار «استخدام بياناتي لتدريب نماذج إنشاء المحتوى». ولإيقاف الإعلانات المخصصة، اذهب إلى بيانات الإعلان في الإعدادات وعلّق خيارات الإعلانات ومشاركة البيانات مع الشركات الشقيقة والشركاء المحددين.

خلاصة: تختلف سياسات المنصات وطرق جمعها للبيانات وسبل الانسحاب المتاحة للمستخدمين. في غياب إطار قانوني اتحادي شامل في الولايات المتحدة، تبقى قراءة الشروط والسياسات الشخصية هي أفضل وسيلة لمعرفة كيفية استغلال بياناتك وكيفية الحد من ذلك. (ملاحظة صغيرة: قد تجد صعوبة في الوصول لبعض إعدادات الخصوصية أو في تعطيل بعض ميزات الذكاء الاصطناعي على نحو شامل).

أضف تعليق