تسميها بريطانيا «سلامة» في الواقع: رقابة على وسائل التواصل الاجتماعي

كان من المفترض أن يحمي قانون سلامة الإنترنت في المملكة المتحدة الأطفال. لكنه في الواقع يحول الجمهور إلى مُعتمٍ عن المعرفة. خلال أيام من سريان مفعوله في أواخر يوليو 2025، بدأت منصة إكس (المعروفة سابقًا بتويتر) بإخفاء مقاطع عن انتهاكات إسرائيل في غزة عن جداول تغذية المستخدمين في بريطانيا وراء تحذيرات محتوى وحواجز عمرية. القانون الذي بُعِدَ على أنه حماية صار واحدًا من أقوى أدوات الرقابة التي أنشأتها بريطانيا على الإطلاق. ما يحدث ليس صدفة؛ بل نتاج تشريع يسوّق خطاب حماية الأطفال ليطوّعه كغطاء لتمرير الرقابة والتحقق من الهوية والمراقبة الالكترونية العامة.

تعود جذور أزمة الرقابة على الإنترنت في بريطانيا إلى ما يقرب من عقد مضى، إلى شركة MindGeek التي أعادت تسميتها لاحقًا إلى Aylo، الشركة المثيرة للجدل التي تقف خلف Pornhub. هذا الإمبراطورية الإباحية المتهمة بالتهرب الضريبي والاستغلال تعاونت عن كثب مع الحكومة البريطانية لتطوير نظام تحقق عمري باسم AgeID، خطة كانت لتمنح Aylo احتكارًا فعليًا للمحتوى القانوني للبالغين من خلال إفقاد المنافسين الصغار القدرة على البقاء ما لم يدفعوا أو يختفوا. رد الفعل الشعبي أسقط AgeID في 2019، لكن الفكرة لم تمت. بمجرد أن تقبلت ديمقراطية فكرة قفل الوصول إلى المحتوى برزمة تحقق الهوية، أصبح السِجلّ سابقة قابلة للتكرار. لقد مهد قانون الاقتصاد الرقمي 2017 الطريق، وجعل قانون سلامة الإنترنت 2023 ذلك قانونًا نافذًا. اليوم تستكشف دول في الاتحاد الأوروبي، من فرنسا إلى ألمانيا، تشريعات موازية، كل منها يلتفّ حول نفس خطاب «حماية الأطفال». هذا ليس مؤامرة؛ إنه التقاء طبيعي بين الاستحواذ المؤسسي وسيطرة الدولة، ملفوفًا بلغَة أخلاقية عن سلامة القُصّر.

يمنح قانون سلامة الإنترنت هيئة Ofcom صلاحية مراقبة كل زاوية تقريبًا من الفضاء الالكتروني، من شبكات التواصل ومحركات البحث إلى منصات المحتوى البالغ، مع تهديد بغرامات تصل إلى 18 مليون جنيه إسترليني (حوالي 24 مليون دولار) أو عشرة بالمئة من الإيرادات العالمية. يمكن تصنيف المنصات كخدمات «الفئة الأولى»، ما يفعّل أقسى القواعد، بما فيها التحقق الإجباري من العمر، وفحص هويات المساهمين، وحذف مواد «ضارة» مُبهمة التعريف. ويكيبيديا تواجه هذا الخطر نفسه الآن: في أغسطس 2025 رفضت المحكمة العليا طعن مؤسسة ويكيميديا ضد قواعد التصنيف، مما مهد الطريق أمام Ofcom لتعاملها كمنصة عالية المخاطر. حذّرت المؤسسة من أن الامتثال سيجبرها على فرض رقابة على معلومات حيوية ويعرّض محررين متطوعين للخطر من خلال ربط هوياتهم الحقيقية بما يكتبون. وإن امتنعّت، فقد يُمنح القانون للمملكة المتحدة الحق قانونًا في حجب الوصول كليًا — مثال صارخ على كيف يتحول «حماية الأطفال» إلى أداة للتحكّم بالمعلومات. وبالفعل، فتحت Ofcom تحقيقات متعددة بحق مواقع بورن ومواقع اجتماعية كبرى بزعم عدم الامتثال؛ التأثير الردعي للقانون لم يعد افتراضيًا، بل عمليًا.

يقرأ  مبادرة المواطنة الرقمية: تمكين المعلمين من الإبحار بأمان في عالم الإنترنت

أنظمة التحقق العمري تتناقض جذرًا مع الخصوصية والأمن؛ في الحقيقة أي نظام للتحقق من الهوية يجب أن يُستقبَل بشك فوري. خرق بيانات تطبيق المواعدة Tea في 25 يوليو، الذي سرّب آلاف الصور وما يزيد عن 13,000 مستند هوية حسّاس وتداوَلها على 4chan، أو خرق بيانات Discord الأحدث الذي كشف أكثر من 70 ألف مستند هوية حكومية بعد اختراق خدمة طرف ثالث، يثبِت ذلك بوضوح.

عندما تخزن الأنظمة بيانات تحقق تربط الهويات الحقيقية بالنشاطات الالكترونية، فإنها تخلق كنزًا للهاكرز والمبتزين والدول. التاريخ يقدّم تحذيرات: من تسريب Brazzers عام 2013 لما يقرب من 800,000 حساب، إلى خلاصة مكتب التحقيقات الفدرالي أن عمليات الابتزاز المرتبطة بالمحتوى الإباحي تبقى من أبرز أشكال الابتزاز الالكتروني. تخيّل الآن تطبيق هذه البنية التحتية ليس على محتوى البالغين فحسب، بل على الخطاب السياسي والصحافة والنشاط المدني. نفس الأدوات المبنية لـ«سلامة الأطفال» تتيح ابتزازًا غير مسبوق وتلاعبًا سياسيًا. خرق واحد قد يكشف صحفيين أو مُبلغين عن فساد أو مسؤولين عامّين. وفي عالم تعبر فيه البيانات الحدود بلا توقف، لا ضمان أن قواعد بيانات التحقق في ديمقراطيات ستبقى بعيدة عن أيدي أنظمة استبدادية. كلما رقمنّا «الثقة»، كلما خضناها للمخاطرة.

أخطر ما في هذا التوجّه التشريعي أنه يعفي الآباء بينما يمنح الدولة المزيد من الصلاحيات. أدوات الرقابة الأبوية القائمة متطورة: الآباء قادرون اليوم على مراقبة وتقييد استخدام الأطفال للإنترنت عبر الأجهزة والراوترات والتطبيقات. الدفع باتجاه تحقق عمري مُفروض من الدولة ليس لأن هذه الأدوات فشلت، بل لأن بعض الآباء يختارون عدم استخدامها، والحكومات تلتقط هذا الإهمال ذريعة لتشديد المراقبة. بدلًا من الاستثمار في التربية والمعرفة الرقمية، توسّع السلطات صلاحياتها لتقرر ما يمكن لكل واحد منا أن يراه. الدولة لا يجب أن تحل مكان التربية العامة. ومع ذلك، بمقتضى قانون سلامة الإنترنت يصبح كل مواطن مشتبهًا به يجب أن يثبّت براءته قبل أن يتحدث أو يتصفح. ما يُسوَّق كـ«حماية للأطفال» هو في الواقع بناء نظام امتثال شامل للسكان.

يقرأ  عمارة كوبا الفريدة تتلألأ في صورٍ نابضةٍ بالحياة للمصور جيمس كيروين — «كولوسال»

تجربة بريطانيا الكارثية تنتشر بالفعل. فرنسا وألمانيا قدما مسودات متقدمة للتحقق العمري وقوانين سلامة الإنترنت الموازية، بينما يقترح الاتحاد الأوروبي مخططًا يربط وصول البالغين للمحتوى ومنصات «عالية المخاطر» بهويات رقمية قابلة للتشغيل المتبادل. الاتحاد يؤكد أن النظام سيحافظ على الخصوصية، لكن هيكليته متطابقة مع النموذج البريطاني: تحقق هوية شامل مُقنع بغطاء الحماية. وتتكرر المنطق في كل مكان: تبدأ القوانين بهدف ضيق — حماية القاصرين من الإباحيات — لكنها تتوسع سريعًا لتشمل الاحتجاجات ثم السياسة. اليوم المقاطع عن غزة والمحتوى الجنسي؛ غدًا الصحافة أو المعارضة. المملكة المتحدة ليست شاذة، بل نموذج لمنحى رقمي استبدادي يُصدّر تحت راية السلامة.

مؤيدو هذه القوانين يُقدّمون معادلة مزيفة: إما تحقق عمري شامل أو ترك الأطفال لخطورة الإنترنت. هذا التقديم مُضلِّل. لا نظام تقني يمكنه أن يحل محل الأبوة المشاركة أو التعليم في الثقافة الرقمية. المراهقون المصمّمون سيجدون طرقًا لتجاوز القيود، لكنهم سيُدفعون إلى زوايا أخطر من الشبكة. في المقابل، هذه القوانين تفشل في مواجهة الخطر الحقيقي: مواد إساءة الأطفال التي تُنشر في شبكات مشفرة أو مخفية لن تمتثل أبدًا للتنظيم الرسمي. في الواقع، المواقع التي ستلتزم عادة هي تلك القادرة أصلاً على ضبط نفسها، وهذه بالذات هي المواقع التي تقوّضها الدولة الآن. بدفع الشباب نحو شبكات VPN ومنصات غير منظمة، يخاطر المشرّعون بتعرّضهم لأضرار أكبر. النتيجة ليست حماية، بل مزيد من التعرض للخطر.

إذا نزَعْنا خطاب حماية الأطفال، يتضح الدور الحقيقي لقانون سلامة الإنترنت: بناء بنية تحتية لمراقبة المحتوى جماعيًا ورقابة السكان. بمجرد وجود هذه الأنظمة، يصبح توسيعها أمرًا يسيرًا. لقد شهدنا هذا المنطق سابقًا: قوانين مكافحة الإرهاب تحوّلت إلى وسائل لقمع المعارضين؛ والآن «سلامة الأطفال» توفر غطاءً لنفس الزحف الاستبدادي. الاتحاد الأوروبي يناقش مقترحات لتمسح المحادثات وتضعف التشفير، مع وعود بأنها ستُستخدم ضد المعتدين فقط — حتى لا تكون كذلك لاحقًا. العواقب الآنية في المملكة المتحدة — تقليص لقطات غزة، تهديد بإغلاق ويكيبيديا، فيديوهات احتجاجية مُراقبة — ليست أعطالًا عرضية. إنها معاينات لنظام رقمي مبني على الضبط. ما هو في الميزان ليس الخصوصية فحسب، بل الديمقراطية نفسها: الحق في الكلام والمعرفة والاختلاف دون أن تُطلب منك وثيقة هوية أولًا.

يقرأ  جوكستابوز — خمسة عشر قياسًا: بروكلين أ. سوماهورو في معرض فرانسوا غبالي (نيويورك)

حماية الأطفال على الإنترنت لا تستلزم إقامة دولة مراقبة. بل تتطلب تعليمًا، ومساءلة، ودعمًا للأهالي والمعلمين والمنصات معًا. على الحكومات أن تستثمر في الثقافة الرقمية، وتلاحِق استغلال القُصّر الحقيقي قانونيًا، وتمنح الأهل أدوات أفضل لإدارة الوصول. يجب أن تُحمَل المنصات بمعايير واضحة من الشفافية والمسؤولية الخوارزمية، لا أن تُجبر على رقابة على البالغين. حيث تفشل الذاتية في التنظيم، يمكن لرقابة مستهدفة أن تؤتي ثمارها؛ لكن التحقق الشامل من الهوية لا يصلح حلًا.

قانون سلامة الإنترنت البريطاني وتشريعات مماثلة في أنحاء العالم تمثل اختيارًا جوهريًا بشأن نوع المستقبل الرقمي الذي نريده. إما أن نقبل الوهم الزائف للأمن عبر المراقبة والتحكّم، أو نصرّ على حلول تحمي الأطفال دون التضحية بالخصوصية والحريات والقيم الديمقراطية التي تجعل الحماية ذات معنى. النتائج المبكرة من التجربة البريطانية يجب أن تكون تحذيرًا لا نموذجًا. قبل أن يتحوّل هذا الزحف الاستبدادي إلى أمر لا رجعة فيه، يجب على المواطنين والمشرّعين أن يدركوا أن الحكومات التي تزعم حماية الأطفال عبر السيطرة على المعلومات غالبًا ما تحمي شيئًا آخر تمامًا: قدرتها على تحديد ما نراه ونقول ونعرف.

الآراء الواردة في هذا المقال تعبر عن رأي الكاتب ولا تعكس بالضرورة سياسة الجزيرة التحريرية.

أضف تعليق