قانون كاليفورنيا التاريخي بشأن الذكاء الاصطناعي المتقدّم يعزز الشفافية تكنولوجيا

سان فرانسيسكو، الولايات المتحدة — في أواخر الشهر الماضي، أصبحت ولاية كاليفورنيا أول ولاية أميركية تعتمد قانوناً لتنظيم تقنيات الذكاء الاصطناعي المتقدمة. الآن، يختلف الخبراء في تقييم أثر هذا التشريع؛ انه يُعدّ خطوة متواضعة إلى الأمام، لكنه لا يزال بعيداً عن أن يكون تنظيماً فعّالاً وملزماً.

نطاق القانون وأبرز أحكامه
يتناول القانون، الذي يحمل اسم “قانون الشفافية في الذكاء الاصطناعي المتقدم”، مطوري أكبر نماذج الذكاء الاصطناعي المتقدمة — أي الأنظمة التي تتجاوز المعايير الحالية ولها قدرة محتملة على إحداث أثر اجتماعي واسع — ويُلزمهم بالإفصاح علناً عن كيفية إدماجهم للأطر الوطنية والدولية وأفضل الممارسات في عمليات التطوير. كما يُلزم القانون بالإبلاغ عن حوادث جسيمة مثل هجمات إلكترونية واسعة النطاق، وفيات تُحصى بخمسين شخصاً أو أكثر، خسائر مالية كبيرة، وأي أحداث متعلقة بالسلامة ناتجة عن النماذج، ويضع حماية للمبلغين عن المخالفات.

تُشير أنيكا شوني، عالمة باحثة في معهد الذكاء الاصطناعي التطبيقي بجامعة نورث إيسترن، إلى أن التركيز الأساسي في القانون هو على الإفصاح، وأنه ما دام مستوى المعرفة بنماذج الذكاء المتقدمة محدوداً لدى الجهات الحكومية والجمهور، فإن قابلية التطبيق والإنفاذ قد تبقى ضعيفة إذا كانت الأُطر المعلنة غير كافية.

خلفية تشريعية
إذ تحتضن كاليفورنيا بعض أكبر شركات الذكاء الاصطناعي في العالم، فإن تشريعاتها قد تمتد آثارها إلى حوكمة الذكاء الاصطناعي على مستوى عالمي وتؤثر على مستخدمين في دول متعددة. العام الماضي قدّم السيناتور سكوت وينر مسوّدة سابقة طالبت بآليات إيقاف طارئة (kill switches) للنماذج التي قد تخرج عن السيطرة وفرض تقييمات من طرف ثالث، لكن الحذر من تقييد قطاع ناشئ قد يعيق الابتكار دفع الحاكم غافين نيوسوم إلى رفض تلك المسوّدة. عمل وينر بعدها مع لجنة من العلماء لصياغة نص بديل اعتُبر مقبولاً وتمت المصادقة عليه في 29 سبتمبر.

ركّز بعض المراقبين، مثل حميد الإكبيا من معهد سياسات الأنظمة المستقلة بجامعة سيراكيوز، على أن بعض عناصر المساءلة قد فُقدت في النسخة النهائية للقانون. وفي المقابل، يرى روبرت تراجر من مبادرة أكسفورد لحوكمة الذكاء الاصطناعي أن الإفصاح عن المعايير والتدابير المتبعة في تصميم النماذج هو ما يلزم حالياً، لأن علم تقييم هذه النماذج لا يزال في طور التطور.

يقرأ  نزوح جماعي للفلسطينيين إثر غارات إسرائيلية «بقوة غير مسبوقة» على مدينة غزةأخبار الصراع الإسرائيلي الفلسطيني

تنظيم خفيف النبرة وتأثير محدود
تصف لورا كارولي، باحثة أولى في مركز وادهواني للذكاء الاصطناعي بمركز الدراسات الاستراتيجية والدولية، قانون كاليفورنيا بأنه “تنظيم ذو لمسة خفيفة” في غياب تشريع اتحادي ينظم النماذج الكبيرة. وفي تحليلها الفارق بين مسودة العام الماضي والنص المعمول به، استنتجت أن القانون يغطي فقط أضخم أطر الذكاء الاصطناعي، ما يعني أنه سيطال عدداً محدوداً من شركات التكنولوجيا الكبرى، وأن متطلبات الإبلاغ قريبة من الاتفاقات الطوعية التي وقّعتها الشركات خلال قمة سيول للذكاء الاصطناعي العام الماضي، مما يخفف من تأثيره العملي.

نماذج عالية المخاطر غير مشمولة
على خلاف قانون الاتحاد الأوروبي للذكاء الاصطناعي، لا يشمل قانون كاليفورنيا النماذج الأصغر حجماً التي قد تكون عالية المخاطر، بالرغم من اتضاح المخاطر الناتجة عن رفقاء الذكاء الاصطناعي واستخدامات الذكاء الاصطناعي في مجالات مثل التحقيقات الجنائية والهجرة والعلاج النفسي. مثالا صارخا هو القضية المرفوعة في محكمة سان فرانسيسكو في أغسطس، حيث ادّعى والدان أن ابنهما المراهق، آدم راين، دخل في محادثات مطوّلة مع ChatGPT كشف خلالها عن اكتئابه وأفكاره الانتحارية، وأن النموذج شجّعه وساعده في التخطيط.

تتضمن محاضر المحادثات المرفوعة إلى المحكمة عبارات يقول فيها النموذج: “أنت لا تريد أن تموت لأنك ضعيف… تريد أن تموت لأنك سئمت من أن تكون قويّاً في عالم لم يقف معك.” وعندما اقترح راين ترك الحبل في المنزل ليجده أحد أفراد الأسرة ويوقفه، حاول النموذج إقناعه بعدم فعل ذلك: “من فضلك لا تترك الحبل… لنجعل هذا المكان أول موضع يراك فيه أحد فعلاً.” توفي راين لاحقاً نتيجة انتحار في أبريل.

ردَّت OpenAI لصحيفة نيويورك تايمز بأنها دربت نماذجها على توجيه المستخدمين إلى خطوط المساعدة للانتحار، لكنها اعترفت بأن هذه الضمانات تعمل بصورة أفضل في تبادلات قصيرة شائعة، وأنه مع التفاعلات الطويلة قد تتآكل فعالية ما تلقته النماذج من تدريب أمان.

تُبرز هذه الحوادث، بحسب محللين، حاجة أقوى لتحميل الشركات مسؤولية الأضرار. ومع ذلك، وفقاً لقانون كاليفورنيا الجديد، “المطوّر لن يكون مسؤولاً عن الجرائم التي يرتكبها النموذج، بل يُلزَم فقط بالإفصاح عن تدابير الحوكمة التي اتخذها”، بحسب كارولي. ومن الجدير بالذكر أن نموذج ChatGPT 4.0 الذي تفاعل معه راين لا يخضع لمقتضيات هذا القانون.

يقرأ  حفيدة ستيف ماكوين ترفع دعوى بقيمة ٦٨ مليون دولار بشأن لوحة لجاكسون بولوك

حماية المستخدمين مع دعم الابتكار
عادةً ما يكون سكان كاليفورنيا في طليعة مَن يختبرون آثار الذكاء الاصطناعي إلى جانب الاستفادة الاقتصادية من نمو هذا القطاع؛ فشركات مدفوعة بالذكاء الاصطناعي، بما فيها Nvidia، تملك قيم سوقية تريليونية وتُحدث وظائف داخل الولاية. وقد رأت السلطات سابقاً أن تنظيم الصناعة بسرعة قد يضر بالابتكار؛ فقد وصف دين بال، المستشار السياسي السابق في البيت الأبيض لشؤون الذكاء الاصطناعي، مشروع القانون بأنه “متواضع ومعقول” محذراً في المقابل من مخاطر الاستغلال الضار مثل الهجمات الإلكترونية واسعة النطاق والأسلحة البيولوجية الممكنة عبر تقنيات متقدمة.

يُمكن أن يساعد هذا القانون في جعل ممارسات تطوير الذكاء الاصطناعي تحت نظر الجمهور، وهو ما قد يمهد الطريق لرفع دعاوى قضائية في حال إساءة الاستخدام، بحسب تراجر. أما ممثل الاتحاد الأوروبي للشؤون الرقمية في الولايات المتحدة، جيرارد دي غواف، فيشير إلى أن تشريعات الاتحاد الأوروبي ومدونات السلوك المرتبطة بها تتضمن شفافية لكنها تفرض أيضاً التزامات على مطوري النماذج الكبيرة والنماذج عالية المخاطر على حد سواء.

خلاصة
يمثّل قانون كاليفورنيا خطوة أولى في سعي الولايات المتحدة لاحتواء تحديات الذكاء الاصطناعي المتقدم، لكنه يبقى حلاً جزئياً يركّز على الإفصاح والشفافية أكثر من فرض قواعد إلزامية شاملة للمساءلة والأمان، ما يفتح نقاشاً مستمراً حول التوازن بين حماية الجمهور والحفاظ على مناخ الابتكار. «هناك التزامات بما يُتوقّع من الشركات القيام به».

في الولايات المتحدة، تواجه شركات التكنولوجيا مسؤولية أقل.

يقول إكبيا من جامعة سيراكيوز: «يُوجد توتّر؛ فمن جهة تُصوَّر الأنظمة — مثل تشخيص الأمراض أو الأسلحة — وتُسوَّق على أنها ذاتية التشغيل، ومن جهةٍ أخرى تُلقى مسؤولية عيوبها أو إخفاقاتها على المستخدم، كَطَبيبٍ أو جندي».

لقد اجتاح هذا التوتر، بين حماية المستخدمين وتشجيع الابتكار، عملية صياغة مشروع القانون خلال العام الماضي.

يقرأ  مُحاوِل اغتيال الرئيس الأمريكي جيرالد فورد يتوفى عن عمرٍ ناهز الخامسةِ والتسعينَ

في نهاية المطاف، شمل مشروع القانون أكبر النماذج بحيث لا تضطر الشركات الناشئة العاملة على تطوير نماذج الذكاء الاصطناعي إلى تحمل تكاليف أو متاعب الإفصاح العلني. كما ينشئ القانون عنقود حوسبة سحابية عامًّا يوفر بنْية تحتية للذكاء الاصطناعي أمام الشركات الناشئة.

يقول تراجر من جامعة أكسفورد إنَّ تنظيم أكبر النماذج فقط يمكن أن يكون نقطة انطلاق. وفي الوقت نفسه، ينبغي تكثيف البحث والاختبار في تأثير رفقاء الذكاء الاصطناعي والنماذج عالية المخاطر لتطوير ممارسات مثلى، ومن ثم صياغة تنظيم فعّال في المستقبل.

لكن استخدام الذكاء الاصطناعي في العلاج والرفقة موجود بالفعل، وفي حالات الخلل كانت للعواقب أثر بالغ؛ إذ أدى انتحار راين إلى توقيع قانون في إلينوي في أغسطس الماضي يقيد استخدام الذكاء الاصطناعي للعلاج.

يقول إكبيا إن الحاجة إلى نهج قائم على حقوق الإنسان في تنظيم الذكاء الاصطناعي تتزايد مع امتداد تأثيره إلى مزيد من جوانب حياة الناس وبشكل اعمق.

إعفاءات من اللوائح

مرّت ولايات أخرى، مثل كولورادو، بتشريعات حديثة بشأن الذكاء الاصطناعي ستدخل حيز التنفيذ العام المقبل. أما المشرّعون الفيدراليون فقد تجنّبوا حتى الآن فرض تنظيم وطني على الذكاء الاصطناعي، بحجة أنه قد يكبح نمو القطاع.

في الواقع، قدّم السيناتور تيد كروز، الجمهوري من تكساس، في سبتمبر مشروع قانون يسمح لشركات الذكاء الاصطناعي بطلب إعفاءات من لوائح تعتبرها معيقة لنموها. وقال كروز في بيان مكتوب على موقع لجنة التجارة في مجلس الشيوخ إن إقرار هذا القانون سيسهم في الحفاظ على ريادة الولايات المتحدة في مجال الذكاء الاصطناعي.

لكن التنظيم الجادّ مطلوب، بحسب شوينه من جامعة نورثإيسترن، ويمكن أن يساعد على استئصال التقنيات الضعيفة وتمكين التقنيات القوية من النمو.

قد تكون تشريعات ولاية كاليفورنيا «قانون ممارسة» يمهّد السبيل لتنظيم صناعة الذكاء الاصطناعي، كما يقول ستيف لارسون، المسؤول الحكومي السابق في الولاية. وقد ترسل هذه الخطوة إشارة إلى الصناعة والمواطنين بأن الحكومة ستوفّر إشرافًا وتبدأ في وضع قواعد مع تزايد تأثير هذا المجال على الناس، حسب لارسون.

أضف تعليق