استدعاءات واجهات برمجة التطبيقات للذكاء الاصطناعي تحرّر من الاعتماد وحسّن أداتك

لماذا ينبغي لأدوات التعلم المدعومة بالذكاء الاصطناعي أن تستهلك موارد أقل

عندما بدأتُ بتصميم أدوات تعليمية تعتمد على الذكاء الاصطناعي، كان غريزي كما لدى معظم الناس: أرسِل مدخلات المستخدم إلى النموذج، أحصل على رد، وأعرضه. كان الذكاء الاصطناعي هو الأداة، وكل شيء يمر من خلاله.

نجح هذا الأسلوب… حتى لم يعد كذلك. مفتاح API انتهت صلاحيته خلال عطلة طويلة ولم يلحظ أحد ذلك لأسابيع. الخدمة تعثرت من وقت لآخر، وكلما تعثرت الخدمة توقفت الأداة معها. وفي مرحلة ما أدركت أنني أدفع فاتورة شهرية لخدمة ذكاء اصطناعي لأجل الإجابة على نفس اثني عشر سؤالًا مراراً وتكراراً؛ كان ذلك يبدو أقل كحل وأكثر كاعتماد صنعته بنفسي.

خلال العام الماضي طورت نحو نصف دستة أدوات تعليمية، وحين وصلت إلى الأداة الثالثة أو الرابعة بدأت تتشكل أمامي قواعد واضحة تمنيت لو فهمتها منذ البداية: ينبغي أن يكون الذكاء الاصطناعي طبقة إنهائية، لا قاعدة أساسية.

المبدأ: أنجز العمل قبل استدعاء واجهة برمجة التطبيقات (API)

كل استدعاء لواجهة برمجة التطبيقات يكلف مالاً يُقاس بوحدات (توكنات) مرسلة ومستقبلة. لكن التكلفة المالية أسهل ما يمكن ملاحظته؛ ما استغرقت وقتاً لأدركه حقاً كان تكلفة الكمون (كل استدعاء يضيف ثوانٍ لتجربة المستخدم لا تضيفها عملية محلية)، وتكلفة الاعتمادية (أي تبعية خارجية تمثل نقطة فشل لا تتحكم بها)، والتكلفة البيئية التي تُهمل بسهولة عندما تُفكر في استعلام واحد لكنها تتراكم عندما تخدم الأداة مئات المستخدمين يومياً.

المنهج الذي انتهجته بسيط ومباشر: نفِّذ أكبر قدر ممكن باستخدام بياناتٍ مُهيكلة ومنطق حتمي قبل أن يدخل الذكاء الاصطناعي في المعادلة. إن أمكنك الإجابة على سؤال بمطابقة كلمات مفتاحية مع قاعدة معرفة مُنقّحة فافعل ذلك. إن أمكنك تضييق مجموعة التوصيات عبر اختيارات من قوائم منسدلة فأفعل ذلك. احفظ استدعاء API للجزء من المهمة الذي يتطلب فعلاً قدرات توليدية حيث يحتاج الرد أن يكون مُخصّصاً أو مُركّباً بطريقة لا توفرها إجابة مكتوبة سلفاً.

للتوضيح: هذا ليس حجة ضد استخدام الذكاء الاصطناعي. بل هو حجة لاستخدامه بدقة.

ما يبدو هذا عملياً

أبسط مثال واضح هو روبوت الدردشة لأسئلة وأجوبة في مكتب المساعدة الذي بنته لمنظمة. النسخة التي قد يبنيها معظم الناس أو التي كدت أبنيها ترسل كل سؤال مستخدم إلى النموذج مع كامل قاعدة الأسئلة الشائعة، وتترك للموديل أن يقرر أي إجابة يعيد. هذا يعمل، لكنه يجعل كل سؤال—بما في ذلك “ما مواعيد الدوام؟”—يكلف توكنات، ويزيد من زمن الانتظار، ويتطلب اتصالاً خارجياً نشطاً.

يقرأ  تدريب العملاء — التعلم والتطوير يعززان الإيرادات في أوقات عدم اليقين

ما بنيته في النهاية هو نهج هجين. عندما يكتب المستخدم سؤالاً، تجري الأداة أولاً مطابقة كلمات مفتاحية مقابل مجموعة مُنقّحة من إدخالات الأسئلة الشائعة. كل إدخال مرتبط بكلمات مفتاحية ومرادفات، ومنطق المطابقة يحسب درجة ثقة. إذا كانت الدرجة مرتفعة بما يكفي تُعيد الأداة الإجابة المكتوبة سلفاً فوراً—لا حاجة لاستدعاء AI.

فقط عندما تعجز مطابقة الكلمات المفتاحية عن إنتاج نتيجة واثقة تتصاعد المسألة إلى الذكاء الاصطناعي. وحتى عندها لا تُحمَّل قاعدة المعرفة كاملة داخل الطلب. تُرسل فقط أفضل الإدخالات المرشحة، تلك التي حصلت على أعلى الدرجات لكنها لم تتجاوز عتبة الثقة، إلى جانب سؤال المستخدم الأصلي. يحصل الذكاء الاصطناعي على مجموعة مركزة من الاحتمالات بدلاً من الكل.

ما يعجبني في هذا النمط هو تعميمه الواسع. سواء كانت الأداة بوت دعم داخلي، محرك توصية تدريبية، أو مُكتشف موارد متكامل مع نظام إدارة تعلم، البنية نفسها: عالج ما تستطيع باستخدام بيانات مُنظمة، وأرسل إلى النموذج التوليدي ما لا يمكنك حله.

سياق أقل غالباً يعني إجابات أفضل

هذا الجزء فاجأني. توقعت أن تقليل البيانات المرسلة إلى النموذج يوفر المال؛ لم أتوقع أنه سيؤدي إلى تحسين ملحوظ في جودة الردود.

في أداة تدخل سلوكي صممتها للمربين، يختار المستخدمون شريحة صفية وفئة سلوكية وإطار عمل وسياق. تستخدم الأداة تلك الاختيارات لتصفية قاعدة أبحاث الاستراتيجيات قبل أن يرى الذكاء الاصطناعي أي شيء. بدلاً من إرسال 200 استراتيجية وطلب اختيار المناسب منها، تُرسل 15–20 استراتيجية تم مطابقَتها بالفعل مع سياق المستخدم وتُطلب من النموذج أن يركبها إلى توصيات مخصّصة.

يتبدّل دور الذكاء الاصطناعي من بحث وتصفية إلى تركيب وتخصيص. الموجه أصغر والمواد ذات صلة بالفعل، فالنموذج لا يستهلك طاقته في تنقيب الضجيج. النتيجة أكثر تركيزاً. رأيت هذا النمط يتكرر عبر أدوات متعددة بدرجة كافية لأعتبر التصفية المسبقة تحسيناً نوعياً لا مجرد خفض تكلفة.

يقرأ  أحد نجوم مسلسل «لعبة الحبار» يُبرَّأ من تهمة سلوك جنسي غير لائق

الخلاصة الأوسع تخص أي شخص يبني أو يقيم أداة تُرسل قاعدة معرفة إلى نموذج: هل يمكن تصفية تلك القاعدة أولاً بأساليب حتمية؟ قوائم منسدلة، مطابقة كلمات مفتاحية، فلاتر فئوية، تحديد نطاق يعتمد على الدور. أي بيانات مُنظمة تُضيّق المجال قبل الاستدعاء التوليدي تقوم بعمل مزدوج—توفّر التكاليف وتُقلل الضجيج الذي سيحتاج النموذج أن يتجاوزه.

ماذا يحدث عندما يصبح الذكاء الاصطناعي غير متاح؟

هذا السؤال يفصل الأدوات المبنية للعروض التجريبية عن الأدوات المصممة للاستخدام المستدام، وهو السؤال الذي تعلمت أن أطرحه أولاً بدلاً من أخيراً. الأدوات التي أصممها تعمل على طبقات. حين يتوفر مفتاح API صالح وينجح الاستدعاء يحصل المستخدم على تجربة معززة بالذكاء الاصطناعي كاملة. حين يفقد المفتاح أو يفشل الاستدعاء تعود الأداة إلى إعادة محتوى مُنقّح مباشرة. يحصل المستخدمون على موارد مُصفّاة وذات صلة مُطابقة لمدخلاتهم؛ فقط لا يحصلون على طبقة التخصيص المُولّدة من قبل الذكاء الاصطناعي. أُفعل وضع التراجع هذا افتراضياً لكل أداة أسلّمها لمنظمة أخرى، لأن الحالات التي يختفي فيها الذكاء الاصطناعي متوقعة: انتهاء صلاحية المفاتيح، تقاعس في الدفع خلال الصيف، أو مدير جديد لا يدرك أن الأداة تعتمد على خدمة خارجية.

ما يُهمني أن أُشير إليه ويغيب كثيراً في النقاشات عن أدوات التعلم المدعومة بالذكاء الاصطناعي هو أن المحتوى المُنقّح من مصادر معروفة هو القيمة الحقيقية لمعظم تلك الأدوات. أداة تعيد “هنا أربع استراتيجيات مبنية على الأبحاث مطابقة لاختياراتك” مع وصف ومصادر توفر شيئاً يمكن للمربي أو متخصص التطوير العمل به والتحقق منه. يضيف الذكاء الاصطناعي لمسة حوارية ودقة سياقية، لكن الجوهر لا يعتمد عليه. إن لم تستطع أداتك العمل على الإطلاق بدون اتصال AI نشط فذلك الضعف سيظهر في أسوأ الأوقات.

فحص سريع قبل أن تبني (أو تشتري)

سواء كنت تبني أداة داخلية أو تُقيم منتجاً من بائع، بعض الأسئلة تساعد في توضيح مدى اعتماد قيمة الأداة على الذكاء الاصطناعي:

– هل يمكن أن تؤدي الوظيفة الأساسية بدون AI تماماً؟
هذا السؤال يكشف إن كانت الأداة منتجاً ذكياً جوهرياً أو أداة تحسّن شيئاً يعمل بالفعل—كلٌّ له ملف مخاطر مختلف.

يقرأ  فجوة التفاعل براين شو — الرئيس التنفيذي لشركة ديسكفري إديوكيشن ما الذي يفتقده التعليم من الروضة حتى الصف الثاني عشر؟

– ما البيانات التي يمكن تصفيتها أو تنظيمها قبل استدعاء الـ API؟
كل اختيار منسدِل، مطابقة كلمة مفتاحية، أو فلتر فئوي يضيق السياق قبل الاستدعاء التوليدي ويعمل على خفض التكلفة ورفع الجودة.

– هل توجد ردود يمكن كتابتها مسبقاً بدلاً من توليدها؟
للأسئلة الشائعة والتوصيات القياسية، الإجابات البشرية المخزنة في قاعدة بيانات أسرع، أرخص، وغالباً أكثر موثوقية. توليدها في كل مرة يحل مشكلة غير موجودة.

– ماذا يحدث إذا تعطل API؟
الإجابة لا ينبغي أن تكون “تتوقف الأداة عن العمل”.

– هل يجب أن تغادر البيانات بيئة المستخدم؟
لأي شيء يتضمن معلومات حساسة—وخاصة في التعليم والموارد البشرية—المعالجة المحلية يجب أن تكون الافتراضية. حتى فحص محلي بسيط وغير كامل (مطابقة نمطية regex للأسماء أو أرقام الهوية مثلاً) يبقي البيانات تحت سيطرة المؤسسة بدلاً من تمريرها عبر خدمة خارجية للتثبت من حساسيتها. مفارقة إرسال بيانات خاصة إلى خدمة خارجية للتحقق مما إذا كانت حساسة تظهر عادةً فقط بأثر رجعي.

لماذا يهم هذا أبعد من توفير التكاليف

الحجة هنا ليست مجرد تقليل فاتورة توكنات الـ API—رغم أن ذلك مهم للمنظمات ذات الميزانيات المحدودة—إنما تتعلق بنوع التكنولوجيا التي نقرر الاعتماد عليها.

الأداة التي تتطلب اتصالاً دائمًا بخدمة ذكاء اصطناعي خارجية لتعمل عرضة للانكسار تماماً في نقاط تبدو بالغة الأهمية عندما تتغير الظروف المؤسسية. وفي كل مؤسسة عملت معها تتغير الظروف بانتظام: الميزانيات تتقلب، الطواقم تتبدل، الأولويات تتحرك. الأداة التي تنحسر بهدوء عندما تختفي طبقة الذكاء الاصطناعي هي أداة تبقى قابلة للحياة خلال التحولات. التي تنطفئ تُستبدل.

أعود دائماً إلى سؤال يقع تحت كل هذا: إذا كنا نؤمن بأن الذكاء الاصطناعي ينبغي أن يخدم التعلم لا العكس، فما مظهر ذلك على مستوى هيكلة الأدوات؟ بالنسبة لي بدأ يتضح كمجموعة أدوات تعتمد على الذكاء الاصطناعي بأقل قدر ممكن لكنها تستخدمه بأكثر فعالية ممكنة. الهدف ليس تجنب الذكاء الاصطناعي؛ الهدف هو استخدامه حيث يضيف فعلاً قيمة، ومعالجة كل ما تبقى بأساليب أبسط يستطيع فريقك رؤيتها والتحكم بها. انبة

أضف تعليق