
بقلم: ساره على
في المقال السابق، قارنا بين مدخل البيانات ومهندس الأوامر. اليوم، ننتقل إلى قطاع أكثر اتصالاً بالجانب الاجتماعي لشبكاتنا الرقمية: مراقبة المحتوى.
الذكاء الاصطناعي لم يلغِ وظيفة مدقق المحتوى بقدر ما حولها إلى واحدة من أصعب الوظائف وأكثرها إرهاقاً، في حين خلق وظيفة جديدة تهدف لـ “نزع السلاح” من المصدر.
الوظيفة التي تغيرت جذريًا: مدقق المحتوى (Content Moderator)
يعتمد دور مدقق المحتوى (الذي يعمل في شركات التواصل الاجتماعي الكبرى) على مراجعة المحتوى الذي يضعه المستخدمون للتأكد من خلوه من خطاب الكراهية، أو العنف، أو المعلومات المضللة.
لماذا تغيرت وما هو الثمن الإنساني؟
- حجم المهام الهائل: يُقدر أن منصات التواصل الاجتماعي الكبرى تتعامل مع ما يزيد عن 10 ملايين منشور يوميًا يحتاج إلى مراجعة. تستطيع أدوات الذكاء الاصطناعي اليوم فلترة وحذف أكثر من 90% من المحتوى غير اللائق أو الواضح الخرق للسياسات.
- التحول إلى “الحالات الحدية”: تحوّل دور المدقق البشري ليركز على أصعب الحالات التي تتطلب حكماً دقيقاً في سياق ثقافي أو لغوي معقد (مثل السخرية، أو الخطاب المتحيز غير الواضح).
- العبء النفسي: هذه الوظيفة، رغم تقليل عدد مهامها، أصبحت أكثر إرهاقاً؛ فقد أشارت دراسات حديثة إلى أن مدققي المحتوى البشريين يواجهون معدلات عالية من الاضطرابات النفسية المرتبطة بالصدمات (PTSD) نتيجة التعرض المتكرر للمحتوى المؤذي الذي فشل الذكاء الاصطناعي في حجبه. لقد رفع الذكاء الاصطناعي الكفاءة التقنية، ولكنه ترك للموظف العبء النفسي الأثقل.
الوظيفة التي ظهرت: مدير أخلاقيات الذكاء الاصطناعي (AI Ethics Manager)
مع تعمق الذكاء الاصطناعي في اتخاذ قرارات مصيرية (كإيقاف حساب شخص أو حظره من الإقراض)، ظهرت تحديات جديدة تتجاوز مجرد فحص المحتوى: تحديات تتعلق بنزاهة النظام نفسه ونتائجه الاجتماعية.
ما هو الدور الجديد والقيمة السوقية؟
- ضمان النزاهة والعدالة (Bias Mitigation): مهمة مدير أخلاقيات الذكاء الاصطناعي هي التأكد من أن الخوارزميات التي تُتخذ بناءً عليها القرارات هي أنظمة نزيهة (Fair) وشفافة (Transparent). فمثلاً، في أنظمة التعرف على الوجوه، ثبت أن معدلات الخطأ أعلى بكثير بالنسبة للسود والنساء، مما يتسبب في تمييز غير مقصود.
- مُصلح التحيز: يتدخل هذا المدير لتصحيح التحيز في شفرة النظام الأصلي أو في مجموعات البيانات المستخدمة لتدريب النماذج، قبل أن يتسبب في ضرر مجتمعي واسع. هذا الدور يتطلب مهارات عالية في الفلسفة، وعلم الاجتماع، والقانون، والتكنولوجيا.
- القيمة السوقية: تتجه الشركات العالمية للاستثمار بكثافة في هذا المجال؛ حيث تشير التقديرات إلى أن الطلب على متخصصي أخلاقيات الذكاء الاصطناعي زاد بأكثر من 200% خلال السنوات الأخيرة، وأصبحت هذه الوظيفة من أعلى الوظائف أجراً في القطاع التقني نظراً لأهميتها الاستراتيجية.
الخلاصة: العودة للطريق
التحول هنا عميق؛ لقد انتقلنا من مرحلة تتبع المحتوى (وهي مهمة روتينية صعبة نفسياً) إلى مرحلة صناعة القرار الأخلاقي (وهي مهمة إنسانية واستراتيجية بحتة). الذكاء الاصطناعي يحررنا من فحص الصور والنصوص المسيئة، ليركز الإنسان على القيم التي يجب أن تحكم الأنظمة التي نستخدمها.
في المقال القادم من سلسلة “العودة للطريق”، سننتقل إلى مهنة تقع في صميم البرمجة والتطوير ونقارنها بوظيفة جديدة وحيوية ظهرت لتدريب النماذج الجديدة.
هل لديك اقتراح للوظيفتين التاليتين التي سنقارن بينهما؟ (واحدة تتغير جذريًا وواحدة جديدة).





