
خالد وليد وسجى مرتضى
منذ أن بدأت أريج العمل على استراتيجيتها للذكاء الاصطناعي الخاصة بالمؤسسات الإعلامية الصغيرة والمتوسطة، لم يكن النقاش قد احتدم بعد بخصوص التهديدات التي يشكلها هذا التحوّل التكنولوجي الهائل على الصحافة. كان النقاش منصبّاً على الفرص -وهي كثيرة- ومن المهم أن يبقى النقاش متركّزاً على الفرص، لكن مع عدم تجاهل التهديدات -خاصة الأخلاقية منها- التي يمكن أن تحوّل استفادة الصحافة من الذكاء الاصطناعي من نعمة إلى نقمة.
تشير “أريج” في استراتيجيتها إلى أنّ “الذكاء الاصطناعي في الإعلام مستمر في التطور، والأهم من الجدال حول تأثيراته السلبية، هو معرفة كيفية استغلاله والاستفادة منه لصالح العمل الصحفي. قد يعيد الذكاء الاصطناعي تشكيل الصحافة قريباً، ما يطرح العديد من التساؤلات حول الهدف والمغزى من العمل الصحفي، وما الذي تحتاج المؤسسات الإعلامية إلى الاستغناء عنه من جهة، والتركيز عليه من جهة أخرى”.
وفي محور البعد الأخلاقي، تركز “أريج” في استراتيجيتها على نقاط عديدة أبرزها التأثيرات السلبية التي قد يحدثها الذكاء الاصطناعي في الصحافة، ومنها على سبيل المثال لا الحصر انتهاك الخصوصية، والتحيّز، ونشر معلومات خاطئة ومضللة يمكن أن تؤدي إلى فقدان الثقة بالمؤسسة الإعلامية، وخسارة الوظائف، بالإضافة إلى ضعف المساءلة والمحاسبة.
سألنا ChatGPT عن التهديدات التي يشكلها الذكاء الاصطناعي على الصحافة، وأجاب:
“تغيير في دور الصحفي/ة: يمكن أن يتغير دور الصحفي/ة مع تقدم التكنولوجيا. يمكن أن يصبح الصحفيون/ات أكثر تركيزاً على مراقبة وتقييم أداء الأنظمة الذكية والتحقق من صحة المعلومات التي تنتجها”.
هذا سؤال مهم: هل سيتحوّل دورنا حقاً، نحن الصحفيين/ات، من مصدر الخبر الأساسي، وصنّاع التحقيقات الاستقصائية، وكاشفي/ات الفساد والانتهاكات، ومبدعي/ات السرد القصصي ورواية القصص، من نسعى إلى إحداث تغيير حقيقي في مجتمعاتنا ومحاسبة الفاسدين، إلى مجرد “مراقبين ومقيّمين لأداء أدوات الذكاء الاصطناعي؟”. الأكيد أنّ دورنا كصحفيين/ات لن يفقد قيمته الإنسانية الحقيقية مهما دخلت التكنولوجيا في صلبه، ولكنّ الأخطر فيه أن تستخدم المؤسسات الإعلامية والصحفيون/ات الذكاء الاصطناعي بطريقة خاطئة تدفعنا إلى الوصول إلى هذه النتيجة الكارثية.
دورنا كصحفيين/ات لا يجب أن يتغيّر مع دخول الذكاء الاصطناعي، بل يجب أن يتطور. كيف؟ بالاستفادة من الذكاء الاصطناعي للتخلص من المهام المتكررة التي تشكل مضيعة للوقت والجهد، ولتسريع العمل على قصصنا، بالإضافة إلى إتاحة الفرصة لنا للعمل على قصص أكثر تعقيداً وأهمية وإنسانية، لا يستطيع الذكاء الاصطناعي العمل عليها.
يساعدنا الذكاء الاصطناعي في وضعه الحالي في جمع البيانات، وتصميمها وتحليلها، كما يساعدنا في ترجمة التقارير، وتفريغ مقابلاتنا الطويلة التي تمتد ساعات، ويساعدنا في تدقيق الصور والفيديوهات، وتلخيص بعض التقارير الطويلة من مئات الصفحات، وغيرها من الأمور التي يمكن التعرّف على تفاصيلها في محور “أهم استخدامات الذكاء الاصطناعي في القطاع الإعلامي” في استراتيجية أريج. ولكن، لا يستطيع الذكاء الاصطناعي، أن يقوم بالكثير من أبرز مهمات الصحفي/ة، منها:
لن يغيّر الذكاء الاصطناعي دورنا كصحفيين/ات بقدر ما سيغيّر طريقة عملنا وأسلوبنا. لكن هل ستكون هناك خسارة لبعض الوظائف في المؤسسات الإعلامية بسبب الذكاء الاصطناعي؟ يمكن أن يحصل ذلك، لكنّه يعود إلى مدى التزام المؤسسات الإعلامية بالمبادئ الأخلاقية بالإضافة إلى أولوياتها واستراتيجيتها وكيفية عملها. في الوقت نفسه، سيخلق الذكاء الاصطناعي مهارات جديدة داخل المؤسسات الإعلامية، كفهم البيانات والثقافة التكنولوجية واستخدام الأدوات، كما سيخلق فرص عمل في مجالات كالبرمجة، وعلم البيانات، بالإضافة إلى أنّه سيدفع الصحفيين/ات إلى العمل أكثر مع التكنولوجيين/ات ما سيزيد فرصة مواجهة التحديات الأخلاقية.
لن نتحوّل أبداً باستخدام الذكاء الاصطناعي إلى مراقبين فقط، بل سيصبح عملنا الصحفي أهم، وسيتفوق دورنا الرقابي أيضاً على الآلة التي لا يمكن لها أن تعمل من دون إرشادنا ومراجعتنا.
ماذا عن التحديات الأخلاقية الأخرى؟ ماذا عن الذكاء الاصطناعي الذي يسهم في توليد التزييف العميق، والمعلومات الخاطئة والمضللة، والتحيّز وغيرها؟ هو أمر متوقع، وبتنا نعيشه اليوم بكثرة. كم مرة سألت ChatGPT سؤالاً ولم تكن إجاباته دقيقة؟ كثيراً! كم مرة لاحظت على وسائل التواصل الاجتماعي انتشار صور مولّدة بالذكاء الاصطناعي؟ ربما كل يوم، وكم مرة شاهدت اعتذار مؤسسات إعلامية عن أخطاء ارتكبتها أثناء استخدام الذكاء الاصطناعي؟
كمؤسسات إعلامية -خاصة في العالم العربي- يجب أن نضع في الحسبان، أنّنا ما زلنا الآن، في مرحلة تجريبية للذكاء الاصطناعي. قد نخطئ نعم، ولكن في الوقت نفسه علينا اتخاذ العديد من التدابير التي تساعدنا في تقليص هذه الأخطاء والتعلم منها، أهمها، تدقيق المعلومات ما قبل النشر والالتزام بالشفافية.
من خلال الالتزام بتدقيق المعلومات ما قبل النشر، يمكن لنا كمؤسسات إعلامية اكتشاف أيّ معلومة، أو صورة، أو فيديو مولّد بالذكاء الاصطناعي قبل نشره وتوزيعه على الجمهور، وبالتالي تقليص الضرر الناتج عنه. ومن خلاله أيضاً، يمكن أن نحمي أنفسنا من أيّ تبعات أخلاقية وقانونية من نشر أيّ معلومة مفبركة/مضللة أنتجها الذكاء الاصطناعي وإن كان بغير قصد.
من خلال الالتزام بالشفافية، عبر عرض استراتيجية الذكاء الاصطناعي الخاصة بنا للجمهور، والبيانات المستخدمة لتدريب نموذج ذكاء اصطناعي، والاعتراف والاعتذار عن أيّ خطأ يصدر وتصحيحه، سنكون نمارس الاعتبارات الأخلاقية الأساسية التي ستسهم في تقليص أيّ ضرر أخلاقي كبير على عملنا الصحفي. في استراتيجيتها للذكاء الاصطناعي، تنصح “أريج” كل المؤسسات الإعلامية بنشر “المنهجية” و”البيانات” التي عملت عليها في تطوير أيّ أداة أو نظام أو قصة قائمة على الذكاء الاصطناعي. ذلك لن يعزز الشفافية فقط بل سيزيد ثقة الجمهور بالمؤسسة.
قد يهدد الذكاء الاصطناعي الصحافة نعم، ولكنّه قد لا يفعل ذلك، في حالات اتّباع استراتيجيات محددة تبقي مجالاً للتفكير، والتحليل، والدراسة، والنقاش والتطوير بين المجتمع الصحفي لفترة طويلة، أهمها:
ليس الذكاء الاصطناعي منافساً للصحافة، بل يمكن باستخدامنا الصحيح له، اعتباره شريكاً لتعزيز دورها وزيادة إحداث تغيير في العالم. ليس استخدام الذكاء الاصطناعي هو المهم، بل الأهم هو استخدامه لهدف محدد، وبحكمة، ولصالح عملنا الصحفي.