كيف نمنع تهديد الذكاء الاصطناعي لعملنا الصحفي؟ 

2024/08/14
التاريخ : 14/08/2024

خالد وليد وسجى مرتضى


منذ أن بدأت أريج العمل على استراتيجيتها للذكاء الاصطناعي الخاصة بالمؤسسات الإعلامية الصغيرة والمتوسطة، لم يكن النقاش قد احتدم بعد بخصوص التهديدات التي يشكلها هذا التحوّل التكنولوجي الهائل على الصحافة. كان النقاش منصبّاً على الفرص -وهي كثيرة- ومن المهم أن يبقى النقاش متركّزاً على الفرص، لكن مع عدم تجاهل التهديدات -خاصة الأخلاقية منها- التي يمكن أن تحوّل استفادة الصحافة من الذكاء الاصطناعي من نعمة إلى نقمة. 


تشير “أريج” في استراتيجيتها إلى أنّ “الذكاء الاصطناعي في الإعلام مستمر في التطور، والأهم من الجدال حول تأثيراته السلبية، هو معرفة كيفية استغلاله والاستفادة منه لصالح العمل الصحفي. قد يعيد الذكاء الاصطناعي تشكيل الصحافة قريباً، ما يطرح العديد من التساؤلات حول الهدف والمغزى من العمل الصحفي، وما الذي تحتاج المؤسسات الإعلامية إلى الاستغناء عنه من جهة، والتركيز عليه من جهة أخرى”. 


وفي محور البعد الأخلاقي، تركز “أريج” في استراتيجيتها على نقاط عديدة أبرزها التأثيرات السلبية التي قد يحدثها الذكاء الاصطناعي في الصحافة، ومنها على سبيل المثال لا الحصر انتهاك الخصوصية، والتحيّز، ونشر معلومات خاطئة ومضللة يمكن أن تؤدي إلى فقدان الثقة بالمؤسسة الإعلامية، وخسارة الوظائف، بالإضافة إلى ضعف المساءلة والمحاسبة. 


سألنا ChatGPT عن التهديدات التي يشكلها الذكاء الاصطناعي على الصحافة، وأجاب:

“تغيير في دور الصحفي/ة: يمكن أن يتغير دور الصحفي/ة مع تقدم التكنولوجيا. يمكن أن يصبح الصحفيون/ات أكثر تركيزاً على مراقبة وتقييم أداء الأنظمة الذكية والتحقق من صحة المعلومات التي تنتجها”.


هذا سؤال مهم: هل سيتحوّل دورنا حقاً، نحن الصحفيين/ات، من مصدر الخبر الأساسي، وصنّاع التحقيقات الاستقصائية، وكاشفي/ات الفساد والانتهاكات، ومبدعي/ات السرد القصصي ورواية القصص، من نسعى إلى إحداث تغيير حقيقي في مجتمعاتنا ومحاسبة الفاسدين، إلى مجرد “مراقبين ومقيّمين لأداء أدوات الذكاء الاصطناعي؟”. الأكيد أنّ دورنا كصحفيين/ات لن يفقد قيمته الإنسانية الحقيقية مهما دخلت التكنولوجيا في صلبه، ولكنّ الأخطر فيه أن تستخدم المؤسسات الإعلامية والصحفيون/ات الذكاء الاصطناعي بطريقة خاطئة تدفعنا إلى الوصول إلى هذه النتيجة الكارثية. 


دورنا كصحفيين/ات لا يجب أن يتغيّر مع دخول الذكاء الاصطناعي، بل يجب أن يتطور. كيف؟ بالاستفادة من الذكاء الاصطناعي للتخلص من المهام المتكررة التي تشكل مضيعة للوقت والجهد، ولتسريع العمل على قصصنا، بالإضافة إلى إتاحة الفرصة لنا للعمل على قصص أكثر تعقيداً وأهمية وإنسانية، لا يستطيع الذكاء الاصطناعي العمل عليها. 


يساعدنا الذكاء الاصطناعي في وضعه الحالي في جمع البيانات، وتصميمها وتحليلها، كما يساعدنا في ترجمة التقارير، وتفريغ مقابلاتنا الطويلة التي تمتد ساعات، ويساعدنا في تدقيق الصور والفيديوهات، وتلخيص بعض التقارير الطويلة من مئات الصفحات، وغيرها من الأمور التي يمكن التعرّف على تفاصيلها في محور “أهم استخدامات الذكاء الاصطناعي في القطاع الإعلامي” في استراتيجية أريج. ولكن، لا يستطيع الذكاء الاصطناعي، أن يقوم بالكثير من أبرز مهمات الصحفي/ة، منها:


  1. الصحافة الاستقصائية: التي تتطلب بحثاً مكثفاً، وتحليلاً عميقاً للمصادر، وقدرة على اكتشاف الحقائق المخفية من خلال المقابلات والتقارير الميدانية. يمكن للذكاء الاصطناعي أن يساعد في تحليل البيانات ولكنّه لا يمكن أن يحلّ مكان العمل الصحفي الاستقصائي البشري متعدد الجوانب.
  2. فهم السياق: قد يصعب على الذكاء الاصطناعي فهم السياق الأوسع لأيّ قصة، بما في ذلك جوانبها التاريخية والثقافية والاجتماعية والاقتصادية والدينية، التي غالباً ما تكون ضرورية لإيصال التقارير بدقة وإنسانية.
  3. مهارات المقابلة: إجراء المقابلات، خصوصاً في المواضيع الحساسة أو التي تتطلب تفهّماً وتواصلاً إنسانياً. الذكاء الاصطناعي يفتقر إلى الذكاء العاطفي والقدرة على التكيّف للتعامل مع مثل هذه الحالات بفعالية.
  4. اتخاذ القرارات الأخلاقية: في الصحافة، دائماً ما يتعيّن على إدارة التحرير والصحفيين/ات اتخاذ قرارات أخلاقية معقدة، مثل حماية الصحفيين/ات وعائلاتهم/ن وحماية المصادر، وتقديم تقارير عن مواضيع حساسة بشكل مسؤول، وضمان الخصوصية. الذكاء الاصطناعي يفتقر إلى الحكم الأخلاقي الذي يمتلكه البشر والذي تطوّر عبر الزمن.
  5. الإبداع والسرد: بينما يمكن للذكاء الاصطناعي إنتاج محتوى، إلّا أنّه عادةً ما يفتقر إلى الإبداع ومهارات السرد القصصي التي يمتلكها الصحفيون/ات، وتلامس الجمهور على المستوى الإنساني وبإمكانها التكيّف حسب الجماهير المختلفة.
  6. التكيّف السريع: يحتاج الصحفيون/ات في أغلب الأحيان إلى التكيّف بسرعة مع تغيّر الأوضاع، وتقييم مصداقية المعلومات الجديدة، واتخاذ قرارات فورية على الأرض وفي الميدان وفق معطيات جديدة لم تكن موجودة سابقاً. الذكاء الاصطناعي يتمّ تدريبه مسبقاً وقد يصعب عليه التكيّف في الوقت الحقيقي مع أيّ تغيّر يطرأ.
  7. تدقيق المعلومات: يمكن للذكاء الاصطناعي أن يساعد من خلال بعض الأدوات في تدقيق الصور والفيديوهات، ولكن لا يمكنه العمل على ربط المعطيات، أو التواصل مع المصادر، أو استنتاج المعلومة الصحيحة من الخاطئة. اسألوا ChatGPT عن ذلك وسيجيبكم/ن!


لن يغيّر الذكاء الاصطناعي دورنا كصحفيين/ات بقدر ما سيغيّر طريقة عملنا وأسلوبنا. لكن هل ستكون هناك خسارة لبعض الوظائف في المؤسسات الإعلامية بسبب الذكاء الاصطناعي؟ يمكن أن يحصل ذلك، لكنّه يعود إلى مدى التزام المؤسسات الإعلامية بالمبادئ الأخلاقية بالإضافة إلى أولوياتها واستراتيجيتها وكيفية عملها. في الوقت نفسه، سيخلق الذكاء الاصطناعي مهارات جديدة داخل المؤسسات الإعلامية، كفهم البيانات والثقافة التكنولوجية واستخدام الأدوات، كما سيخلق فرص عمل في مجالات كالبرمجة، وعلم البيانات، بالإضافة إلى أنّه سيدفع الصحفيين/ات إلى العمل أكثر مع التكنولوجيين/ات ما سيزيد فرصة مواجهة التحديات الأخلاقية. 


لن نتحوّل أبداً باستخدام الذكاء الاصطناعي إلى مراقبين فقط، بل سيصبح عملنا الصحفي أهم، وسيتفوق دورنا الرقابي أيضاً على الآلة التي لا يمكن لها أن تعمل من دون إرشادنا ومراجعتنا. 


ماذا عن التحديات الأخلاقية الأخرى؟ ماذا عن الذكاء الاصطناعي الذي يسهم في توليد التزييف العميق، والمعلومات الخاطئة والمضللة، والتحيّز وغيرها؟ هو أمر متوقع، وبتنا نعيشه اليوم بكثرة. كم مرة سألت ChatGPT سؤالاً ولم تكن إجاباته دقيقة؟ كثيراً! كم مرة لاحظت على وسائل التواصل الاجتماعي انتشار صور مولّدة بالذكاء الاصطناعي؟ ربما كل يوم، وكم مرة شاهدت اعتذار مؤسسات إعلامية عن أخطاء ارتكبتها أثناء استخدام الذكاء الاصطناعي؟


كمؤسسات إعلامية -خاصة في العالم العربي- يجب أن نضع في الحسبان، أنّنا ما زلنا الآن، في مرحلة تجريبية للذكاء الاصطناعي. قد نخطئ نعم، ولكن في الوقت نفسه علينا اتخاذ العديد من التدابير التي تساعدنا في تقليص هذه الأخطاء والتعلم منها، أهمها، تدقيق المعلومات ما قبل النشر والالتزام بالشفافية.


من خلال الالتزام بتدقيق المعلومات ما قبل النشر، يمكن لنا كمؤسسات إعلامية اكتشاف أيّ معلومة، أو صورة، أو فيديو مولّد بالذكاء الاصطناعي قبل نشره وتوزيعه على الجمهور، وبالتالي تقليص الضرر الناتج عنه. ومن خلاله أيضاً، يمكن أن نحمي أنفسنا من أيّ تبعات أخلاقية وقانونية من نشر أيّ معلومة مفبركة/مضللة أنتجها الذكاء الاصطناعي وإن كان بغير قصد.


من خلال الالتزام بالشفافية، عبر عرض استراتيجية الذكاء الاصطناعي الخاصة بنا للجمهور، والبيانات المستخدمة لتدريب نموذج ذكاء اصطناعي، والاعتراف والاعتذار عن أيّ خطأ يصدر وتصحيحه، سنكون نمارس الاعتبارات الأخلاقية الأساسية التي ستسهم في تقليص أيّ ضرر أخلاقي كبير على عملنا الصحفي. في استراتيجيتها للذكاء الاصطناعي، تنصح “أريج” كل المؤسسات الإعلامية بنشر “المنهجية” و”البيانات” التي عملت عليها في تطوير أيّ أداة أو نظام أو قصة قائمة على الذكاء الاصطناعي. ذلك لن يعزز الشفافية فقط بل سيزيد ثقة الجمهور بالمؤسسة.


قد يهدد الذكاء الاصطناعي الصحافة نعم، ولكنّه قد لا يفعل ذلك، في حالات اتّباع استراتيجيات محددة تبقي مجالاً للتفكير، والتحليل، والدراسة، والنقاش والتطوير بين المجتمع الصحفي لفترة طويلة، أهمها:


  1. الطريق الأول لاستخدام الذكاء الاصطناعي بشكل صحيح، هو فهمه بشكل صحيح. من دون توعية بالذكاء الاصطناعي داخل المؤسسات الإعلامية، لا يمكن أن نضمن أبداً استخدامه بشكل سليم من قبل الصحفيين/ات والمؤسسات. التدريب والتعلّم المستمر ضرورة أيضاً، لأنّه عالم سريع التطور، واللحاق به يجب أن يكون سريعاً.
  2. لا يجب أن يكون هدفنا هو دخول عالم الذكاء الاصطناعي فقط للّحاق “بالترند”. يجب أن يكون هدفنا هو فهم كيف سيساعدنا الذكاء الاصطناعي في عملنا، واستخدامه فقط لهذا الهدف. لذا، يجب على كل مؤسسة إعلامية تحديد أولوياتها وأسباب حاجتها لاستخدام الذكاء الاصطناعي، واستخدامه فقط لهذه الأسباب. 
  3. التعاون: إنّ التعاون بين المؤسسات الإعلامية وشركات التكنولوجيا من جهة، وبين الصحفيين/ات والتكنولوجيين/ات من جهة أخرى، بالإضافة إلى إبقاء النقاش مفتوحاً بين الصحفيين/ات والتكنولوجيين/ات هو أمر أساسي جداً لضمان بقائنا -كصحفيين/ات- أصحاب الأفكار والقرار النهائي والمراجعين الحقيقيين. لا يمكن للتكنولوجيين/ات أن يعملوا وحدهم على أدوات تفيد الصحفيين/ات، بل يجب أن يكون الصحفيون/ات جزءاً لا يتجزأ من هذا العمل التعاوني منذ البداية.
  4. تشديد الالتزام بالمعايير الصحفية الأخلاقية أكثر من أيّ وقت مضى. نحن في مرحلة حساسة، ما يزال فهم المجتمع الصحفي للذكاء الاصطناعي فيها ضعيفاً، إذ يُستخدم الذكاء الاصطناعي بشكل خاطئ، بينما يستغل البعض الذكاء الاصطناعي لتحقيق أجندات معينة، أو من دون أن يبلغوا جمهورهم بذلك. إن لم تكن المعايير الأخلاقية هي أولويتنا، سنسقط في اختبار المصداقية وكسب ثقة الجمهور. أكدت جارانس بورك من فريق “أسوشيتد برس”، خلال إحدى جلسات مؤتمر الصحافة الاستقصائية الدولي الأخير نهايات العام الماضي، أنّ الشفافية “هي المفتاح الرئيسي. يجب أن نقدم للجمهور المزيد عن أبحاثنا وتقاريرنا ومنهجياتنا والأدوات التي نستخدمها، وكيف قمنا بذلك. حتى يشعروا بأنّ لديهم بعض الملكية في فهم ما نكشفه في تحقيقاتنا”.
  5. تشجيع الصحفيين/ات الاستقصائيين/ات على العمل على تحقيقات تسلط الضوء على الاستخدام الخاطئ والاستغلالي للذكاء الاصطناعي، وتشجيع مدقّقي/ات المعلومات على التركيز على تصحيح أيّ معلومة أو فيديو أو صورة قد تكون بُنيَت بالذكاء الاصطناعي وتوعية الجمهور حول مخاطرها. تؤكد جارانس بورك في هذا السياق، أنّ العديد من الصحفيين/ات قد يترددون في بدء العمل على تحقيقات تركز على الذكاء الاصطناعي، ولكنّ الفضول نفسه الذي يدعم أيّ تحقيق هو نقطة البداية أيضاً لفهم عالم الخوارزميات.


ليس الذكاء الاصطناعي منافساً للصحافة، بل يمكن باستخدامنا الصحيح له، اعتباره شريكاً لتعزيز دورها وزيادة إحداث تغيير في العالم. ليس استخدام الذكاء الاصطناعي هو المهم، بل الأهم هو استخدامه لهدف محدد، وبحكمة، ولصالح عملنا الصحفي.