آذار/ مارس 2025
عن أريج
مؤسّسة "إعلاميون من أجل صحافة استقصائية عربية" (أريج)، تهدف إلى تعزيز العمل الصحفيّ الاستقصائيّ وتدقيق المعلومات في العالم العربيّ، عبر ترسيخ مبدأ المساءلة الفرديّة والمؤسّساتيّة ضمن سياق سياسيّ واجتماعيّ وحقوقيّ، والقيام بدور "السلطة الرابعة" في العالم العربيّ، وسط تدفق المعلومات الخاطئة والمضللة.
أريج والذكاء الاصطناعيّ
دخلت "أريج" عالم الذكاء الاصطناعيّ منذ عام 2021، قبل الثورة
الكبيرة التي أحدثها ChatGPT وأدوات الذكاء الاصطناعيّ التوليديّ
في العالم. قررت "أريج" تطوير استراتيجيتها الخاصة بالذكاء
الاصطناعيّ باللغة العربيّة عام 2022، ليس فقط لدعم جهودها
المستمرة في تطوير الصحافة الاستقصائيّة وتدقيق المعلومات، بل
أيضاً لدعم جهود كل المؤسسات الإعلاميّة العربيّة الصغيرة
والمتوسطة، لتحقيق "هوية صحفيّة مشتركة"، وتطوير عملنا لتحقيق
المزيد من المساءلة في مجتمعاتنا، التي تواجه كماً هائلاً من
الفساد والإهمال وانتهاكات حقوق الإنسان وحملات التضليل الضخمة.
سنوياً، تعمل أريج على تطوير استراتيجيتها بناءً على التغييرات
التي تطرأ على مجال الذكاء الاصطناعيّ، وبناءً على الدروس
المستفادة من تجربة أدوات الذكاء الاصطناعيّ المختلفة.
يمكنكم/ ن الاطّلاع على الاستراتيجية هنا:
هنا
ولم تطبع أريج هذه الاستراتيجية، وأبقتها موقعاً إلكترونياً كي
تستطيع تحديثها، وهذا ينطبق أيضاً على دليل الأخلاقيات والمبادئ
هذا لأنه كائن حي، قابل للتطوير حسب المستجدات التكنولوجية
والمعرفة المتراكمة والتجربة وتبادل المعلومات مع الأفراد
والمؤسّسات الأخرى.
ستكون مصلحة فريق أريج ومجتمع أريج وجمهور أريج دائماً هي الأولوية في أيّ استخدام للذكاء الاصطناعيّ.
التحديات الأخلاقيّة لاستخدام الذكاء الاصطناعيّ داخل أريج وطريقة مواجهتها
يطرح استخدام الذكاء الاصطناعيّ العديد من التحديات التي قد تهدد التزام المؤسّسة وفريقها بالأخلاقيّات والمبادئ الأساسيّة، وقد تهدد ثقة الجمهور بأريج. من هذه التحديات المفصلة في استراتجيات:
فيما يتعلق بانتهاك الخصوصية:
فيما يتعلق بالتحيز:
فيما يتعلق بنشر معلومات خاطئة في التحقيقات الاستقصائيّة والتقارير المعمقة:
فيما يتعلق بخسارة الوظائف:
فيما يتعلق بضعف المساءلة والمحاسبة:
حقوق الملكيّة الفكريّة للمحتوى والبيانات:
كما تتعهد أريح بالقيام بتقييم المخاطر لأيّ أداة ذكاء اصطناعّي تستخدمها، واتخاذ قرار استخدامها من عدمه بناءً على المخاطر المحتملة ومدى القدرة على الاستجابة لها.
مبادئ استخدام فريق أريج للذكاء الاصطناعيّ
تشجع أريج استخدام فريقها الداخليّ للذكاء الاصطناعيّ لتسهيل وتسريع وتطوير العمل، لكن مع مراعاة المبادئ الأخلاقيّة كلها المذكورة أعلاه، ومع مراعاة المصداقيّة والشفافيّة في الاستخدام.
1
على كل فرد من فريق أريج، إبلاغ الإدارة بالأدوات التي يستخدمها، وبأيّ أداة جديدة يفكر/ يخطط لاستخدامها؛ لفحص هذه الأداة من ناحية المصداقيّة والشركة والأمن الرقميّ والخصوصيّة. الإبلاغ يتمّ عن طريق إرسال إيميل إلى info@arij.net.
2
على كل فرد من فريق أريج التعامل مع أيّ مخرجات من أدوات الذكاء الاصطناعيّ على أنها مادة/ مصدر/ معلومة/ نتيجة لم يتمّ فحصها و/أو تدقيقها أبداً. على كل فرد من فريق أريج تطبيق حكمه/ ا التحريريّ والمعايير والمبادئ الأخلاقيّة الخاصة بأريج عند النظر في أيّ معلومات للاستخدام و/أو للنشر للفريق الداخليّ، والمانحين، والمؤسسات الشريكة أو للجمهور العام.
3
لا يُسمح لأي فرد من فريق أريج، بتعديل أيّ صورة أو فيديو أو صوت أو تصريح مكتوب لأيّ شخص، إلا بهدف ضمان أمنه وخصوصيته. وفي حال القيام بذلك، يجب ذكر ذلك ونشره/ بثه بوضوح مع السبب.
4
تمنع أريج نقل أو نشر أو استخدام أيّ صورة أو فيديو تمّ إنشاؤها بواسطة الذكاء الاصطناعيّ يشتبه أو يثبت أنها قد تتضمّن أيّ معلومة خاطئة أو تسهم في التضليل. ومع ذلك، إذا كان الرسم التوضيحيّ أو العمل الفنيّ الذي تمّ إنشاؤه بواسطة الذكاء الاصطناعيّ هو موضوع تحقيق أو قصة، فيمكن استخدامه طالما تمّ تصنيفه بوضوح على هذا النحو وذكر السبب.
5
لا تسمح أريج باستخدام أدوات الذكاء الاصطناعيّ التوليديّ إلا
بشكل عام؛ أي من دون ذكر أيّ تفاصيل ومعلومات خاصة ومحددة.
تمنع أريج فريق عملها من وضع معلومات سريّة أو حساسة أو شخصيّة
في أيّ أداة ذكاء اصطناعيّ مهما كانت. ويتضمن ذلك:
أسماء ومعلومات أيّ فرد من فريق العمل والصحفيين/ ات ومدققي/
ات المعلومات وأسماء المانحين والشركاء وأيّ معلومات خاصة بأي
شخص داخل الفريق أو خارجه. أيّ صورة أو فيديو أو معلومة أو
مستند حصلنا عليه من مصدر خاص أو مجهل. أيّ تفاصيل ومعلومات عن
أيّ مشروع من مشاريع أريج.
6
على فريق أريج أن يذكر استخدامه للذكاء الاصطناعيّ في أيّ مهمة/ محتوى من خلال استخدام العبارة التالية مع تكييفها/ تعديلها بحسب الحالة:
تنويه: هذا التقرير / المحتوى / التحقيق / التقرير المعمق/ المقال / العرض البصري / الفيديو / الصورة مدعوم/ ة بالذكاء الاصطناعيّ.
-في حال استخدم الذكاء الاصطناعيّ في تصميم صورة لتحقيق استقصائيّ
أو تقرير معمق، يجب أن تذكر العبارة التالية تحت الصورة:
تنويه: صُمّمت هذه الصورة باستخدام الذكاء الاصطناعيّ.
-في حال استخدم الذكاء الاصطناعيّ في ترجمة مقال/ تحقيق/ تقرير،
يجب أن تذكر العبارة التالية أسفل النص:
تنويه: تمّت الاستعانة بأدوات الذكاء الاصطناعيّ في ترجمة
التحقيق/ التقرير/ المقال أعلاه.
-في حال استخدام الذكاء الاصطناعيّ في جمع و/أو تحليل بيانات تحقيق
استقصائيّ/ تقرير معمق:
تنويه: تمّت الاستعانة بأدوات الذكاء الاصطناعيّ في جمع و/أو
تحليل البيانات الخاصة بالتحقيق/ التقرير أعلاه.
-في حال استخدام الذكاء الاصطناعيّ في توليد فيديو لتحقيق
استقصائيّ أو للسوشيل ميديا، يجب أن تُذكر العبارة التالية في
نهاية الفيديو:
تنويه: تمّت الاستعانة بأدوات الذكاء الاصطناعيّ في توليد هذا
الفيديو.
تعامل فريق تحرير أريج مع استخدام تقنيّات الذكاء الاصطناعيّ
تقع على عاتق إدارة أريج مسؤوليّة ضمان استخدام الفريق المسؤول للذكاء الاصطناعيّ، كما تقع على عاتق فريق تحرير أريج مسؤوليّة استخدام الصحفيّين/ ات المتعاونين/ ات مع أريج للذكاء الاصطناعي في أيّ مرحلة من مراحل إنتاج تحقيقاتهم/ ن وتقاريرهم/ ن.
يجب على فريق التحرير وخاصة المشرفين/ ات، تأكيد التالي على كل صحفيّ/ ة ومشرف/ ة يعملون معه/ ا:
1
يجب على الصحفيّ/ ة إبلاغ المشرف/ ة قبل استخدام أيّ من أدوات الذكاء الاصطناعيّ في كتابة مضمون (كلياً أو جزئياً) أيّ تحقيق أو تقرير، مهما كان، ولا تُستخدم إلا بعد موافقة المشرف.
2
يجب على الصحفيّ/ ة إبلاغ المشرف/ ة قبل استخدام أيّ من أدوات الذكاء الاصطناعيّ في ضبط أو تشكيل نصوص التحقيقات أو التقارير (كلياً أو جزئياَ) لُغوياً، ولا تُستخدم إحدى هذه الأدوات إلا بعد موافقة المشرف.
3
يمنع استخدام الذكاء الاصطناعيّ في فبركة أيّ صور، أو فيديوهات، أو نصوص، أو مستندات.
4
يجب على الصحفيّ/ ة إبلاغ المشرف/ ة قبل استخدام أيّ من أدوات الذكاء الاصطناعيّ في أيّ مرحلة من مراحل تنفيذ التحقيق/ التقرير (مثلا تحليل بيانات)، ولا تُستخدم إحدى هذه الأدوات إلا بعد موافقة المشرف.
5
التأكد من أن المصادر التي يعتمدون عليها في تنفيذ التحقيق لم تستخدم الذكاء الاصطناعيّ في أّي مصدر/ مستند/ فيديو/ صورة يتمّ تزويدهم بها. وفي حال استُخدم الذكاء الاصطناعيّ، يجب أن يُدقق كل ما تمّ تزويدهم به وإبلاغ المشرف/ ة بذلك، واتخاذ قرار باستخدام هذه المصادر بناءً على مدى دقتها/ مصداقيتها.
-يجب على كل مشرف/ ة، بعد استلامه/ ا النسخة النهائية من أيّ تحقيق/ تقرير، التأكد من أن الصحفي/ ة لم يستخدم الذكاء الاصطناعيّ في كتابة التقرير/ التحقيق وذلك من خلال:
1
طرح بعض الأسئلة الرئيسيّة، مثل:
عندما سألنا أدوات الذكاء الاصطناعيّ، عن كيف نكتشف النصوص المكتوبة بالذكاء الاصطناعيّ، أشارت إلى أربع نقاط أساسيّة:
2
استخدام بعض الأدوات التي يمكن أن تساعد في كشف ما إذا كان النص النهائيّ كتب بالذكاء الاصطناعيّ:
ملاحظة هامة: للأسف، هذه الأدوات لا تزال تعطي نتائج غير دقيقة أحياناً كثيرة، لذا من غير الكافي الاعتماد عليها دائماً أو وحدها، بل يجب طرح كل الأسئلة أعلاه قبل ذلك، وتجربة النص نفسه على 4 أدوات على الأقل والمقارنة قبل اتخاذ القرار.
تعامل قسم التواصل في أريج مع استخدام الذكاء الاصطناعي
1
استخدام علامة (AI Generated) أو (AI Assisted) على أي صورة أو فيديو استخدم فيه الذكاء الاصطناعي ويتمّ نشره على سوشيل ميديا أريج.
2
لا تقوم أريج بتوليد مادة كاملة من الألف إلى الياء باستخدام الذكاء الاصطناعي (AI Generated). توظف أريج الذكاء الاصطناعي في توليد بعض المقاطع والمواد البصرية المستخدمة (AI Assisted). فريق أريج وأدوات الذكاء الاصطناعي يعملان جنباً إلى جنب في صناعة المواد ونشرها. تستخدم أريج في إنتاج محتوى مواقع التواصل الاجتماعي أدوات تعتمد على الذكاء الاصطناعي سواء في تنويع المحتوى من التحقيقات، أو وضع خطط للنشر على المنصات الاجتماعية للحملات، أو اختيار الوقت الأنسب لإرسال النشرات البريدية، وغيرها
3
في الفيديو، تضاف عبارة "تم توليد/تعديل هذا الفيديو أو الصوت أو الصورة باستخدام أدوات الذكاء الاصطناعي". تظهر هذه العبارة حال ظهور المقطع المولد بالذكاء الاصطناعي.
4
أريج لا تقوم بتوليد محتوى مكتوب أو مرئي أو مسموع بشكل كامل باستخدام الذكاء الاصطناعي للسوشيل ميديا.
5
لا تستخدم أريج أدوات الذكاء الاصطناعي في توليد مواد بصرية لأشخاص حقيقيين أو مواقع جغرافية حقيقية. كما تعمل أريج على عدم استخدام أدوات الذكاء الاصطناعي في عرض وجوه لأشخاص تم توليد أشكالهم باستخدام أدوات الذكاء الاصطناعي. يمكن توليد مواد بصرية لأشخاص يظهرون من ظهورهم، من دون أن تكون ملامحهم واضحة.
6
في المواد الصوتية: تستخدم أريج أدوات الذكاء الاصطناعي التوليدي في توليد نصوص مسموعة في قراءة التحقيقات على الموقع الإلكتروني، أو توليد النصوص الصوتية المرافقة للفيديو. تقوم أريج أيضاً باستخدام خاصية نسخ الصوت (Voice Cloning)، وهي استخدام صوت شخص حقيقي كقاعدة لتوليد مواد صوتية طويلة مستقبلاً. قبل استخدام هذا الصوت، يوقع صاحب/ة الصوت على اتفاق يحتوي بنوداً حول إطار استخدام هذا الصوت والمدة الزمنية التي يمكن استخدام هذا الصوت خلالها.
7
لن يستخدم فريق التواصل أدوات الذكاء الاصطناعي لإجراء تغييرات جذرية على الصور والفيديوهات المتوافرة والتي تستخدم في تحقيقات أو نشاطات أريج. التغييرات الجذرية تشمل: إزالة تفاصيل من المواد البصرية، تعديلات تغيّر من شكل الصورة وهدفها، إضافة تفاصيل خارجية تغير من شكل الصورة وهدفها.
8
يمكن أن يستخدم فريق التواصل أدوات الذكاء الاصطناعي لتوليد
صور وفيديوهات لمواد تفتقر إلى الموارد البصرية، مثل
التحقيقات، ولكن يجب عند القيام بذلك التنسيق مع رئيس التحرير،
والشخص المسؤول عن الذكاء الاصطناعي في فريق التحرير، والاتفاق
على تفاصيل هذه الصورة أو الفيديو، وأخذ الموافقة النهائية من
رئيس التحرير، والإشارة إلى الصورة بالعبارة التالية:
"تم استخدام أداة xxx في توليد هذه الصورة، وهي صورة تعبيرية
بالكامل، ولا تعبر تفاصيلها عن أي عنصر من عناصر التحقيق".
9
قد يستخدم فريق التواصل أدوات الذكاء الاصطناعي لإدارة المحتوى على السوشيل ميديا (الرد على التعليقات والأسئلة)، ولكن يجب أن يقوم أحد أفراد الفريق بالاطلاع على الإجابات قبل أن يتم إرسالها، ويمنع منعاً كاملاً أن ترسل الإجابات بشكل أوتوماتيكي.
تعامل الشبكة العربية لمدققي المعلومات مع موضوع الذكاء الاصطناعي
1
على الشبكة التأكيد على كل مدقق/ة معلومات يعمل مع أريج أن يتشدد في تدقيق المحتوى، خاصة عند الشك باستخدامه الذكاء الاصطناعي، أو عند إبلاغ الصحفي لاستخدامه الذكاء الاصطناعي في التحقيق/التقرير.
2
على الشبكة أن تعدل منهجية أريج في تدقيق المعلومات لتضمن تفاصيل خاصة بالمحتوى المولد بالذكاء الاصطناعي.
3
على الشبكة التركيز على التوعية والتدريب في هذا المجال.
تعامل إدارة أريج مع موضوع استخدام الذكاء الاصطناعي
1
على إدارة أريج أن تتخذ إجراءات حاسمة مع الموظفين/ات والصحفيين/ات الذين يتبين استخدامهم/ن للذكاء الاصطناعي من دون إبلاغ ذلك، وقد يصل ذلك إلى الفصل من العمل.
2
على فريق الإدارة في أريج مراقبة المحتوى الذي يصدر من فريقهم بشكل مستمر وممنهج بخطة واضحة.
3
على إدارة أريج الإعلان والاعتذار عن أي محتوى يتبين أنه نشر باستخدام الذكاء الاصطناعي ويحتوى على معلومات غير دقيقة.
4
على إدارة أريج ضمان أن الأدوات التي يستخدمها الفريق آمنة، وفحص هذه الأدوات مجدداً بشكل دوري (كل 6 أشهر).
5
على إدارة أريج ضمان أن الفريق يلتزم التزاماً كاملاً بكل المبادئ الواردة في هذا الدليل.
6
على إدارة أريج أن تأخذ على عاتقها تطوير استخدام الذكاء الاصطناعي وتعزيزه داخل الفريق من خلال الحصول على منح متعلقة بالمجال، وإطلاق مشاريع مرتبطة، وتطوير مهارات الفريق بشكل دائم، وتحديث الاستراتيجية.
تنفيذ هذه المبادئ
1
ستتعامل أريج بكل حزم ومسؤولية مع استخدام الذكاء الاصطناعي داخلياً وخارجياً.
2
يوقع كل فرد من فريق أريج على الالتزام بهذه المبادئ لمرة واحدة مع التأكيد على أنه قد يتم تحديثها عند الحاجة.
3
يوقع كل موظف جديد في أريج على هذه المبادئ عند توقيع عقده.
4
هذه المبادئ مضمنة كرابط في استراتيجية أريج للذكاء الاصطناعي وضمن الموقع الإلكتروني لأريج.
5
يتم ترويج هذه المبادئ بشكل مستمر عبر سوشيل ميديا أريج.
6
تتضمن العقود الجديدة الخاصة بكل صحفي/ة ومدقق/ة معلومات على مادة تنص التالي: "يمنع استخدام الذكاء الاصطناعي في أي مرحلة من مراحل تنفيذ التحقيق/التقرير من دون إبلاغ المشرف المسؤول بشكل رسمي. إن أي استخدام للذكاء الاصطناعي من دون إبلاغ أريج بذلك قد يؤدي الى فسخ هذا العقد".
7
يضاف إلى نموذج تقديم تحقيق لأريج سؤال حول استخدام الذكاء الاصطناعي من عدمه في النموذج من قبل مقدم/ة الطلب، وكيف تم استخدامه. الإجابة لن تؤثر على قرار هيئة التحرير، ولكن الهدف هو تعزيز الشفافية.
8
تتم مشاركة هذه المبادئ والتشديد عليها مع كل صحفي/ة، مدقق/ة معلومات، وأي متعاون/ة مع أريج في مجال التصميم أو صنع المحتوى أو الاستشارة أو الأبحاث… وذلك قبل بدء التعاون.
9
يتم تعديل/تطوير هذا المستند عند الحاجة بحسب تطور وتوسع استخدام أريج للذكاء الاصطناعي، وبناءً على التحديات التي ستواجهها أريج خلال استخدام الذكاء الاصطناعي، ويتم إبلاغ الفريق عن أي تعديلات جوهرية.
مصادر استخدمت خلال تطوير هذه المبادئ