background

background background دليل أخلاقيات/ مبادئ
استخدام "أريج" للذكاء الاصطناعيّ

icon

عن أريج

icon

ما هي أريج؟

مؤسّسة "إعلاميون من أجل صحافة استقصائية عربية" (أريج)، تهدف إلى تعزيز العمل الصحفيّ الاستقصائيّ وتدقيق المعلومات في العالم العربيّ، عبر ترسيخ مبدأ المساءلة الفرديّة والمؤسّساتيّة ضمن سياق سياسيّ واجتماعيّ وحقوقيّ، والقيام بدور "السلطة الرابعة" في العالم العربيّ، وسط تدفق المعلومات الخاطئة والمضللة.


icon

من يستفيد من خدمات أريج؟

  • المؤسّسات الإعلامية
  • الصحفيّون/ ات المستقلون/ ات
  • مؤسّسات تدقيق المعلومات
  • مدققو/ ات المعلومات المستقلون/ ات.
  • مطلقو/ ات الصفارة
  • كليّات الإعلام
  • أساتذة الإعلام
  • طلبة الإعلام
  • مجتمع الصحافة العربيّ المستقل
  • مجتمع الصحافة العربيّ عموماً

icon

مَن الجمهور الأوسع الذي قد يطّلع على مخرجات أريج؟

  • الجمهور العربيّ - مضامين باللغة العربيّة
  • الجمهور الأجنبيّ - مضامين باللغة الإنكليزيّة

icon

على ماذا تركز أريج في دعم مجتمعها؟


  • تطوير المهارات: من خلال ورش العمل، والويبينارات، والتدريبات، والدبلومات، وإنتاج تحقيقات استقصائية، وموادّ تدقيق معلومات، وتقديم أدلة تعليمية…
  • الحماية: تقديم الحماية الرقميّة، والنفسيّة، والجسديّة، والقانونيّة، والمهنيّة لمجتمعها من الصحفيّين/ ات الاستقصائيّين/ ات ومدققي/ ات المعلومات.
  • الابتكار: من خلال تعريب الأدوات المفيدة في العمل الصحفيّ، وتطوير أدوات جديدة، وإدخال الذكاء الاصطناعيّ إلى العمل الصحفيّ العربيّ.
  • التشبيك: من خلال ملتقى أريج السنوي، وأيضاً من خلال التشبيك بين الصحفيّين/ ات الاستقصائيّين/ ات، مدققي/ ات المعلومات، وأساتذة وطلبة الإعلام ومطلقي/ ات الصفارة في العالمين الافتراضيّ والواقعيّ.
icon

أريج والذكاء الاصطناعيّ

icon

ما استراتيجية أريج للذكاء الاصطناعيّ؟

دخلت "أريج" عالم الذكاء الاصطناعيّ منذ عام 2021، قبل الثورة الكبيرة التي أحدثها ChatGPT وأدوات الذكاء الاصطناعيّ التوليديّ في العالم. قررت "أريج" تطوير استراتيجيتها الخاصة بالذكاء الاصطناعيّ باللغة العربيّة عام 2022، ليس فقط لدعم جهودها المستمرة في تطوير الصحافة الاستقصائيّة وتدقيق المعلومات، بل أيضاً لدعم جهود كل المؤسسات الإعلاميّة العربيّة الصغيرة والمتوسطة، لتحقيق "هوية صحفيّة مشتركة"، وتطوير عملنا لتحقيق المزيد من المساءلة في مجتمعاتنا، التي تواجه كماً هائلاً من الفساد والإهمال وانتهاكات حقوق الإنسان وحملات التضليل الضخمة.

سنوياً، تعمل أريج على تطوير استراتيجيتها بناءً على التغييرات التي تطرأ على مجال الذكاء الاصطناعيّ، وبناءً على الدروس المستفادة من تجربة أدوات الذكاء الاصطناعيّ المختلفة.

يمكنكم/ ن الاطّلاع على الاستراتيجية هنا: هنا

ولم تطبع أريج هذه الاستراتيجية، وأبقتها موقعاً إلكترونياً كي تستطيع تحديثها، وهذا ينطبق أيضاً على دليل الأخلاقيات والمبادئ هذا لأنه كائن حي، قابل للتطوير حسب المستجدات التكنولوجية والمعرفة المتراكمة والتجربة وتبادل المعلومات مع الأفراد والمؤسّسات الأخرى.


icon

لماذا تستخدم أريج الذكاء الاصطناعيّ؟

  • لتسريع وتيرة العمل داخليّاً.
  • لتسهيل المهام الداخليّة.
  • للتخلص من المهام المتكررة التي تُهدر الوقت.
  • لتقديم محتوى أكثر جودة وتنوعاً لجمهورها.
  • للوصول إلى جماهير جديدة، وخلق تجارب توزيع محتوى أكثر شخصيّة (personalisation).

icon

ما المبادئ الأخلاقيّة التي تلتزم بها أريج؟

  • المصداقية والدقة.
  • الاستقلاليّة والموضوعيّة.
  • العدل والتوازن.
  • النزاهة والشفافيّة.
  • احترام الخصوصيّة.
  • المساءلة.
  • الاهتمام بالصالح العام.
  • الالتزام بالسلوكيّات المهنيّة.
  • الأمن والسلامة.

ستكون مصلحة فريق أريج ومجتمع أريج وجمهور أريج دائماً هي الأولوية في أيّ استخدام للذكاء الاصطناعيّ.




icon

التحديات الأخلاقيّة لاستخدام الذكاء الاصطناعيّ داخل أريج وطريقة مواجهتها

يطرح استخدام الذكاء الاصطناعيّ العديد من التحديات التي قد تهدد التزام المؤسّسة وفريقها بالأخلاقيّات والمبادئ الأساسيّة، وقد تهدد ثقة الجمهور بأريج. من هذه التحديات المفصلة في استراتجيات:

  • انتهاك الخصوصيّة
  • التحيز
  • نشر معلومات خاطئة أو مضللة يمكن أن يؤدي إلى فقدان ثقة الجمهور
  • خسارة الوظائف
  • ضعف المساءلة والمحاسبة
  • حقوق الملكيّة الفكريّة للمحتوى والبيانات

icon

كيف تواجه أريج هذه التحديات الأخلاقيّة خلال استخدام الذكاء الاصطناعيّ؟


فيما يتعلق بانتهاك الخصوصية:


  • تراجع أريج مدى التزام أيّ أداة يستخدمها الفريق بلوائح الخصوصيّة.
  • تتعامل أريج مع بيانات المستخدمين/ ات بمسؤوليّة كبيرة، وتلتزم بلوائح الخصوصيّة.
  • تحصل أريج دائماً على موافقة من المستخدمين/ ات فيما يتعلق بجمع أيّ بيانات أو استخدامها.
  • تؤكد أريج التزامها باللائحة العامة لحماية البيانات (GDPR).

فيما يتعلق بالتحيز:


  • تتأكد أريج من دقة البيانات المستخدمة في أيّ أداة ذكاء اصطناعيّ تعمل على تطويرها.
  • تستفسر أريج من أيّ مؤسسة/شركة تشتري منها أيّ أداة ذكاء اصطناعيّ عن البيانات المستخدمة في تطوير هذه الأداة ومدى التزاماتها الأخلاقيّة. ما البيانات التي استُخدمت لتدريب النموذج؟ هل هذه البيانات تحمل أيّ تحيز خوارزمي في البيانات أو لا تُظهر تنوع المجتمع؟
  • تتمّ مراقبة ومراجعة النتائج التي تنتجها أيّ أداة مستخدمة من قبل فريق بشري قبل نشرها للجمهور.

فيما يتعلق بنشر معلومات خاطئة في التحقيقات الاستقصائيّة والتقارير المعمقة:


  • تتشدد أريج في منهجيتها في تدقيق المعلومات ما قبل النشر.
  • تدرب أريج فريق عملها على الأدوات التي تساعد في كشف المحتوى الذي استُخدم فيه الذكاء الاصطناعي.
  • تراجع أريج المحتوى كله الذي يُنتج عبر الذكاء الاصطناعيّ للتأكد من عدم تضمّنه أيّ معلومات خاطئة أو مضللة.
  • تشجع أريج ثقافة الاعتراف بأيّ خطأ تقع فيه، وتُصحّحه مباشرة.

فيما يتعلق بخسارة الوظائف:


  • تستخدم أريج أدوات الذكاء الاصطناعي لتسهيل وتسريع وتطوير العمل فقط.
  • تتعهّد أريج مهما وصل استخدامها للذكاء الاصطناعيّ من تقدم، خلال السنوات المقبلة، بعدم الاستغناء عن أيّ موظف/ ة لهذا السبب، بل تتعهّد بتطوير وتكييف دوره/ خبرته حسب الحاجة.
  • تركز أريج على تطوير مهارات فريق عملها بشكل دائم في استخدامات الذكاء الاصطناعيّ، لتطوير آلية العمل، وليس بغرض الاستغناء عن أحد أعضاء الفريق.
  • لفريق أريج دور مهم في المراجعة البشريّة لأيّ محتوى ينتج عن استخدام الذكاء الاصطناعي قبل اعتماده/ نشره.

فيما يتعلق بضعف المساءلة والمحاسبة:


  • تلتزم أريج بإبلاغ الجمهور عن كل استخداماتها للذكاء الاصطناعيّ. (التفاصيل في المحاور اللاحقة).
  • تلتزم أريج بالإعلان لجمهورها عن أيّ خطأ ينتج عن استخدام الذكاء الاصطناعيّ، ومن ثمّ التراجع عنه وتصحيحه.
  • تشارك أريج أيّ بيانات استُخدمت في تطوير أيّ أداة ذكاء اصطناعيّ، مع من يطلبها، حسب الحاجة والضرورة.

حقوق الملكيّة الفكريّة للمحتوى والبيانات:


  • تلتزم أريج بالشفافية في الإفصاح عن استخدام الذكاء الاصطناعيّ عند صناعة أيّ شكل من أشكال المحتوى سواء في التحقيقات أو محتوى مواقع التواصل الاجتماعيّ والصور ومقاطع الفيديو.
  • تلتزم أريج باستخدام الأدوات والبيانات من المصادر المفتوحة التي تستخدم البيانات المسموح باستخدامها في إطار المشاع العام.

كما تتعهد أريح بالقيام بتقييم المخاطر لأيّ أداة ذكاء اصطناعّي تستخدمها، واتخاذ قرار استخدامها من عدمه بناءً على المخاطر المحتملة ومدى القدرة على الاستجابة لها.



icon

مبادئ استخدام فريق أريج للذكاء الاصطناعيّ

تشجع أريج استخدام فريقها الداخليّ للذكاء الاصطناعيّ لتسهيل وتسريع وتطوير العمل، لكن مع مراعاة المبادئ الأخلاقيّة كلها المذكورة أعلاه، ومع مراعاة المصداقيّة والشفافيّة في الاستخدام.


icon

لماذا يستخدم و/أو قد يستخدم فريق أريج الذكاء الاصطناعيّ؟


  • الترجمة
  • كتابة الإيميلات
  • تلخيص/ إعادة صياغة النصوص
  • توليد وتصميم الصور
  • تفريغ المقابلات
  • العصف الذهني
  • المساعدة في وضع خطة عمل
  • كتابة وإعادة صياغة محتوى للسوشيل ميديا بأشكال مختلفة
  • المساعدة في عملية تدقيق المعلومات
  • التدقيق اللغوي والنحوي
  • إنتاج العروض الخاصة بورش العمل
  • تحليل البيانات
  • توليد وتجميع مقاطع الفيديو
  • نشر وتوزيع المحتوى عبر المنصات المختلفة
  • محرك بحث
  • وغيرها…


icon

كيف يجب أن يتعامل فريق أريج مع استخدام الذكاء الاصطناعيّ؟

  • 1

    على كل فرد من فريق أريج، إبلاغ الإدارة بالأدوات التي يستخدمها، وبأيّ أداة جديدة يفكر/ يخطط لاستخدامها؛ لفحص هذه الأداة من ناحية المصداقيّة والشركة والأمن الرقميّ والخصوصيّة. الإبلاغ يتمّ عن طريق إرسال إيميل إلى info@arij.net.

  • 2

    على كل فرد من فريق أريج التعامل مع أيّ مخرجات من أدوات الذكاء الاصطناعيّ على أنها مادة/ مصدر/ معلومة/ نتيجة لم يتمّ فحصها و/أو تدقيقها أبداً. على كل فرد من فريق أريج تطبيق حكمه/ ا التحريريّ والمعايير والمبادئ الأخلاقيّة الخاصة بأريج عند النظر في أيّ معلومات للاستخدام و/أو للنشر للفريق الداخليّ، والمانحين، والمؤسسات الشريكة أو للجمهور العام.

  • 3

    لا يُسمح لأي فرد من فريق أريج، بتعديل أيّ صورة أو فيديو أو صوت أو تصريح مكتوب لأيّ شخص، إلا بهدف ضمان أمنه وخصوصيته. وفي حال القيام بذلك، يجب ذكر ذلك ونشره/ بثه بوضوح مع السبب.

  • 4

    تمنع أريج نقل أو نشر أو استخدام أيّ صورة أو فيديو تمّ إنشاؤها بواسطة الذكاء الاصطناعيّ يشتبه أو يثبت أنها قد تتضمّن أيّ معلومة خاطئة أو تسهم في التضليل. ومع ذلك، إذا كان الرسم التوضيحيّ أو العمل الفنيّ الذي تمّ إنشاؤه بواسطة الذكاء الاصطناعيّ هو موضوع تحقيق أو قصة، فيمكن استخدامه طالما تمّ تصنيفه بوضوح على هذا النحو وذكر السبب.

  • 5

    لا تسمح أريج باستخدام أدوات الذكاء الاصطناعيّ التوليديّ إلا بشكل عام؛ أي من دون ذكر أيّ تفاصيل ومعلومات خاصة ومحددة. تمنع أريج فريق عملها من وضع معلومات سريّة أو حساسة أو شخصيّة في أيّ أداة ذكاء اصطناعيّ مهما كانت. ويتضمن ذلك:
    أسماء ومعلومات أيّ فرد من فريق العمل والصحفيين/ ات ومدققي/ ات المعلومات وأسماء المانحين والشركاء وأيّ معلومات خاصة بأي شخص داخل الفريق أو خارجه. أيّ صورة أو فيديو أو معلومة أو مستند حصلنا عليه من مصدر خاص أو مجهل. أيّ تفاصيل ومعلومات عن أيّ مشروع من مشاريع أريج.

  • 6

    على فريق أريج أن يذكر استخدامه للذكاء الاصطناعيّ في أيّ مهمة/ محتوى من خلال استخدام العبارة التالية مع تكييفها/ تعديلها بحسب الحالة:

تنويه: هذا التقرير / المحتوى / التحقيق / التقرير المعمق/ المقال / العرض البصري / الفيديو / الصورة مدعوم/ ة بالذكاء الاصطناعيّ.



icon

أمثلة

-في حال استخدم الذكاء الاصطناعيّ في تصميم صورة لتحقيق استقصائيّ أو تقرير معمق، يجب أن تذكر العبارة التالية تحت الصورة: تنويه: صُمّمت هذه الصورة باستخدام الذكاء الاصطناعيّ.

-في حال استخدم الذكاء الاصطناعيّ في ترجمة مقال/ تحقيق/ تقرير، يجب أن تذكر العبارة التالية أسفل النص: تنويه: تمّت الاستعانة بأدوات الذكاء الاصطناعيّ في ترجمة التحقيق/ التقرير/ المقال أعلاه.

-في حال استخدام الذكاء الاصطناعيّ في جمع و/أو تحليل بيانات تحقيق استقصائيّ/ تقرير معمق: تنويه: تمّت الاستعانة بأدوات الذكاء الاصطناعيّ في جمع و/أو تحليل البيانات الخاصة بالتحقيق/ التقرير أعلاه.

-في حال استخدام الذكاء الاصطناعيّ في توليد فيديو لتحقيق استقصائيّ أو للسوشيل ميديا، يجب أن تُذكر العبارة التالية في نهاية الفيديو: تنويه: تمّت الاستعانة بأدوات الذكاء الاصطناعيّ في توليد هذا الفيديو.



icon

تعامل فريق تحرير أريج مع استخدام تقنيّات الذكاء الاصطناعيّ

تقع على عاتق إدارة أريج مسؤوليّة ضمان استخدام الفريق المسؤول للذكاء الاصطناعيّ، كما تقع على عاتق فريق تحرير أريج مسؤوليّة استخدام الصحفيّين/ ات المتعاونين/ ات مع أريج للذكاء الاصطناعي في أيّ مرحلة من مراحل إنتاج تحقيقاتهم/ ن وتقاريرهم/ ن.

يجب على فريق التحرير وخاصة المشرفين/ ات، تأكيد التالي على كل صحفيّ/ ة ومشرف/ ة يعملون معه/ ا:

  • 1

    يجب على الصحفيّ/ ة إبلاغ المشرف/ ة قبل استخدام أيّ من أدوات الذكاء الاصطناعيّ في كتابة مضمون (كلياً أو جزئياً) أيّ تحقيق أو تقرير، مهما كان، ولا تُستخدم إلا بعد موافقة المشرف.

  • 2

    يجب على الصحفيّ/ ة إبلاغ المشرف/ ة قبل استخدام أيّ من أدوات الذكاء الاصطناعيّ في ضبط أو تشكيل نصوص التحقيقات أو التقارير (كلياً أو جزئياَ) لُغوياً، ولا تُستخدم إحدى هذه الأدوات إلا بعد موافقة المشرف.

  • 3

    يمنع استخدام الذكاء الاصطناعيّ في فبركة أيّ صور، أو فيديوهات، أو نصوص، أو مستندات.

  • 4

    يجب على الصحفيّ/ ة إبلاغ المشرف/ ة قبل استخدام أيّ من أدوات الذكاء الاصطناعيّ في أيّ مرحلة من مراحل تنفيذ التحقيق/ التقرير (مثلا تحليل بيانات)، ولا تُستخدم إحدى هذه الأدوات إلا بعد موافقة المشرف.

  • 5

    التأكد من أن المصادر التي يعتمدون عليها في تنفيذ التحقيق لم تستخدم الذكاء الاصطناعيّ في أّي مصدر/ مستند/ فيديو/ صورة يتمّ تزويدهم بها. وفي حال استُخدم الذكاء الاصطناعيّ، يجب أن يُدقق كل ما تمّ تزويدهم به وإبلاغ المشرف/ ة بذلك، واتخاذ قرار باستخدام هذه المصادر بناءً على مدى دقتها/ مصداقيتها.


-يجب على كل مشرف/ ة، بعد استلامه/ ا النسخة النهائية من أيّ تحقيق/ تقرير، التأكد من أن الصحفي/ ة لم يستخدم الذكاء الاصطناعيّ في كتابة التقرير/ التحقيق وذلك من خلال:

  • 1

    طرح بعض الأسئلة الرئيسيّة، مثل:

    • هل نعرف هذا الصحفيّ/ ة جيداً من قبل؟ ما مدى ثقتنا به/ ا وبعمله/ ا؟
    • هل تغيرت طريقة صياغة الصحفيّ/ ة لتحقيقاته/ ا تقاريره/ ا؟ هل اختلفت بشكل كبير عن السابق؟
    • هل صياغة التحقيق معقدة جداً وتتضمن بعض المصطلحات الغير متداولة بشكل كبير، خاصة في مقابلات التحقيق، أو مصادره، أو النقاشات السابقة مع الصحفيّ/ ة…
    • هل أبلغنا الصحفيّ/ ة خلال عمله/ ا على التحقيق عن أيّ استخدامات للذكاء الاصطناعيّ أم لا؟
    • هل التحقيق لا يتضمّن أي خطأ أو مشكلات في الصياغة مهما كانت يسيرة أو معقدة؟
    • هل يتضمن التحقيق/ التقرير معلومات غير صحيحة وقديمة؟ هل يفتقر التحقيق/ التقرير كثيراً إلى العمق والشخصنة والسرد القصصيّ المبدع؟ هل هناك لغة مكرّرة كثيراً في التحقيق؟
    • عندما سألنا أدوات الذكاء الاصطناعيّ، عن كيف نكتشف النصوص المكتوبة بالذكاء الاصطناعيّ، أشارت إلى أربع نقاط أساسيّة:

    • عدم الاتساق في التفاصيل والمعلومات.
    • نقص المعرفة العميقة والتحليل العميق.
    • عبارات/ أفكار مكرّرة.
    • وجود كلمات ومصطلحات غير مألوفة وغريبة.
  • 2

    استخدام بعض الأدوات التي يمكن أن تساعد في كشف ما إذا كان النص النهائيّ كتب بالذكاء الاصطناعيّ:

    • في حال شككت باستخدام الصحفيّ لـ ChatGPT في كتابة تحقيقه يمكن أن تسأل الأداة نفسها عن ذلك.
    • في حال شككت باستخدام الصحفي ل Bard في كتابة تحقيقه يمكن أن تسأل الأداة نفسها عن ذلك.
    • GPTZero.
    • CopyLeaks.
    • Scribbr.
    • Originality.ai & Turnitin (يحتاجان إلى اشتراك).
    • استخدام Google Reverse Image و Tineye للبحث عن الصورة لو كانت منشورة سابقاً أو مذكور أنها معدلة.
    • استخدام aiornot للتعرف على الصورة ما إذا كانت مولدة بالذكاء الاصطناعي.
    • البحث في مواقع تدقيق المعلومات.
    • استخدام شات بوت الشبكة العربية لمدققي المعلومات.

ملاحظة هامة: للأسف، هذه الأدوات لا تزال تعطي نتائج غير دقيقة أحياناً كثيرة، لذا من غير الكافي الاعتماد عليها دائماً أو وحدها، بل يجب طرح كل الأسئلة أعلاه قبل ذلك، وتجربة النص نفسه على 4 أدوات على الأقل والمقارنة قبل اتخاذ القرار.



icon

تعامل قسم التواصل في أريج مع استخدام الذكاء الاصطناعي

  • 1

    استخدام علامة (AI Generated) أو (AI Assisted) على أي صورة أو فيديو استخدم فيه الذكاء الاصطناعي ويتمّ نشره على سوشيل ميديا أريج.

  • 2

    لا تقوم أريج بتوليد مادة كاملة من الألف إلى الياء باستخدام الذكاء الاصطناعي (AI Generated). توظف أريج الذكاء الاصطناعي في توليد بعض المقاطع والمواد البصرية المستخدمة (AI Assisted). فريق أريج وأدوات الذكاء الاصطناعي يعملان جنباً إلى جنب في صناعة المواد ونشرها. تستخدم أريج في إنتاج محتوى مواقع التواصل الاجتماعي أدوات تعتمد على الذكاء الاصطناعي سواء في تنويع المحتوى من التحقيقات، أو وضع خطط للنشر على المنصات الاجتماعية للحملات، أو اختيار الوقت الأنسب لإرسال النشرات البريدية، وغيرها

  • 3

    في الفيديو، تضاف عبارة "تم توليد/تعديل هذا الفيديو أو الصوت أو الصورة باستخدام أدوات الذكاء الاصطناعي". تظهر هذه العبارة حال ظهور المقطع المولد بالذكاء الاصطناعي.

  • 4

    أريج لا تقوم بتوليد محتوى مكتوب أو مرئي أو مسموع بشكل كامل باستخدام الذكاء الاصطناعي للسوشيل ميديا.

  • 5

    لا تستخدم أريج أدوات الذكاء الاصطناعي في توليد مواد بصرية لأشخاص حقيقيين أو مواقع جغرافية حقيقية. كما تعمل أريج على عدم استخدام أدوات الذكاء الاصطناعي في عرض وجوه لأشخاص تم توليد أشكالهم باستخدام أدوات الذكاء الاصطناعي. يمكن توليد مواد بصرية لأشخاص يظهرون من ظهورهم، من دون أن تكون ملامحهم واضحة.

  • 6

    في المواد الصوتية: تستخدم أريج أدوات الذكاء الاصطناعي التوليدي في توليد نصوص مسموعة في قراءة التحقيقات على الموقع الإلكتروني، أو توليد النصوص الصوتية المرافقة للفيديو. تقوم أريج أيضاً باستخدام خاصية نسخ الصوت (Voice Cloning)، وهي استخدام صوت شخص حقيقي كقاعدة لتوليد مواد صوتية طويلة مستقبلاً. قبل استخدام هذا الصوت، يوقع صاحب/ة الصوت على اتفاق يحتوي بنوداً حول إطار استخدام هذا الصوت والمدة الزمنية التي يمكن استخدام هذا الصوت خلالها.

  • 7

    لن يستخدم فريق التواصل أدوات الذكاء الاصطناعي لإجراء تغييرات جذرية على الصور والفيديوهات المتوافرة والتي تستخدم في تحقيقات أو نشاطات أريج. التغييرات الجذرية تشمل: إزالة تفاصيل من المواد البصرية، تعديلات تغيّر من شكل الصورة وهدفها، إضافة تفاصيل خارجية تغير من شكل الصورة وهدفها.

  • 8

    يمكن أن يستخدم فريق التواصل أدوات الذكاء الاصطناعي لتوليد صور وفيديوهات لمواد تفتقر إلى الموارد البصرية، مثل التحقيقات، ولكن يجب عند القيام بذلك التنسيق مع رئيس التحرير، والشخص المسؤول عن الذكاء الاصطناعي في فريق التحرير، والاتفاق على تفاصيل هذه الصورة أو الفيديو، وأخذ الموافقة النهائية من رئيس التحرير، والإشارة إلى الصورة بالعبارة التالية:
    "تم استخدام أداة xxx في توليد هذه الصورة، وهي صورة تعبيرية بالكامل، ولا تعبر تفاصيلها عن أي عنصر من عناصر التحقيق".

  • 9

    قد يستخدم فريق التواصل أدوات الذكاء الاصطناعي لإدارة المحتوى على السوشيل ميديا (الرد على التعليقات والأسئلة)، ولكن يجب أن يقوم أحد أفراد الفريق بالاطلاع على الإجابات قبل أن يتم إرسالها، ويمنع منعاً كاملاً أن ترسل الإجابات بشكل أوتوماتيكي.


icon

تعامل الشبكة العربية لمدققي المعلومات مع موضوع الذكاء الاصطناعي

  • 1

    على الشبكة التأكيد على كل مدقق/ة معلومات يعمل مع أريج أن يتشدد في تدقيق المحتوى، خاصة عند الشك باستخدامه الذكاء الاصطناعي، أو عند إبلاغ الصحفي لاستخدامه الذكاء الاصطناعي في التحقيق/التقرير.

  • 2

    على الشبكة أن تعدل منهجية أريج في تدقيق المعلومات لتضمن تفاصيل خاصة بالمحتوى المولد بالذكاء الاصطناعي.

  • 3

    على الشبكة التركيز على التوعية والتدريب في هذا المجال.


icon

تعامل إدارة أريج مع موضوع استخدام الذكاء الاصطناعي

  • 1

    على إدارة أريج أن تتخذ إجراءات حاسمة مع الموظفين/ات والصحفيين/ات الذين يتبين استخدامهم/ن للذكاء الاصطناعي من دون إبلاغ ذلك، وقد يصل ذلك إلى الفصل من العمل.

  • 2

    على فريق الإدارة في أريج مراقبة المحتوى الذي يصدر من فريقهم بشكل مستمر وممنهج بخطة واضحة.

  • 3

    على إدارة أريج الإعلان والاعتذار عن أي محتوى يتبين أنه نشر باستخدام الذكاء الاصطناعي ويحتوى على معلومات غير دقيقة.

  • 4

    على إدارة أريج ضمان أن الأدوات التي يستخدمها الفريق آمنة، وفحص هذه الأدوات مجدداً بشكل دوري (كل 6 أشهر).

  • 5

    على إدارة أريج ضمان أن الفريق يلتزم التزاماً كاملاً بكل المبادئ الواردة في هذا الدليل.

  • 6

    على إدارة أريج أن تأخذ على عاتقها تطوير استخدام الذكاء الاصطناعي وتعزيزه داخل الفريق من خلال الحصول على منح متعلقة بالمجال، وإطلاق مشاريع مرتبطة، وتطوير مهارات الفريق بشكل دائم، وتحديث الاستراتيجية.



icon

تنفيذ هذه المبادئ

  • 1

    ستتعامل أريج بكل حزم ومسؤولية مع استخدام الذكاء الاصطناعي داخلياً وخارجياً.

  • 2

    يوقع كل فرد من فريق أريج على الالتزام بهذه المبادئ لمرة واحدة مع التأكيد على أنه قد يتم تحديثها عند الحاجة.

  • 3

    يوقع كل موظف جديد في أريج على هذه المبادئ عند توقيع عقده.

  • 4

    هذه المبادئ مضمنة كرابط في استراتيجية أريج للذكاء الاصطناعي وضمن الموقع الإلكتروني لأريج.

  • 5

    يتم ترويج هذه المبادئ بشكل مستمر عبر سوشيل ميديا أريج.

  • 6

    تتضمن العقود الجديدة الخاصة بكل صحفي/ة ومدقق/ة معلومات على مادة تنص التالي: "يمنع استخدام الذكاء الاصطناعي في أي مرحلة من مراحل تنفيذ التحقيق/التقرير من دون إبلاغ المشرف المسؤول بشكل رسمي. إن أي استخدام للذكاء الاصطناعي من دون إبلاغ أريج بذلك قد يؤدي الى فسخ هذا العقد".

  • 7

    يضاف إلى نموذج تقديم تحقيق لأريج سؤال حول استخدام الذكاء الاصطناعي من عدمه في النموذج من قبل مقدم/ة الطلب، وكيف تم استخدامه. الإجابة لن تؤثر على قرار هيئة التحرير، ولكن الهدف هو تعزيز الشفافية.

  • 8

    تتم مشاركة هذه المبادئ والتشديد عليها مع كل صحفي/ة، مدقق/ة معلومات، وأي متعاون/ة مع أريج في مجال التصميم أو صنع المحتوى أو الاستشارة أو الأبحاث… وذلك قبل بدء التعاون.

  • 9

    يتم تعديل/تطوير هذا المستند عند الحاجة بحسب تطور وتوسع استخدام أريج للذكاء الاصطناعي، وبناءً على التحديات التي ستواجهها أريج خلال استخدام الذكاء الاصطناعي، ويتم إبلاغ الفريق عن أي تعديلات جوهرية.



icon

مصادر استخدمت خلال تطوير هذه المبادئ