آذار/ مارس 2025
المقدمة
هدفنا في أريج، تنفيذ استراتيجية مدعومة بالذكاء الاصطناعي باللغة العربية. مع الدور البارز
للتكنولوجيا في دعم وإعادة تشكيل المشهد الإعلامي حول العالم، إن تسخير الذكاء الاصطناعي يحمل إمكانات
هائلة؛ لتعزيز عملنا الصحفي، وإشراك الجمهور بطرق جديدة، والبقاء في طليعة الصناعة الإعلامية، دائمة
وسريعة التطور.
في عالم اليوم سريع الخطى والغني بالمعلومات والبيانات، يمكن أن تساعدنا الصحافة القائمة على الذكاء
الاصطناعي في التنقل بين الكم الهائل من البيانات المتاحة، مما يضمن الدقة والكفاءة في المضمون الصحفي
الذي نقدمه للجمهور. من خلال الاستفادة من تقنيات الذكاء الاصطناعي، مثل معالجة اللغة الطبيعية والتعلم
الآلي، يمكننا تمكين الصحفيين/ات، المحررين/ات ومدققي/ات المعلومات بأدوات متقدمة لتسهيل العمل وإنشاء
محتوى عالي الجودة يعتمد على البيانات.
تتمثل إحدى المزايا الرئيسية لدمج الذكاء الاصطناعي في إستراتيجية "أريج" القائمة على "التشبيك،
التمكين والابتكار"، في القدرة على أتمتة المهام الشاقة والتي تتطلب وقتاً طويلاً، مثل جمع وتحليل
البيانات، انتاج المواد الصحفية القائمة على البيانات الضخمة، تدقيق المعلومات وغيرها. من خلال أتمتة
جزء من هذه العمليات، يمكن للصحفيين/ات، المحررين/ات ومدققي/ات المعلومات التركيز بشكل أكبر على
التحليل المتعمق والتحقيقات الاستقصائية، مما يمكنهم من إنتاج روايات أكثر تعقيداً وتأثيراً وابتكارا
وتحدث صدى أكبر لدى الجمهور العربي.
بالإضافة إلى ذلك، يمكن للذكاء الاصطناعي أن يلعب دوراً مهماً في تطوير تفاعل الجمهور وإضفاء الطابع
الشخصي على المواد الصحفية. من خلال تحليل بيانات المستخدم وسلوكياته يمكننا تطوير توصيات لمحتوى متخصص
ونشرات إخبارية متخصصة وتجارب تفاعلية تلبي الاهتمامات المحددة والمتنوعة للجمهور.
كما يمكن أن يساعدنا الذكاء الاصطناعي في تحديد التحيزات المحتملة وضمان مجموعة متنوعة من وجهات النظر
في المضمون الصحفي. من خلال القضاء على التحيزات اللاواعية، تقليص العنصرية ومحاربة تهميش الأقليات
والتمييز الجندري، يمكننا تعزيز العدالة والموضوعية والشمولية في صحافتنا، وبالتالي تعزيز مصداقيتنا
وشفافيتنا.
من الضروري أيضاً الاعتراف بالاعتبارات الأخلاقية لاستخدام الذكاء الاصطناعي في الصحافة. سيكون ضمان
الشفافية والمساءلة والاستخدام المسؤول لتقنيات الذكاء الاصطناعي جزء لا يتجزأ من استراتيجيتنا. إن
التمسك بالمعايير الأخلاقية الصحفية القائمة على الشفافية والموضوعية والدقة، والمعالجة الفعالة
للمخاوف المحتملة من استخدام الذكاء الاصطناعي، سيعزز التزامنا بالنزاهة الصحفية والحفاظ على ثقة
الجمهور بعملنا.
يمثل تبني الذكاء الاصطناعي في أريج ووسائل الإعلام العربية، فرصة لا مثيل لها لتعزيز المضمون الصحفي
وإشراك جمهورنا والتنقل في المشهد الإعلامي المتطور. من خلال تسخير قوة الذكاء الاصطناعي، يمكننا فتح
مستويات جديدة من الكفاءة والدقة والإبداع، مما يمكننا من إعادة تعريف وتشكيل العمل الصحفي والحفاظ على
مكانتنا كمؤسسات رائدة في الصناعة الإعلامية العربية، وما يمكننا من المنافسة دولياً.
دخلت "أريج" عالم الذكاء الاصطناعي منذ عام 2021، قبل الثورة الكبيرة التي يحدثها ChatGPT في العالم.
قررت "أريج" تطوير استراتيجيتها الخاصة بالذكاء الاصطناعي باللغة العربية عام 2022، بدعم من مبادرة
أخبار جوجل، ليس فقط لدعم جهودها المستمرة في تطوير الصحافة الاستقصائية وتدقيق المعلومات، بل لدعم
جهود كل المؤسسات الإعلامية العربية الصغيرة والمتوسطة في إعادة تشكيل هويتنا الصحفية وتطوير عملنا
لتحقيق المزيد من المساءلة في مجتمعاتنا التي تواجه كماً هائلاً من الفساد والإهمال وانتهاكات حقوق
الإنسان وحملات التضليل الضخمة.
الاستراتيجية ومنهجيتها
لعام كامل، عملت "أريج" على تطوير استراتيجيتها الخاصة بالذكاء الاصطناعي، من خلال خطة عمل تم تنفيذها انطلاقاً من تحديد التحديات وصولاً إلى كتابة الاستراتيجية.
تحديد التحديات
ما هي التحديات التي تواجهها "أريج" في المراحل المختلفة من العمل الصحفي؟ وكيف تؤثر هذه التحديات على مسار العمل؟.
تحديد الأهداف والنطاق
تحديد كامل الأهداف بوضوح. لماذا تريد "أريج" استخدام الذكاء الاصطناعي؟ ما الحلول التي سيقدمها الذكاء الاصطناعي لمواجهة هذه التحديات؟ وكيف سيطور ذلك عملنا الصحفي؟
تشكيل فريق متعدد الوظائف
تشكيل فريق متنوع يضمّ أعضاءً من أقسام مختلفة داخل غرفة الأخبار، مثل الإدارة والتحرير والمشاريع والتكنولوجيا وغيرها.
العصف الذهني وتبادل الأفكار
تحديد أين يمكن لأريج استخدام الذكاء الاصطناعي من خلال التركيز على أربعة اتجاهات مختلفة: استخدام أدوات متوفرة، تطوير أدوات جديدة، تعريب أدوات متوفرة، والتعاون في تطوير أدوات جديدة.
التجربة والنموذج الأولي
تجربة العديد من الأدوات القائمة على الذكاء الاصطناعي، تقييم مدى استفادتنا منها، إجراء بحث أولي حول أدوات يمكن تطويرها، وصياغة النموذج الأولي الخاص ببعض الأفكار، التي نستعرضها في إحدى محاور الاستراتيجية.
تطوير خارطة طريق للتنفيذ:
كيف ستنفذ أريج استراتيجيتها؟ كيف ستؤمن كل الموارد التي تحتاجها؟ من أين ستحصل على تمويل؟ وكيف ستقيّم تطبيق الاستراتيجية؟.
كتابة الاستراتيجية
التي تغطي كامل الجوانب الخاصة باستخدام الذكاء الاصطناعي داخل المؤسسات الإعلامية الصغيرة والمتوسطة.
عندما قررت "أريج" دخول عالم الذكاء الاصطناعي، اهتمت بعد نشر الوعي به لدى فريق عملها، في بناء الاستراتيجية الخاصة بذلك. من المهم جداً الانطلاق من استراتيجية واضحة تحدد الأهداف، التحديات، اليه التنفيذ، المخاطر المتوقعه في مراحل متقدمة قبل الخوض في هذه الرحله.
بنيت هذه الاستراتيجية بناءً على جمع العديد من البيانات، طوال مسار العمل الذي بدأ بتوثيق آلية العمل في أريج، مروراً بالتوعية حول الذكاء الاصطناعي، وصولاً إلى تصميم نماذج أولية لاستخدامات الذكاء الاصطناعي.
أفضل ممارسات المؤسسات الإعلامية العالمية والعربية
تتنوع التعريفات الخاصة بالذكاء الاصطناعي, حيث لا يوجد حتى اليوم تعريف موحد له.
"مجموعة من التقنيات، التي يمكن أن تساعد فريق أريج وتمكّنه، من خلال تقديم رؤى ودعم آلي، لتنفيذ مجموعة من المهام التحريرية والتشغيلية والتواصلية. في أي استخدام للذكاء الاصطناعي في عمل أريج، يجب مراعاة المعايير الأخلاقية الأساسية".
ارتأت "أريج" أن تنشئ تعريفها الخاص بالذكاء الاصطناعي لضمان الوضوح والاتساق والملائمة مع أهدافها وقيمها المحددة. من خلال تطوير تعريف الذكاء الاصطناعي الخاص بها، يمكن لأريج تعزيز فهم مشترك داخل فريقها ومع جمهورها حول نطاق وطبيعة استخدامها الذكاء الاصطناعي.
تستخدم العديد من المؤسسات الإعلامية حول العالم (خاصةً الكبيرة منها) أشكالاً مختلفة من تقنيات الذكاء الاصطناعي منذ عدة سنوات. وتستخدمها بشكل أساسي في مراحل إنتاجها الثلاثة الأساسية:
ولأن المؤسسات الإعلامية هي مؤسسات تضم فريق عمل وآليات وقوانين والتزامات، يدخل الذكاء الاصطناعي في
إطار تنظيم علاقات العمل داخل هذه المؤسسات، وتيسير ما يتعلق بالموارد البشرية، والحسابات، والعقود،
وغيرها.
نستعرض بعضاً من الأمثلة المهمة لاستخدامات الذكاء الاصطناعي داخل غرف الأخبار:
أطلقت مجلة "تايم" الأمريكية مع نهاية عام 2024 المساعد الرقمي (تشات بوت) الذي يحمل عنوان Time AI، ويساعد الجمهور في البحث داخل المحتوى الذي اشتهرت به المجلة وهو "شخصية العام". من خلال التشات بوت، يمكن للمستخدمين/ ات تلخيص المقالات حول هذه الشخصيات، والاستماع إلى قراءة المقالات، والدردشة مع المساعد الرقمي عنها.
لفترة طويلة، عجزت مؤسسة The Garden Island، في العثور على مذيعين ومذيعات مناسبين لتقديم النشرات الإخبارية. ولكن بفضل الذكاء الاصطناعي، وتوليد شخصيات "الأفاتار"، تمكنت المؤسسة من إيجاد البديل.
عمل موقع ESPN على إنتاج تلخيص ينشر عبر الموقع الإلكتروني لمباريات كرة القدم النسائية، على أن يتم تطوير هذه العملية لاحقاً لتشمل أشكالاً أخرى من الرياضات التي يغطيها الموقع. يقوم المحرر الصحفي بمراجعة الملخص بعد توليده للتأكد من خلوه من الأخطاء اللغوية، والمعلومات الخاطئة.
أصدرت "فاينانشيل تايمز" خلال عام 2024، أول ميزة توليدية للذكاء الاصطناعي لمشتركيها. تتيح الأداة، المتوفرة في نسختها التجريبية، للمستخدمين/ات طرح أي سؤال وتلقي الرد باستخدام محتوى المؤسسة المنشور على مدار العقدين الماضيين.
هيليوغراف: هي تقنية آلية لرواية القصص الصحفية، طورتها صحيفة "واشنطن بوست" الأميركية. قُدمت لأول مرة، في عام 2016، كأداة لمساعدة الصحفيين في إنشاء القصص الإخبارية. يستخدم "الهيليوغراف" الذكاء الاصطناعي ومعالجة اللغة الطبيعية، لإنشاء مقالات أو تحديثات قصيرة تلقائياً؛ بناءً على مدخلات البيانات المنظمة، مثل الألعاب الرياضية، أو نتائج الانتخابات، أو البيانات المالية.
تقدم هذه الخدمة إجابات مُنشأة بواسطة الذكاء الاصطناعي استناداً إلى تقارير منشورة من واشنطن بوست.
أُطلق "رادار" في عام 2018 كمشروع مشترك بين جمعية الصحافة في المملكة المتحدة وشركة Urbs Media الناشئة. من خلال دمج المهارات الصحفية وأدوات الذكاء الاصطناعي، يقوم "رادار" بتحليل البيانات واكتشاف قصصها وتطوير خوارزمية مخصصة لإنشاء نسخة لموضوع صحفي، في ساعات وليس في أيام أو أسابيع.
Salco كان أول محاولة من BBC لتقديم الصحافة المكتوبة آلياً إلى الجمهور. بدءاً من أواخر عام 2018، طورت "بي.بي.سي" البنية التحتية لإنشاء القصص المحلية ومراجعتها وتقديمها آلياً. يجمع "سالكو" ما بين معالجة البيانات وتوليد القصة والموافقة التحريرية في عملية بسيطة: "بنقرة واحدة" يأخذ "سالكو" البيانات، وينتج تلقائياً قصصاً محلية ثرية، بناءً على القوالب التي صممها الصحفيون.
لدعم الصحفيين العاملين في مشروع تسريبات "موريشيوس"، بنى Quartz نموذجاً للتعلم الآلي يحدد المستندات المتشابهة بين مجموعة كبيرة من البيانات. من خلال استخدام الذكاء الاصطناعي، أصبحت المجموعة الضخمة من الوثائق أكثر قابلية للإدارة والبحث، وتَمكن الصحفيون/ ات من إنجاز تقاريرهم ونشر نتائجهم مع عشرات المؤسسات الإخبارية الأخرى.
مؤسسة تدقيق المعلومات الأرجنتينية Chequeado أطلقت Chequeabot، وهي أداة تحدد تلقائياً الادعاءات في وسائل الإعلام، وتطابقها مع عمليات تدقيق المعلومات الحالية. يعتمد الروبوت على معالجة اللغة الطبيعية والتعلم الآلي؛ للمساعدة في أداء المهام اليومية لمدققي/ ات المعلومات.
Perspective API، هي واجهة برمجة تطبيقات مجانية، أطلقتها "غوغل"، وتستخدم التعلم الآلي لتحديد التعليقات السامة؛ ما يسهل إنشاء محادثات أفضل عبر الإنترنت. ساعدت هذه الأداة العديد من المؤسسات الإعلامية حول العالم، في إدارة التعليقات على حساباتها. صحيفة "البايس" الإسبانية، كانت من أبرز المؤسسات التي استفادت من هذه الأداة.
أصدرت Getty Images أداة ذكاء اصطناعي، تساعد الناشرين على اختيار الصورة الأفضل لقصتهم الصحفية. تعمل الأداة مثل محرر الصور، فهي تقرأ النص وتحاول فهم موضوع القصة، ثم تقدم مقترحات للصور، التي لا تعتمد فقط على الكلمات الرئيسية؛ ولكن على معنى الجمل والفقرات.
تستخدم Financial Times روبوتاً يدعى She Said He Said لتحذير الصحفيين/ ات، في حال نقلوا اقتباسات عن عدد كبير من الرجال في مواضيعهم الصحفية؛ وذلك في محاولة للحد من التمييز الجندري في المضمون الصحفي.
طورت رويترز Lynx Insight في عام 2018 كجزء من مبادرتها "غرفة الأخبار الإلكترونية"؛ للجمع بين أفضل قدرات الآلة والعقل البشري، لإنتاج صحافة أفضل. تعزز Lynx Insight العمل الصحفي، من خلال تحديد الاتجاهات والشذوذ والحقائق الأساسية، واقتراح قصص جديدة يجب على الصحفيين/ ات كتابتها.
أطلقت قناة "الجزيرة" القطرية عام 2023 أول مذيعة ذكاء اصطناعي تدعى "ابتكار"، خلال مؤتمرها حول "الذكاء الاصطناعي في الإعلام".
منذ أبريل 2023، يساند الذكاء الاصطناعي "تشات بوت" تدقيق المعلومات الخاص بالشبكة العربية لمدققي المعلومات من أريج عبر واتساب في عملية تدقيق المعلومات. خلال عام 2024، 10% من المواد التي أرسلها الجمهور العام دققت بدعم من الذكاء الاصطناعي.
بعض النماذج الأخرى لاستخدامات مختلفة لوسائل اعلامية للذكاء الاصطناعي:
متطلبات توفر وممارسة الذكاء الاصطناعي
لا يمكن استخدام الذكاء الاصطناعي داخل غرف الأخبار من العدم. للقيام بذلك، تحتاج المؤسسة الإعلامية إلى العديد من المتطلبات. ذلك لا يعني أن ذلك مستحيلاً، بل أن له أسساً مهمة يبنى عليها لينجح ويستمر.
ينصح فريق "JournalismAI" في كلية لندن للاقتصاد والعلوم السياسية، المؤسسات الإعلامية بالتركيز على 7 نقاط أساسية تحضيراً للدخول إلى عالم الذكاء الاصطناعي:
انطلاقاً من ذلك، فإن التنفيذ الناجح للذكاء الاصطناعي يتطلب بعض العناصر الأساسية والموارد، أهمها:
من الضروري جداً على المؤسسة الإعلامية نشر الوعي بالذكاء الاصطناعي لدى كل فريق عملها. يجب على كامل فريق عمل المؤسسة أن يعي جيداً أن تقنيات الذكاء الاصطناعي بإمكانها تحويل جوانب مختلفة في الصحافة، بما في ذلك إنشاء المحتوى وتحليل البيانات وإشراك الجمهور.
على كل الفريق أن يعي جيداً:
الوعي الكامل بالذكاء الاصطناعي سيسهل على المؤسسة عملية تبني الذكاء الاصطناعي، وسيجعل فريق العمل
كاملاً مقتنعاً بأن ذلك سيكون مفيداً لتطوير العمل مستقبلاً.
يمكن أن تعمل المؤسسة الإعلامية على نشر الوعي من خلال تنظيم تدريبات حول الذكاء الاصطناعي في الصحافة،
المشاركة في ندوات ومؤتمرات متخصصة بالموضوع، بالإضافة إلى إبقاء كامل فريق العمل على اطلاع كليّ بكل
ما تقوم به المؤسسة في المجال.
يجب على المؤسسة أن تفهم تحدياتها واحتياجاتها جيداً. وأن تجيب على العديد من الأسئلة المهمة:
هذه المرحلة، ركزت عليها "أريج" خلال بناء استراتيجيتها، حيث حللت كل التحديات والمشاكل التي تواجهها في عملها، واستنتجت الكثير مما تحتاج التركيز عليه في استخدام الذكاء الاصطناعي، نذكر منها:
كما استنتجت "أريج" الحاجة إلى التركيز على استخدام الذكاء الاصطناعي في المراحل الثلاث الأساسية للعمل الصحفي: جمع البيانات، إنتاج المحتوى وتوزيع المحتوى. ولكن قد تختلف طبعاً أولويات المؤسسات الأعلامية واحتياجاتها بحسب التحديات التي تواجهها. لذا، دائماً ابدأ بتحديد التحديات والأولويات.
تعتمد أنظمة الذكاء الاصطناعي على البيانات للتعلم وتقديم النتائج. تدريب نماذج الذكاء الاصطناعي، يلزمه قدر كبير من البيانات عالية الجودة، ذات الصلة والدقيقة. تحتاج المؤسسة الإعلامية إلى الوصول إلى مجموعات البيانات المتنوعة التي تمثل المحتوى الذي يريدون من الذكاء الاصطناعي العمل معه، مثل الأخبار، التحقيقات، التقارير المعمقة، الصور أو مقاطع الفيديو. كما يستغرق طبعاً إنشاء مجموعة بيانات موثوقة وشاملة وقتاً وجهداً.
تتعلم أنظمة الذكاء الاصطناعي من البيانات، حيث تتضمن نماذج تدريب الذكاء الاصطناعي تعريضها لكميات كبيرة من البيانات المصنفة أو الغير المصنفة، مما يسمح للنماذج بتحديد الأنماط والعلاقات والارتباطات داخل البيانات. كلما كانت البيانات أكثر تنوعاً وتمثيلاً، يمكن لنماذج الذكاء الاصطناعي أن تتعلم منها أكثر.
ببساطة، تعتبر البيانات هي الوقود الذي يمد الذكاء الاصطناعي بالطاقة، ومن دونها لا يمكن تطوير وتدريب أي أداة ذكاء اصطناعي.
للأسف، يعاني العالم العربي من صعوبة في الوصول إلى البيانات والمعلومات، خاصة مع عدم تطبيق أو وجود قوانين حق الوصول إلى المعلومات أو نشر كل المؤسسات الحكومية/الرسمية/الأهلية/الخاصة لبياناتها. لكن ذلك لا يعني أنه لا يوجد بيانات ضخمة يمكن الاعتماد عليها، مثل:
لا يمكن تطوير الذكاء الاصطناعي من فراغ. إن تطبيقه في المؤسسة الإعلامية هو قرار استراتيجي ويحتاج إلى
بنية تحتية تكنولوجية، ومن أجل تعظيم استخدام الحلول القائمة على الذكاء الاصطناعي، يجب على المؤسسات
أولاً اتخاذ الخطوات اللازمة للتأكد من أن بنيتها التحتية محدثة وجاهزة لأي مبادرات للذكاء الاصطناعي.
بالإضافة إلى ذلك، قد يلزم دمج أجهزة وبرامج جديدة من أجل التنفيذ الفعال لأي حل للذكاء الاصطناعي.
غالباً ما تكون حلول الذكاء الاصطناعي ضرورية للعديد من المهام مثل جمع البيانات وتصنيفها أو قياس
المعالجة أو إنشاء نماذج دقيقة يمكن تغييرها عند الحصول على معلومات جديدة.
البنية التحتية مهمة للغاية لتطوير تقنيات الذكاء الاصطناعي. لضمان ذلك، تحتاج المؤسسات إلى اتخاذ
مبادرات مختلفة مثل إعادة تعيين الأجهزة الموجودة، وشراء حلول الذكاء الاصطناعي ذات الاستخدام الفردي،
وإنشاء منصات كبيرة يمكنها دعم مجموعة متنوعة من حلول الذكاء الاصطناعي والاستعانة بمصادر خارجية
لتقنيات الذكاء الاصطناعي.
تنقسم حلول تقنية الذكاء الاصطناعي على أساس نوع العرض (الأجهزة والبرامج) ، ووضع الاستضافة (في مكان
العمل، والسحابة، والهجين)، ومجموعات العملاء المستهدفة (الشركات، والوكالات الحكومية، ومقدمي الخدمات
السحابية)، والمنطقة الجغرافية.
يتطلب الانتقال من تجربة الذكاء الاصطناعي، إلى استخدامه في الحياة اليومية، استثماراً كبيراً في قوة الحوسبة والبنية التحتية المتقدمة. يتطلب بناء نظام ذكاء اصطناعي فعال، مجموعة من الموارد المختلفة؛ بما في ذلك وحدات المعالجة المركزية، ووحدات معالجة الرسومات. تقدم البنية التحتية للذكاء الاصطناعي، مجموعة واسعة من أنواع الأجهزة والبرامج؛ ما يسمح بعمليات النشر السحابية والمحلية. إنها تقدم خدماتها في المقام الأول للمستخدمين النهائيين من الشركات والحكومة، عبر مناطق جغرافية متنوعة، ومجهزة بسعة تخزين عالية، وهيكل شبكات محسّن وميزات أمان فائقة. وقد يكون ذلك بخبرات داخل المؤسسة و/أو الاستعانة بخبرات وتعاون مع مؤسسات أو جهات أخرى.
يتطلب تطبيق أو تطوير الذكاء الاصطناعي في أي وسيلة إعلامية، فريق عمل متخصص. بالإضافة إلى حاجة المؤسسة إلى التعاون مع متخصصين/ات في الذكاء الاصطناعي، معالجة اللغة الطبيعية والتعلم الآلي.
من الأفضل أن يتضمن الفريق:
من الأفضل تشكيل فريق عمل متخصص داخل المؤسسة لهذه الغاية، لكن في حال عدم توفر ذلك، قد يكون التعاون
مع خبراء خارجيين خياراً جيداً أيضاً.
خلال تطوير استراتيجيتها الخاصة بالذكاء الاصطناعي، شكلت "أريج" فريق عمل متكون من:
اضغط لتعرف المزيد
شكلت "أريج" الفريق بناء على التخصصات المختلفة والأدوار التي يلعبها كل فرد في الأقسام المختلفة، وما يمكن أن يوفره من فائدة للاستراتيجية:
تخصيص فريق متنوع، من خلفيات وتجارب ووجهات نظر مختلفة، يثري عملية تطوير استراتيجية الذكاء الاصطناعي؛
من خلال توفير مجموعة من وجهات النظر والرؤى المختلفة. كما يضمن وجود فريق متنوع يشارك في تطوير
استراتيجية الذكاء الاصطناعي، مراعاة احتياجات ومصالح مجموعات المستخدمين المختلفة
(الصحفيين/ات-المحررين/ـات-مدققي/ـات المعلومات-التكنولوجيين/ـات…). يساعد هذا في إنشاء حلول مدعومة
بالذكاء الاصطناعي، تكون أكثر صلة وشمولية وتُحدث تأثيراً أكبر.
وفي إطار العمل على تيسير المهام والعمل بين الأقسام المختلفة في أريج، وحتى لا يتركز استخدام الذكاء
الاصطناعي في مهام معينة دون الأخرى، تم لاحقا تشكيل فريق لقيادة تطبيق الذكاء الاصطناعي داخل أريج،
والإشراف على خدمة مجتمع أريج فيما يحتاج إليه من تدريبات ومعرفة وغيرها. هذا الفريق يجمع ما بين
الخبرات التحريرية، والإدارية، والتقنية، ويهدف إلى الاطلاع بشكل موسع على آلية العمل والتواصل بين
الأقسام المختلفة كل في إطار عمله، وكيف يمكن لأدوات وتطبيقات الذكاء الاصطناعي أن تستخدم للربط بين
مهامها بدلاً من أن يعمل كل فرد أو فريق بمعزل عن الآخرين.
يُعدّ الانفتاح نحو التعاون، من أبرز المتطلبات للنجاح في تطبيق الذكاء الاصطناعي، داخل الوسيلة الإعلامية. قد تتعاون الوسائل الإعلامية مع بعضها البعض؛ للعمل على أداة قائمة على الذكاء الاصطناعي، لمواجهة تحدٍ مشترك. كما قد تتعاون المؤسسة الإعلامية مع الجامعات و/أو الشركات الناشئة في ذلك؛ ما سيوفر لها العديد من الخبرات المختلفة، والأفكار المتنوعة والإمكانيات الأكبر للعمل.
التعاون ليس مجرد كلمة، إنه ضرورة. من غير الطبيعي، أن تمتلك أي مؤسسة إعلامية كل المعارف والمهارات والموارد اللازمة، لتطبيق الذكاء الاصطناعي بمفردها. يُعدّ العمل عبر الأقسام أو بين المؤسسات الإعلامية أو مع شركاء خارجيين، مثل الجامعات أو الشركات الناشئة أو شركات التكنولوجيا، طريقة رائعة لتسريع التنمية.
قبل تطوير استراتيجيتها الخاصة بالذكاء الاصطناعي، تعاونت "أريج" مع جامعة "أكسفورد" في تطوير أداة تساعد على البحث في الصور والمستندات، من خلال استخدام الذكاء الاصطناعي.
خلال تطوير استراتيجيتها الخاصة بالذكاء الاصطناعي، اختارت "أريج" التعاون مع خبيرين في الذكاء الاصطناعي من خارج المؤسسة، بالإضافة إلى تجارب الفريق، وتغطية كل الجوانب التكنولوجية الخاصة بالاستراتيجية.
وخلال عامي 2023 و2024، تعاونت أريج مع مؤسسات عديدة في تقديم حلول وأدوات باللغة العربية لدعم العمل الصحفي. مثل Full Fact وPolislSE في بريطانيا، Botalite في إسبانيا، وغيرها.
ولإبراز رغبتها في التعاون، تقدم "أريج" استراتيجيتها هذه، لكل المؤسسات الإعلامية الصغيرة والمتوسطة، للاستفادة منها. كما تستمر أريج في تقديم خدمات التدريب في الذكاء الاصطناعي للمؤسسات الإعلامية، مؤسسات تدقيق المعلومات، الصحفيين/ ات ومدققي/ ات المعلومات.
يجب أن تمتثل أنظمة الذكاء الاصطناعي في المؤسسات الإعلامية لقواعد حوكمة البيانات والخصوصية. يجب أن تضمن المؤسسات الإعلامية ممارسات جمع البيانات وتخزينها ومعالجتها واستخدامها بشكل مناسب. تؤكد "أريج" التزامها باللائحة العامة لحماية البيانات (GDPR) في تطبيق استراتيجيتها الخاصة بالذكاء الاصطناعي.
يجب على المؤسسات الإعلامية وضع مبادئ توجيهية أخلاقية، لاستخدام الذكاء الاصطناعي. يجب أن تتناول هذه الإرشادات المخاوف المتعلقة بالتحيز، والإنصاف والشفافية والمساءلة، في عملية صنع القرار في مجال الذكاء الاصطناعي؛ كما يجب على المؤسسات أن تراقب وتقيم نتائج أنظمة الذكاء الاصطناعي بشكل مستمر. طورت أريج في عام 2024 المبادئ الأخلاقية الخاصة باستخدام فريقها ومجتمعها للذكاء الاصطناعي، كما حدثتها في عام 2025 بناءً على تجربتها.
ملاحظة: تخصص "أريج" محوراً خاصاً في الاستراتيجية بالأخلاقيات، كما تمتلك مدونة مبادئ خاصة، وسياسة خاصة بالعدالة الجندرية، وسياسة خاصة بالأمن الرقمي، تُأخذ جميعها في الحسبان، خلال تطبيق استراتيجية الذكاء الاصطناعي.
يتطور مجال الذكاء الاصطناعي بسرعة كبيرة، خاصة مع ظهور خوارزميات وتقنيات جديدة بشكل متسارع، ويمكن اعتبار الثورة التي يحدثها ChatGPT دليلاً على ذلك. يجب على المؤسسات الإعلامية تعزيز ثقافة التعلم المستمر والتكيف لمواكبة تطورات الذكاء الاصطناعي. من دون القيام بذلك، لن تستطيع المؤسسة مواكبة هذا التطور السريع والاستفادة منه.
يتطلب تنفيذ استراتيجية الذكاء الاصطناعي في المؤسسات الإعلامية ميزانية مخصصة. كيف يمكن للمؤسسات الإعلامية العربية الحصول على هذا التمويل؟:
من يمكن أن يموّل عملية استخدام الذكاء الاصطناعي داخل المؤسسة الإعلامية؟ إليكم/ ن بعض النماذج:
أثر الذكاء الاصطناعي في مهنة الصحافة والإعلام
منذ دخول الذكاء الاصطناعي عالم الإعلام، يدور جدال مستمر، حول الأثر السلبي الذي قد يحدثه في المجال.
تدور عدة نقاشات حول تقليص دور الصحفي، وخسارة الصحفيين/ ات لعملهم/ ن، وإضعاف البعد الإنساني في العمل
الصحفي، وتحديات حقوق الملكية الفكرية، بالإضافة إلى تفشي المعلومات الخاطئة والمضللة، وكلها مخاوف
تستحق النقاش والتحليل.
الأكيد، أن الذكاء الاصطناعي لم يأتِ ليأخد مكان الصحفي/ ة في عمله/ ها؛ بل لدعم مسار عمله، تطويره،
توفير الوقت والجهد، ومنح الصحفي/ ة الوقت للتركيز على قصص وتحقيقات أكثر تعقيداً. في النهاية، لم يخلق
الذكاء الاصطناعي من العدم، ولا يمكن له أن يعمل وحده، لأنه صُنع عن طريق الإنسان، ويجب أن يُراقب
ويُقيم ويُطور وتُراجع نتائجه من قبل العنصر البشري.
من المهم التأكيد على أن الإعلام لا يحتاج اليوم إلى آلة تكتب تحقيقاً استقصائياً، أو روبوت يذيع نشرة
أخبار؛ بل يحتاج إلى:
يقول ماتيا بيريتي، المدير السابق لفريق "JournalismAI" في كلية لندن للاقتصاد والعلوم السياسية، أن "شيئاً أساسياً يتغير في صناعة الأخبار. تشجع الفرص التكنولوجية الجديدة التفكير في المعنى الأعمق في مهمة الصحافة، فضلاً عن شكل صناعة الأخبار وأخلاقياتها في عصر الذكاء الاصطناعي. نتيجة لذلك، يدرك الكثيرون الحاجة الملحة لاستكشاف حلول مبتكرة للحفاظ على عمل الأخبار".
الذكاء الاصطناعي في الإعلام مستمر في التطور، والأهم من الجدال حول تأثيراته السلبية، هو معرفة كيفية استغلاله والاستفادة منه لصالح العمل الصحفي. قد يعيد الذكاء الاصطناعي تشكيل الصحافة قريباً، مما سيطرح العديد من التساؤلات حول الهدف والمغزى من العمل الصحفي، وما الذي تحتاج المؤسسات الإعلامية إلى الاستغناء عنه من جهة، والتركيز عليه من جهة أخرى. تعمل "أريج" من خلال استراتيجيتها على الإجابة على كل هذه الأسئلة.
توحيد المفاهيم حول الذكاء الاصطناعي في المؤسسات الإعلامية
الهدف الرئيسي لاستخدام الذكاء الاصطناعي داخل المؤسسة الإعلامية هو للمساهمة في حل ومواجهة تحديات معينة تؤثر سلباً على الإنتاج أو تسهم في إبطاءه. لا نسعى لأن نستبدل الصحفي بالذكاء الاصطناعي، أو أن يقوم هو بأغلب مهامه، بل نسعى لأن يدعمه ويسانده ليتيح له مجالاً أكبر لتقديم قصص أكثر عمقاً وتعقيداً.
من الضروري أن تتفق كل المؤسسات الإعلامية العربية على هذا الهدف، وهو يحتم علينا الاتفاق أيضاً على أمر أساسي: "ابدأ دائماً من تحدياتك!".
حدد التحدي، حدد أثره، ثم حدد كيف يمكن للذكاء الاصطناعي أن يساعدك به. مثلاً، إن كانت المؤسسة تواجه مشكلة حقيقية في ضعف الوصول إلى الجمهور، من الضروري أن تستغل أدوات الذكاء الاصطناعي التي تساعد في تعزيز الوصول إلى الجمهور أو أن تطور أداةً لذلك.
يجب على المؤسسات الإعلامية العربية أن تأخذ بعين الاعتبار أيضاً، أن عراقيل كثيرة قد تواجهها خلال عملية تطبيق الذكاء الاصطناعي في غرفة أخبارها. نستعرض لكم/ن هذه العراقيل، وما هي الحلول التي ارتأتها "أريج" لها:
نضيف على هذه النقاط الخمسة، نقطة أساسية جداً، كانت جوهر نقاش "أريج" مع 5 مؤسسات إعلامية مختلفة خلال بناء استراتيجيتها:
ولأن "أريج" تدرك أن الذكاء الاصطناعي ليس أولوية لدى المؤسسات الإعلامية العربية، كانت هذه الاستراتيجية نقطة انطلاق لهم في عالم الذكاء الاصطناعي.
أهم استخدامات الذكاء الاصطناعي في القطاع الإعلامي
يمكن للذكاء الاصطناعي أن يدعم ويساعد وسائل الإعلام في 4 اتجاهات أساسية، وهو ما ركزت "أريج" عليه خلال بناء استراتيجيتها. كيف ولماذا؟ نستعرض ذلك في هذا المحور.
غالباً ما تقوم المؤسسة الإعلامية بجمع وفرز البيانات بانتظام؛ لاستنتاج أحداث معينة أو رواية قصة معينة، أو للانخراط مثلاً في عملية تدقيق المعلومات. يمكن أن يؤدي الذكاء الاصطناعي دوراً مهماً جداً في جمع البيانات والأخبار، وتسهيل هذا الدور الصعب والمستهلك للوقت، الذي يقوم به الصحفيون/ ات ومدققو/ ات المعلومات.
كيف يمكن أن يساعد الذكاء الاصطناعي في هذه المرحلة:
غالباً ما تقوم المؤسسة الإعلامية بإنتاج القصص بانتظام من البيانات المنظمة، وكتابة المقالات، وتحريرها، وتحويل النص إلى صوت، وتصميم القصص وغيرها… يمكن أن يؤدي الذكاء الاصطناعي دوراً مهماً في مختلف جوانب إنتاج المضمون الصحفي؛ ما يعزز الكفاءة والدقة.
كيف يمكن أن يساعد الذكاء الاصطناعي في هذه المرحلة:
تهتم المؤسسات الإعلامية غالباً يقياس أثر محتواها المنشور، وخاصة تتبع الآثار المرتبطة بصنع القرار
أو التأثير على الرأي العام أو التي ترصد مشكلة محددة للتأكد من قوة تأثير المحتوى المنشور.
يمكن أن يؤدي الذكاء الاصطناعي دوراً أساسياً في تتبع النشر وتوزيع المحتوى، من خلال تتبع الكلمات
المفتاحية ومدى انتشارها جغرافياً او عبر منصات النشر الأخرى.
كيف يمكن أن يساعد الذكاء الاصطناعي في هذه المرحلة:
تحتاج المؤسسة الإعلامية غالباً إلى الحصول على توصيات أفضل للمواضيع التي يجب أن تركز عليها أو
التي تجذب الجمهور أكثر، للإعلانات ذات الصلة أو الصفحات المقصودة المخصصة.
يمكن أن يلعب الذكاء الاصطناعي دوراً أساسياً في نشر وتوزيع المحتوى من خلال تحسين التخصيص واستهداف
الجمهور.
كيف يمكن أن يساعد الذكاء الاصطناعي في هذه المرحلة:
مثل أي مؤسسة أخرى، تخضع المؤسسات الإعلامية لعمليات مختلفة داخلية، ولإدارة أعمال تتضمن تنظيم جوانب العمل المختلفة، وتقديم المشاريع، وتحليل الميزانيات وغيرها. يمكن للذكاء الاصطناعي أن يؤدي دوراً كبيراً في تيسير كل هذه المهام.
كيف يمكن أن يساعد الذكاء الاصطناعي في هذه المرحلة:
الشراكات بين المؤسسات الإعلامية وقطاع التكنولوجيا
يؤكد تقرير Journalism Al العالمي الصادر عام 2019 بعنوان "قوى جديدة، مسؤوليات جديدة. مسح عالمي للصحافة والذكاء الاصطناعي" أن العلاقة بين المؤسسات الإعلامية وشركات التكنولوجيا متناقضة في مجال الذكاء الاصطناعي. توفر شركات التكنولوجيا هذه معظم الأدوات القائمة على الذكاء الاصطناعي التي تستخدمها غرف الأخبار، مما يترك الصحفيين دون سيطرة على هذه التكنولوجيا. لكن إذا كانت هذه الأدوات تتماشى مع الأولويات الصحفية والمصلحة العامة، فإن العلاقة بين شركات التكنولوجيا والمؤسسات الإخبارية تصبح ضرورية.
إن الحل الأساسي لهذه المعضلة، هو الشراكات بين المؤسسات الإعلامية وقطاع التكنولوجيا. يجب أن تحسن المؤسسات الإعلامية علاقتها ليس فقط مع شركات التكنولوجيا الكبرى التي قد توفر تمويلاً لجهودها في الذكاء الاصطناعي، بل مع الشركات الإقليمية والمحلية. لماذا؟:
البُعد الأخلاقي للذكاء الاصطناعي في العمل الصحفي
استخدام الذكاء الاصطناعي داخل وسائل الإعلام العربية، لن يغيّر من حقيقة أن المبادئ الصحفية الأساسية، لا يجب أن تتغير أو تتجزأ، وأبرزها:
تؤكد "أريج" في مدونة مبادئها الداخلية، على أنها تعمل "بما يخدم المصلحة العامة وتحافظ على استقلاليتها عن الحكومات والشركات الربحية والجهات المانحة والمنظمات السياسية. أريج لا تنتهك في سياق عملها الإنسان الأساسي حقوق أي إنسان، كما تراعي القيم الأخلاقية والدين والعادات والتقاليد وثقافة المجتمعات التي تعمل بها".
كل هذه المبادئ - من دون استثناء - يجب الحفاظ عليها مع استخدام الذكاء الاصطناعي الذي خلق الكثير من المخاوف الأخلاقية داخل وسائل الإعلام، أبرزها:
أعلنت "الغارديان" البريطانية بتاريخ 16 حزيران/يونيو 2023، نهجها في استخدام الذكاء الاصطناعي التوليدي، مؤكدةً في ثلاث مبادئ أساسية، كيف ستستخدم الذكاء الاصطناعي التوليدي في عملها:
-
أعلنت "بي.بي.سي" عام 2024، عن تحديثات حول خططها لاستخدام أدوات الذكاء الاصطناعي بشكل مسؤول،
مؤكدةً أنها ستركز على"التصرف دائماً في مصلحة الجمهور، إعطاء الأولوية دائماً للموهبة والإبداع،
الشفافية المطلقة مع الجمهور عند استخدام الذكاء الاصطناعي لدعم صناعة المحتوى".
-
أعلنت وسائل إعلام سويدية مجتمعةً في عام 2024، عن تعاونها لضمان شفافية استخدامها للذكاء
الاصطناعي، مطلقةً سبع توصيات أساسية حول متى وكيف يجب إعلام مستهلكي وسائل الإعلام السويدية حول
استخدام الذكاء الاصطناعي في إنتاج المحتوى.
من خلال هذه الاستراتيجية، نستعرض أبرز الحلول التي يمكن اتباعها؛ لضمان الحفاظ على الأخلاقيات المهنية، والتخفيف من المخاطر خلال استخدام الذكاء الاصطناعي:
الخصوصية
بخصوص انتهاك الخصوصية: يعتمد الذكاء الاصطناعي على كميات هائلة من البيانات، بما في ذلك معلومات المستخدم الشخصية، لأداء مهام مختلفة، مثل التخصيص والتحليلات. يجب على المؤسسات الإعلامية التعامل مع بيانات المستخدم بمسؤولية كبيرة، والالتزام بلوائح الخصوصية، والحصول على موافقة من المستخدمين فيما يتعلق بجمع البيانات واستخدامها. هذا ما تقوم به أريج، مع تأكيد التزامها باللائحة العامة لحماية البيانات (GDPR).
التحيز
بخصوص التحيز في البيانات: يجب أن تتأكد المؤسسات الإعلامية من أن أدوات الذكاء الاصطناعي يتم تصميمها وتدريبها واختبارها؛ للتخفيف من التحيز وتعزيز الإنصاف، وليس العكس. هنا، من المهم التشديد على التأكد من دقة البيانات قبل استخدامها في تطوير أدوات قائمة على الذكاء الاصطناعي، وضرورة مراقبة ومراجعة النتائج، التي تنتجها هذه الأدوات من قبل العنصر البشري.
نشر المعلومات الخاطئة
بخصوص نشر المعلومات الخاطئة: بينما يمكن استخدام الذكاء الاصطناعي لمكافحة المعلومات الخاطئة، هناك أيضاً مخاوف من قيام الذكاء الاصطناعي بنشر أو تضخيم معلومات خاطئة عن غير قصد. يجب على المؤسسات الإعلامية، تشديد منهجيتها في تدقيق المعلومات ما قبل النشر وبعده، والتحقق من صحة المحتوى الذي أُنشأ بواسطة الذكاء الاصطناعي، مع الحفاظ على الرقابة البشرية؛ لضمان الدقة وتجنب نشر المعلومات المضللة. تقوم "أريج" بتعزيز ذلك من خلال "الشبكة العربية لمدققي المعلومات" (AFCN).
خسارة الوظائف
بخصوص خسارة الوظائف: قد يؤدي اعتماد الذكاء الاصطناعي، داخل المؤسسات الإعلامية، إلى الاستغناء عن بعض الوظائف؛ ما يثير الكثير من المخاوف بشأن مستقبل التوظيف في صناعة الإعلام. يجب على المؤسسات الإعلامية معالجة هذه المخاوف بشكل استباقي، من خلال توفير التدريب والدعم للصحفيين لتطوير مهارات جديدة، والتكيف مع الأدوار المتغيرة. من المهم جداً، أن يكون فريق العمل داخل المؤسسة الإعلامية جزءاً من ثورة الذكاء الاصطناعي؛ كما فعلت أريج خلال تطوير استراتيجيتها. إيمان الفريق الكامل بأهمية استخدام الذكاء الاصطناعي في الإعلام، هو الحل الأول لهذه المشكلة. كما تسعى "أريج" إلى تطوير مهارات فريق عملها بشكل مستمر؛ خاصة في المهارات التكنولوجية والمتعلقة بالبيانات.
المساءلة والمحاسبة
بخصوص ضعف المساءلة والمحاسبة: من أكثر الأسئلة المطروحة اليوم، في حال أخطأت الآلة، مَن يتحمل المسؤولية؟ الذكاء الاصطناعي أم المؤسسة الإعلامية؟ تحتاج المؤسسات الإعلامية إلى الانتباه إلى كل العواقب المحتملة، وتقييم تأثير أدوات الذكاء الاصطناعي على عملها بانتظام، وتحمل المسؤولية الكاملة عن نتائج استخدامها للذكاء الاصطناعي. يجب أن تلتزم المؤسسة الإعلامية، بالإعلان لجمهورها عن أي خطأ، ينتج عن استخدام الذكاء الاصطناعي، والتراجع عنه وتصحيحه.
في عام 2016، أنشأت صحيفة "نيويورك تايمز" ما يسمى بـ "مقياس الانتخابات"، الذي توقع فوز هيلاري
كلينتون بنسبة 91%؛ لكن المفاجأة كانت فوز دونالد ترامب بالإنتخابات. اعترفت الصحيفة بذلك حينها،
ونشرت مقالاً تحليلياً بعنوان: "كيف أخفقت البيانات في توقع نتيجة الانتخابات؟".
-
بخصوص خرق حقوق الملكية الفكرية: تحتاج المؤسسات الإعلامية إلى الإفصاح عن استخدام الذكاء الاصطناعي
في عملها، وأن يكون ذلك واضحاً أمام الجمهور وأمام المؤسسات الأخرى. يجب أن تكون هناك تسميات واضحة
لطريقة استخدام الذكاء الاصطناعي خصوصا ً في الإطار التوليدي، لإعطاء كل ذي حق حقه، ولمنع انتشار
التضليل أو المعلومات/ الصور المضللة بحسب السياق المستخدمة فيه.
تحتاج كل هذه الحلول إلى تقييم مستمر لمدى فعاليتها، ويمكن أن تتغير وتتبدل مع تطور الذكاء الاصطناعي، وتطور استخدامه داخل المؤسسة.
طورت "الإذاعة البافارية" (BR) عشرة إرشادات أخلاقية لاستخدام الذكاء الاصطناعي، ترتكز على: مصلحة المستخدم، والشفافية، والتنوع، وثقافة البيانات الواعية، والتخصيص المسؤول، والتحكم التحريري، والتعلم السريع، والشراكات، واكتساب المواهب والمهارات، والانعكاس متعدد التخصصات.
تتطلب معالجة كل المخاوف الأخلاقية نهجاً استباقياً واضحاً، يرتكز على الالتزام بالمبادئ الأخلاقية الإعلامية، وتطوير الوعي بالذكاء الاصطناعي، وإجراء عمليات تدقيق منتظمة لأدوات الذكاء الاصطناعي، وتفعيل وتطوير عملية تدقيق المعلومات، وتعزيز التعاون بين فريق العمل ومع المؤسسات الأخرى، والتقييم الدائم للعمل والانفتاح الدائم على التغيير.
في عام 2024، وكجزء من تطوير استراتيجيتها، طورت أريج دليل أخلاقيات/ مبادئ استخدام الذكاء الاصطناعيّ، وكيفية تعامل كل أقسامها معه أخلاقياً، متخذةً قرارات حاسمة فيما يتعلق بالتزام فريق عملها ومجتمعها بهذه المبادئ.
ملاحظة مهمة: تنصح "أريج" كل المؤسسات الإعلامية بنشر "المنهجية" و"البيانات" التي عملت عليها في تطوير أي أداة/ نظام/ قصة قائمة على الذكاء الاصطناعي؛ لأن ذلك سيعزز من الشفافية ويزيد من ثقة الجمهور بالمؤسسة.
المخاطر الأمنية المرتبطة بالذكاء الاصطناعي
التصيد الاحتيالي والتلاعب بالمعلومات
يمكن للذكاء الاصطناعي توليد رسائل بريد إلكتروني ورسائل نصية احتيالية ذات مستوى عالٍ من الإقناع، مما يزيد من احتمالية تعرض الصحفيين والعاملين في المجال الإعلامي لمحاولات اختراق وسرقة بياناتهم. كما يمكن استخدام تقنيات الذكاء الاصطناعي التوليدي لإنشاء رسائل تصيد يصعب تمييزها عن الرسائل الحقيقية.
التزييف العميق (Deepfake)
تتيح تقنيات التزييف العميق إنشاء فيديوهات وصوتيات مزيفة بدقة عالية، مما قد يُستخدم لنشر معلومات مضللة أو تشويه سمعة الصحفيين من خلال تصريحات ملفقة.
المراقبة الرقمية والتتبع
تُستخدم أنظمة الذكاء الاصطناعي في تحليل البيانات وتحديد الأفراد عبر تقنية التعرف على الوجه ومراقبة النشاط الرقمي. يشكل ذلك تحديًا لخصوصية الصحفيين والعاملين في المجال الإعلامي، حيث يمكن أن يُستغل لتعقب تحركاتهم وأنشطتهم عبر الإنترنت.
الهجمات المتقدمة على الأنظمة
يستطيع المهاجمون استغلال تقنيات التعلم الآلي لتحليل أنماط الأمان وكشف الثغرات الأمنية بسرعة تفوق الطرق التقليدية. يؤدي ذلك إلى تطوير هجمات أكثر تعقيدًا وقدرة على التكيف مع إجراءات الحماية.
آليات الحماية والاستجابة
1
تعزيز الوعي الأمني
2
استخدام تقنيات مضادة للذكاء الاصطناعي
3
تشفير البيانات الحساسة
4
التدقيق الأمني المستمر
5
التعاون مع خبراء الأمن السيبراني
الذكاء الاصطناعي كأداة لتعزيز الأمن السيبراني
على الرغم من التحديات التي يفرضها الذكاء الاصطناعي، فإنه يمكن أن يكون عنصرًا فعالًا في تعزيز الأمن السيبراني من خلال:
يتطلب التعامل مع التحديات الأمنية في عصر الذكاء الاصطناعي نهجًا استباقيًا يوازن بين الاستفادة من إمكانياته في الحماية، والتصدي لمخاطره المحتملة. لذلك، يجب على المؤسسات الإعلامية الاستثمار في الأمن السيبراني كأولوية استراتيجية، من خلال تطبيق الحلول التقنية المتقدمة، وتعزيز الوعي الأمني، والتعاون مع خبراء الحماية الرقمية لضمان أمن وسلامة بياناتها وأفرادها.
إدارة المخاطر
هناك 4 استراتيجيات رئيسية لتخفيف المخاطر عند الدخول في أي مشروع جديد :
بعد دراسة معمقة، توصلت "أريج" إلى أن كل المخاوف من استخدام وتطوير الذكاء الاصطناعي، يمكن تداركها من خلال اعتماد استراتيجيتيْ قبول المخاطر، وتحديد المخاطر.
أولاً، يجب أن نتقبل فكرة أن الدخول في عالم الذكاء الاصطناعي ليس سهلاً، وأن العديد من المخاطر قد تواجهنا. أن نفهم تحدياتنا جيداً، وكيف يساعدنا الذكاء الاصطناعي في حلها. تقبل المخاطر، يسهل التعامل معها حال وقوعها، ويعزز استعدادنا الكامل لتحمل المسؤولية والمواجهة. واليوم، مع التطور المتسارع الذي تشهده تقنيات الذكاء الاصطناعي التوليدي تتشكل داخل غرف الأخبار ظاهرة تعرف بـ Generative AI Hype (حماس استخدام الذكاء الاصطناعي التوليدي)، وهي ظاهرة مؤقتة، تجعل استخدام الذكاء الاصطناعي في المؤسسة وكأنه العصا السحرية التي ستحل التحديات المتعلقة بالإنتاجية بصورة عامة. هذا الأمر قد يجعل من عملية الاستثمار في الذكاء الاصطناعي على المدى الطويل غير مجد بسبب
ثانياً، من الضروري جداً، أن نحدد بوضوح، كل المخاطر التي قد تواجهنا، وأن نحدد حلاً مقترحاً لها. ومن أبرز هذه الحلول، الشفافية الدائمة، والاعتراف بالخطأ وتصحيحه، واعتماد آلية واضحة للمراجعة البشرية، وتدقيق المعلومات.
من الضروري أيضاً على المؤسسات الإعلامية العربية، أن تدخل في النقاشات، حول تطوير الأطر التنظيمية الخاصة بالذكاء الاصطناعي في الصحافة. يجب أن نشارك في هذه النقاشات؛ لنسهم في تشكيل السياسات، التي تعالج كل المخاوف والعراقيل من استخدام الذكاء الاصطناعي.
الرصد والتقييم
يُعدّ الرصد والتقييم من الأساسيات التي يجب الالتزام بها، خلال تطوير أي أداة/ نموذج ذكاء اصطناعي، وذلك لعدة أهداف:
ومن هذا المنطلق، وحتى لا يكون اسخدام أدوات الذكاء الاصطناعي في غرف الأخبار مستنداً إلى عامل "الانبهار بالنتائج"، جيب التركيز على أن تكون غرفة الأخبار "مدفوعة بالبيانات والتحليلات". يمكن لكل غرفة أخبار أن تقوم بذلك من خلال الخطوات الأربعة التالية:
وإذا ما غصنا بشكل أعمق في رصد المؤسسات الإعلامية لاستخدام الذكاء الاصطناعي وتقييمها له، فيمكن القيام بذلك من خلال:
إن الرصد والتقييم سيساعد المؤسسة على التطوير، لضمان النجاح والتحسين المستمر لأداة الذكاء الاصطناعي. ومن المهم، الإشارة إلى ضرورة عرض نتائج التقييم على الجهات المستفيدة من الأداة، وعلى الشركاء أو المؤسسات التي تتعاونون معها.
بدأت رحلة "أريج" مع الذكاء الاصطناعي من خلال ما يسمى بال "AI literacy". في عام 2021، شاركت مديرة الشبكة العربية لمدققي المعلومات من أريج، سجى مرتضى، في "أكاديمية الذكاء الاصطناعي للصحافة"، التي ينظمها مركز أبحاث الصحافة في كلية لندن للعلوم الاقتصادية والسياسية. انتقل الوعي بالذكاء الاصطناعي إلى فريق أريج بعدها كاملاً، وإلى مجتمع "أريج" من صحفيين/ ات ومدققي/ ات معلومات من خلال:
بالإضافة إلى كل ذلك، يستخدم فريق "أريج" منذ سنوات، العديد من الأدوات القائمة على الذكاء الاصطناعي.
بداية دخول أي وسيلة إعلامية عالم الذكاء الاصطناعي، يجب أن يكون من خلال الوعي بالذكاء الاصطناعي وتطبيقاته. لماذا؟
كيف يمكن للمؤسسات الإعلامية العربية نشر الوعي بالذكاء الاصطناعي؟
للأسف، لا يزال الوعي بالذكاء الاصطناعي في مجتمع الإعلام العربي ضعيفاً جداً، وتظهر الفجوة بوضوح بينه وبين مناطق أخرى من العالم. تأخذ "أريج" على عاتقها، نشر الوعي بالذكاء الاصطناعي وباللغة العربية، لدى المؤسسات الإعلامية العربية، الصحفيين/ ات، المحررين/ ات ومدققي/ ات المعلومات، وهذه الاستراتيجية هي فقط البداية.
صندوق الأدوات
نقدم في أريج، وكجزء من هذه الاستراتيجية، صندوق الأدوات التي تعتمد بشكل كامل على الذكاء الاصطناعي،
أو في جزئية محددة منها. يمكن لمتصفح هذا الصندوق تحديد نوع المهمة المطلوبة من أدوات الذكاء الاصطناعي
للاطلاع على قائمة الأدوات القادرة على أداء هذه المهمة. من خلال هذه القائمة، تم أيضا تحديد بعد
الخصائص الأساسية لكل أداة، مثل الشركة الأم، وما إذا كانت تدعم اللغة العربية، ومدى توافقها مع سياسات
الخصوصية.
منهجية قياس الوعي بالذكاء الاصطناعي
يمكن قياس الوعي بالذكاء الاصطناعي من خلال:
يجب الاستمرار في قياس الوعي بالذكاء الاصطناعي، خاصة مع تطويره السريع. اختيار المنهجية يعتمد على
الأهداف المحددة، والجمهور المستهدف، والموارد المتاحة.
كيف قامت "أريج" بذلك خلال بناء استراتيجيتها:
خارطة طريق: كيف ستنفذ "أريج" استراتيجيتها؟
الهدف من هذه الاستراتيجية، ليس إدخال "أريج" فقط إلى عالم الذكاء الاصطناعي، بل كل المؤسسات
الإعلامية العربية الصغيرة والمتوسطة، التي تكافح لتستمر في العمل رغم كل الظروف الصعبة.
هذه الاستراتيجية، هي خارطة طريق ستوجه "أريج" وهذه المؤسسات خلال العامين المقبلين. ستخضع هذه
الاستراتيجية للتقييم والتطوير بعد عامين، بناءً على التغيرات التي ستطرأ على عالم الذكاء
الاصطناعي، وبناءً على النتائج التي ستتوصل إليها "أريج"، من تبنيها للذكاء الاصطناعي في عمليات جمع
البيانات، والإنتاج والنشر.
كيف ستنفذ "أريج" استراتيجيتها خلال العامين المقبلين؟ وما الذي ستركز عليه:
نشر الوعي حول الذكاء الاصطناعي لدى مجتمعها من صحفيين/ ات ومدققي/ ات معلومات، من خلال برامج تدريبية مختلفة.
دعم المؤسسات الإعلامية الصغيرة والمتوسطة في دخول عالم الذكاء الاصطناعي.
تعزيز استخدام فريقها لأدوات مدعومة بالذكاء الاصطناعي.
تعريب بعض الأدوات المدعومة بالذكاء الاصطناعي؛ لإتاحتها للنطاقين باللغة العربية.
تطوير بعض الأدوات، التي ستسهل عمل فريق "أريج"، وكل الصحفيين/ ات ومدققي/ ات المعلومات في العالم العربي.
المشاركة في النقاش حول دور وتأثير الذكاء الاصطناعي على قطاع الإعلام.
التعاون مع مؤسسات إعلامية أخرى، جامعات وشركات ناشئة؛ لتطوير حلول قائمة على الذكاء الاصطناعي، والاستفادة من خبرات مختلفة.
استكمال رحلة التعلم والتعرف على الذكاء الاصطناعي، وكيف يمكننا الاستفادة منه قدر المستطاع.
محاربة التضليل والمعلومات الخاطئة، المولدة بالذكاء الاصطناعي، من خلال تدريب مدققي/ ات المعلومات على أحدث الأدوات.
تطوير الاستراتيجية، بناءً على التقييم والدروس المستفادة، خلال عامين من التنفيذ.
كيف ستقيم "أريج" نجاح استراتيجيتها؟
تماشي الاستراتيجية مع الأهداف العامة للمؤسسة، وتقديمها نتائج قابلة للقياس، مثال: زيادة مشاركة المستخدمين، وانخفاض بعض التكاليف، وتبسيط بعض العمليات، وارتفاع الوعي بالذكاء الاصطناعي باللغة العربية…
قبول ورضا جمهور "أريج" عن المحتوى الذي يقدمه الذكاء الاصطناعي.
قدرة الاستراتيجية وتنفيذها على استيعاب التغيرات المتسارعة في عالم الذكاء الاصطناعي.
الاستمرارية في التعلم والتطوير، رغم كل التحديات التي نواجهها في العالم العربي.
القدرة على مواجهة أي تحديات أو عراقيل خلال تنفيذ الاستراتيجية بنجاح.
النجاح في الالتزام بكل المعايير الأخلاقية من دون أن تنازلات.
بناء نظام داخلي للتقييم المستمر لاستخدام الذكاء الاصطناعي داخل أريج، وهذا قابل للتطبيق في حال كانت غرفة الأخبار تعتمد على البيانات والتحليلات في اتخاذ قراراتها وتطوير استراتيجيات العمل لديها.
كيف يمكن لغرف الأخبار الصغيرة والمتوسطة استخدام هذه الاستراتيجية؟
لم تعمل أريج على تطوير هذه الاستراتيجية لتطبيقها فقط داخل المؤسسة، وإنما حتى تكون أيضاً مورداً مهماً للعاملين/ ات في غرف الأخبار العربية الصغيرة والمتوسطة لإدخال الذكاء الاصطناعي في عملها. لذلك، من المهم بداية المزج ما بين:
تحديد أبرز التحديات التي تواجه العاملين/ ات في غرفة الأخبار لكل مؤسسة - والتي يمكن أن تتشابه مع ما ذكر أعلاه من تحديات، ولكن يمكن أن تتجاوز ذلك إلى تحديات أخرى.
تحديد الفجوات التقنية والمعرفية فيما يتعلق باستخدامات الذكاء الاصطناعي بين أفراد الفريق من أجل تطوير ثقافة استخدام الذكاء الاصطناعي ودمجه في العمل اليومي للفريق، إضافة إلى تدريبهم بشكل مستمر على التعامل مع الأدوات والتطبيقات المختلفة كل في مجاله مع الأخذ بعين الاعتبار الجوانب الأمنية والأخلاقية.
تحديد ما الذي تحتاج المؤسسة إلى استخدام الذكاء الاصطناعي فيه ولماذا.
تحديد المخاطر الأخلاقية من استخدام الذكاء الاصطناعي.
تحديد الآثار المحتملة لاستخدام الذكاء الاصطناعي.
الملاحق
مصادر مهمة عن الذكاء الاصطناعي في الإعلام: