Jannah Theme License is not validated, Go to the theme options page to validate the license, You need a single license for each domain name.
تكنولوجيا

تحقيق للجزيرة نت يكشف توليد “تشات جي بي تي” روابط مزيفة ونسبها لموقع الجزيرة

استحوذ روبوت المحادثة “تشات جي بي تي” (ChatGPT) على اهتمام المستخدمين من كل أنحاء العالم منذ إطلاقه من قبل شركة “أوبن إيه آي” (Opne AI) الناشئة نهاية نوفمبر/تشرين الثاني الماضي، وعُدّ -حسب المتخصصين– أسرع التطبيقات نموا في قاعدة المستخدمين خلال الأعوام الماضية، متفوقا على العديد من التطبيقات العملاقة مثل فيسبوك وتيك توك.

ونظرا لأهمية هذه التكنولوجيا والتوقعات الكبيرة بشأنها؛ سلطنا الضوء بشكل عملي على الخدمة الجديدة عبر عدة تقارير خاصة ومترجمة. ولأغراض التوثيق والمصداقية قمنا بالتسجيل في نسخة “تشات جي بي تي” المدفوعة حتى نستطيع القيام بالتجارب العملية والكتابة عن التقنية بشكل أكثر تفصيلا.

بداية تجربة الجزيرة من تشات جي بي تي الأكثر غرابة

وخلال إعدادنا مادة “بأمثلة عملية مع الجزيرة نت.. هكذا يمكن لروبوت “شات جي بي تي” مساعدتك في أعمالك” التي نشرناها في وقت سابق، والتي حاولنا خلالها معرفة إمكانات البرنامج بوصفه مساعدا شخصيا لزيادة إنتاجية الأفراد في حياتهم اليومية؛ وجدنا أن خدمة البحث في “تشات جي بي تي” تفتقر إلى عدد من الأمور المهمة في محركات البحث، وهو ما دفعنا للتوسع في البحث عن إجابة سؤال: هل يصلح “تشات جي بي تي” أن يكون محرك بحث في إعطاء المعلومات الصحيحة؟

في بداية التجربة طلبنا من روبوت المحادثة كتابة قصة قصيرة باستخدام أسلوب الكاتب المصري الشهير يوسف إدريس.

وكانت النتيجة القصة الواردة في الصورة أعلاه، ولكن عندما طلبنا منه ذكر بعض التفاصيل حول الكاتب ومؤلفاته التي استند إليها في كتابة القصة كانت المفاجأة! فالمعلومات الواردة من روبوت المحادثة لم تكن دقيقة، فقد ذكر أن الكاتب مغربي وأنه ولد في الدار البيضاء، وبعد ذلك طرحنا أسئلة عن شخصيات أخرى وكانت إجابته خاطئة أيضا.

طبعا هذه المعلومات البسيطة يستطيع أي أحد الوصول إليها بسهولة والتحقق منها، لكن الذكاء الاصطناعي فشل في ذلك، وكان من السهل علينا معرفة أنها معلومات خاطئة.

هنا انتقلنا لسؤال الروبوت عن مؤلفات يوسف إدريس وكتبه، وأعطانا قائمة بكتب وقصص لم يؤلفها الكاتب، ولا نعرف كيف نسبها الروبوت ليوسف إدريس، ومن بينها:

ومن هنا، أصبح لدينا التأكيد بأن مهمة البحث ليست أحد نقاط قوة روبوت المحادثة الجديد في الوقت الحالي.

مشكلة المصادر في “تشات جي بي تي”

يعلم الجميع أن “تشات جي بي تي” لا يزال تحت الاختبار، وأنه منتج غير كامل، وهذا الأمر تصرح به الشركة المطورة بشكل واضح لا لبس فيه، ولكن ما وجدناه واختبرناه تجاوز عمليات البحث الخاطئة والمعلومات الملفقة التي يقوم بها الروبوت ويأخذها الجمهور بنوع من التندر.

فقد وجدنا أن الروبوت لا يقوم فقط باختراع القصص والكتابة بأسلوب يشبه البشر في المواد الأدبية والمعلوماتية، بل تعدى ذلك لإنشاء مصادر غير موجودة لما يكتب، وهو الأمر الأكثر خطورة لأنه يفتح المجال لظهور التزييف العميق في مصادر الأخبار، التي تحظى بأهمية ربما تطغى على أهمية الخبر نفسه؛ ففي العمل الصحفي تعد مصادر المعلومات مقدسة، وهناك الكثير من القصص والأخبار الصحيحة التي تم تجاهلها بسبب الشك في مصادر المعلومات.

تجربة “الجزيرة نت” مع “تشات جي بي تي” خطوة بخطوة

نستعرض هنا الخطوات التي قمنا بها لتجربة مصداقية وفعالية “تشات جي بي تي”:

1- في البداية، طلبنا من “تشات جي بي تي” كتابة مادة عن حادثة “كامبريدج أناليتيكا” باستخدام مصادر من موقع الجزيرة نت.

2- كتب الروبوت مادة متناسقة معلوماتها صحيحة كما هو موضح في الصورة التالية:

3- طلبنا من الروبوت تزويدنا بالمصادر، وهنا ذكر عدة مصادر من موقع الجزيرة الإنجليزي، ولكن عند محاولة فتح الروابط وجدنا أنها تحيلنا إلى صفحات غير موجودة، مع أنها من حيث البنية صحيحة، كما هو موضح بالصورة أدناه:

وهنا الصفحة التي ذكرها “تشات جي بي تي” كمصدر من موقع الجزيرة باللغة الإنجليزية عندما قمنا بفتح الرابط:

وهذه الصفحة الوحيدة لموقع الجزيرة الإنجليزية بهذا التاريخ حول حادثة فيسبوك من محرك البحث غوغل:

4- بعدها طلبنا من روبوت المحادثة تزويدينا بمصادر عربية، فأرسل قائمة بعدة روابط لمواقع متعددة، والأمر نفسه تكرر لأن الروابط لم تعمل.

5- طلبنا بعد ذلك تزويدنا بمصادر من موقع الجزيرة نت، فأرسل مجموعة من الروابط وجميعها أيضا لا يعمل.

وهذه هي الروابط:

“كامبريدج أناليتيكا.. تعرف على الشركة المشبوهة”، الجزيرة، 22 مارس 2018. 

“فضيحة فيسبوك.. لماذا تحتاج الحكومات إلى المراقبة”، الجزيرة، 22 مارس 2018. 

“فيسبوك.. مزايا مجانية بثمن جمع البيانات الشخصية”، الجزيرة، 25 مارس 2018.

“الفيسبوك يتعهد بحماية البيانات بعد فضيحة كامبريدج أناليتيكا”، الجزيرة، 22 مارس 2018. 

“فضيحة كامبريدج أناليتيكا.. اعتذار من زوكربيرغ”، الجزيرة، 22 مارس 2018.

“فضيحة فيسبوك وكامبريدج.. أسئلة وإجابات”، الجزيرة، 22 مارس 2018. 

6- بعد التحقق من الروابط على غوغل، وعلى نظام النشر الخاص بالجزيرة نت، تبين بشكل قاطع أن هذه الروابط ملفقة وغير موجودة، وهذه هي المواد المنشورة بتاريخ 22 مارس/آذار 2018 على موقع الجزيرة نت الخاصة بحادثة “كامبريدج أناليتيكا”، كما هو موجود على نظام النشر الداخلي.

7- هنا بدأت المواجهة مع “تشات جي بي تي”، وسألناه بشكل مباشر: هل قمت بتأليف روابط المصادر؟ فأصر على أنه لا يقوم بتأليف المصادر، وأنه يتحرى الصدق والموثوقية، وأرجع السبب لموقع الجزيرة وسياسة التحرير.

لسنا الوحيدين

بعد هذه التجربة، اتجهنا لغوغل للبحث عن حوادث مشابهة (تأليف روابط مزيفة) قد تكون حدثت مع آخرين، ووجدنا في موقع “ريديت” (Reddit) الشهير بعض المستخدمين الذين يطرحون السؤال نفسه كما هو موضح في الصورة أدناه.

فقد أكد أحد المستخدمين أن “تشات جي بي تي” اختلق روابط لمصادر غير موجودة، وأيده مستخدم آخر قال إن روبوت المحادثة اختلق قائمة مراجع في عدة مناسبات ومع عدة مستخدمين.

 

 

خطورة الحادثة

طبعا بعد هذا أصبح من المؤكد لدينا أن “تشات جي بي تي” يزيف روابط المصادر لمواقع صحفية مشهورة، ويدعي أنه يأخذ المعلومات من هذه الروابط الوهمية.

ولا يندرج هذا الخلل في نطاق التحذير الذي نشرته شركة “أوبن إيه آي” حول “محدودية” الذكاء الاصطناعي وإمكانية أن يقوم بتزويد المستخدم بمعلومات خاطئة، وفقا لما يظهر في الصورة أدناه.

إن تزييف روابط المصادر لا يندرج ضمن هذه التحذيرات وهو أمر خطير، فربما يكون هذا مقبولا عندما يقوم الروبوت -على سبيل المثال- بإظهار معلومات خاطئة من قبيل أن “آيفون منتج لسامسونغ” مثلا، ولكن إذا كانت المعلومة صحيحة والمصدر ملفق كما حدث في تجربتنا السابقة، فإن الأمر يصبح خطيرا لعدة أسباب:

  1. من السهل على المستخدم التحقق من المعلومة في حالة كانت خاطئة، ولكن كيف يمكن أن يتحقق من المصدر إذا كانت الروابط لا تعمل وليس متأكدا من السبب؟ فهل يمكن أن يكون الموقع حذف الخبر فعلا؟ أو أن هناك خطأ تقنيا؟
  2. بنية الروابط المذكورة صحيحة ومطابقة لما هو مستخدم في المواقع، ولكن المشكلة في العناوين التي تأتي في نهاية الرابط، والتي من الواضح أنها ملفقة؛ مما يعطي انطباعا لدى المستخدم بأن الموقع ربما أزال المادة أو غيّر الرابط.
  3. تأكيد الروبوت أنه اعتمد على هذه الروابط وادعاؤه أن السبب هو إزالة الموقع الإعلامي الرابط والتغييرات التحريرية، وهو ما ظهر أنه غير صحيح؛ يمكن أن يقارن بالتضليل المتعمد عند البشر، فعندما يقول مراسل صحفي مثلا إنه استقى معلوماته من مصدر معين -حتى لو كانت المعلومات صحيحة- بينما هو يعلم أنه اختلق المصدر، فهذا يعد تضليلا متعمدا.
    ولذلك إذا اعتبرنا أن الروبوت يعلم كيف أتت هذه المصادر، وأنها من تأليفه، فإجابته لنا بأنه لا يقوم بتأليف المصادر تضليل متعمد، أما إن كان لا يعلم الآلية التي تم بها توليد الروابط فكان من المفترض أن يقول: لا أعلم كيف قمت بتزويد المستخدم بهذه الروابط، وأنها تعمل بشكل آلي ولا يمكن التأكد من صحتها.
  4. قدرة بعض الجهات التخريبية على استغلال الذكاء الاصطناعي في نشر الأخبار المزيفة ونسبتها لمواقع ومؤسسات إعلامية موثوقة وتزويد المستخدمين بمعلومات مغلوطة وبدعم من الذكاء الاصطناعي.
  5. إن تزييف روابط موقع يعود لمؤسسة إخبارية معروفة هو عمل غير قانوني وقرصنة، وذلك حسب معظم قوانين النشر الإلكتروني في أغلب دول العالم، أما تقديم هذه الروابط للمستخدمين على أنها روابط صحيحة لمصادر استقى منها معلوماته فهذ يندرج تحت تصنيف الجرائم الإلكترونية التي يحاسب عليها القانون.

أسئلة لموقع “أوبن إيه آي” تحتاج إجابات

قمنا بالتواصل مع موقع “أوبن إيه آي” حول هذه الحادثة، ولم نتلق ردا حتى كتابة هذا التقرير، وهذه الأسئلة التي تنتظر إجابة منهم:

  •  ما المصادر التي اعتمد عليها “تشات جي بي تي” في كتابة المقال حول “كامبريدج أناليتيكا”؟ ومن يقوم بمراجعة هذه المصادر؟ وكيف يتم التحقق من صحتها؟
  • هل تقوم أداة التوليد اللغوية في “تشات جي بي تي” بالاحتفاظ بالمصادر التي تبني عليها أعمالها؟ مثلا: في حالة مقال “كامبريدج أناليتيكا” من المؤكد أن الأداة قامت بتوليد نص بناء على تقنية التعلم الآلي، ولكن هل هناك آلية لربط هذه المعلومات التي يعالجها ويستنبط منها مصادر حقيقية، أم أن الأمر عبارة عن تغذية مبهمة للمواد والمحتوى من دون ربطها بمصادر معتبرة؟
  • ما الآلية المتبعة في إظهار المصادر؟ وكيف استطاع الروبوت توليد مصادر مزيفة؟ تقنيا هذا يخضع لخوارزمية معينة؛ فهو يتعامل مع المصدر على أنه معلومة متغيرة يمكنه توليدها والتلاعب بها بناء على تعليمات معينة، وليس بوصفه ثابتا عليه فقط أن يقوم بتدقيقه والتحقق منه.
  • كيف يقوم الروبوت بتوليد إجابات تقوم على التنصل من المسؤولية في توليد الروابط عند سؤاله بشكل مباشر حولها؟ وكيف يقوم بتوليد إجابات ترجع السبب إلى تغيير سياسات النشر أو حذف المواد من الموقع؟ هذه الآلية في الإجابة مخيفة؛ فالأولى أن يكون شفافا ويقول بشكل واضح إنه لا يمتلك مصادر وإن الروابط هذه عبارة عن معلومات معالجة بناء على خوارزمية داخلية!
  • ما الآلية التي يعمل بها النظام في التقصي والإجابة عن أسئلة المستخدمين؟ فهو -رغم أنه قاصر بشكل واضح في إعطاء إجابة حول كيف أن كل هذه الروابط لا تعمل- مصرّ على أن الخطأ ليس من قبله.

هذا يدعونا حقيقة للشك في قدرات هذا الروبوت القائم على الذكاء الاصطناعي، فكونه قادرا بشكل كبير على المجادلة بأن الخطأ ليس من جانبه، ولكنه في الوقت نفسه يفشل في إظهار روابط صحيحة موجودة على غوغل يمكن لأي برنامج بسيط جمعها وتزويد المستخدم بها؛ يجعلنا نتساءل عن الآلية التي يعمل بها في هذا المجال وضرورة توضيحها من قبل الشركة.

دعوة لجميع المنصات الإعلامية العالمية

كتقنيين لا نستطيع إلا أن نكون متحيزين للتكنولوجيا ودورها الكبير في حياتنا، وكصحفيين لا نستطيع أن نتجاهل التقدم التقني في مجال الإعلام والصحافة، سواء من حيث تحرير الأخبار أو التحقق منها ونشرها.

ولكن تظل مسألة أخلاقيات المهنة تطغى على أي نقاش لتبني تكنولوجيا جديدة في هذا المجال، فمصادر المعلومات هي العامل الأساسي في مصداقية وموثوقية أي صحفي أو مؤسسة إعلامية، لذلك فإن تبني هذه المؤسسات سياسات إعلامية جديدة واستحداث أقسام مختصة في مجال الذكاء الاصطناعي والعمل مع الشركات التقنية الرائدة في هذا المجال هو الحل الأنسب لمعالجة هذا القصور.

وهنا ندعو المؤسسات الإعلامية لوضع إستراتيجية واضحة وميثاق إعلامي لاستخدام الذكاء الاصطناعي في المجال الإعلامي، وتطوير شراكات مع الشركات المنتجة لهذه التكنولوجيا، بحيث يتم تعليم وتغذية منتجاتها بالأساليب المثلى في مجال الصحافة والإعلام، والتركيز على توعية الجمهور بآلية عمل هذه التكنولوجيا وقدراتها ومحدوديتها.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى