Jannah Theme License is not validated, Go to the theme options page to validate the license, You need a single license for each domain name.
تكنولوجيا

“بيكسونيمانیا”.. كيف وقع العالم في فخ “المرض المزيف”؟

كشفت باحثة سويدية عن ثغرات خطيرة في منظومة البحث العلمي، وذلك بعد تجربتها في اختلاق مرض وهمي لمراقبة انتشار المعلومات المضللة عبر نماذج الذكاء الاصطناعي. ما بدأ كاختبار بسيط تحول إلى فضيحة علمية كشفت أخطاء منهجية قد تقوض مصداقية الأبحاث العلمية وتزيد من التشكيك في موثوقيتها.

ألميرا عثمانوفيتش تونستروم، باحثة بجامعة غوتنبرغ، اخترعت مرضًا مزيفًا أطلقت عليه اسم “بيكسونيمانيا” (Bixonimania) وادعت أن أعراضه تتمثل في لون وردي خفيف في جفون العين مع حكة أو ألم، ربطته بالتعرض المطول للشاشات. هدفت تونستروم إلى معرفة ما إذا كانت أدوات الذكاء الاصطناعي ستتعامل مع هذه المعلومات المضللة على أنها نصائح صحية موثوقة.

المرض المزيف بثوب علمي يجتاح الذكاء الاصطناعي

قامت تونستروم بتغليف المرض المزيف بأسلوب علمي، فنشرت عنه في 15 مارس 2024 على منصة “ميديوم”، تبعتها دراستان أوليتان حول “الحالة”. ظهرت هذه الدراسات على شبكة “ساي بروفايلز” الأكاديمية، وكان مؤلفها الرئيسي باحثًا وهميًا تم إنشاؤه بالذكاء الاصطناعي.

حرصت الباحثة على تضمين إشارات خفية تشير إلى زيف هذه المعلومات، بدءًا من اختيار اسم “بيكسونيمانيا” الذي وصفته بأنه “سخيف” ويستخدم مصطلح “مانيا” المرتبط بالطب النفسي وليس بأمراض العيون. كما اشتملت الأوراق البحثية الوهمية على تفاصيل مثل جامعة خيالية (جامعة أستيريا هورايزون) وشكر لأكاديمية من مسلسل خيال علمي (أكاديمية ستار فليت).

لزيادة التأكيد على زيفها، أدرجت تونستروم عبارات صريحة مثل: “هذه الورقة بأكملها مختلقة” و”تم اختيار 50 شخصًا خياليًا للدراسة”. ورغم هذه الإشارات الواضحة، بدأت أدوات الذكاء الاصطناعي في استيعاب هذه المعلومات الوهمية وترشيحها.

في أبريل 2024، وصفت بعض أنظمة الذكاء الاصطناعي “بيكسونيمانيا” بأنها “حالة نادرة ومثيرة” وربطتها بتعريض العين للشاشات، بل ونبهت المستخدمين إلى ضرورة استشارة طبيب عيون.

تجاوز تأثير هذه التجربة التوقعات، حيث استشهدت دراسة علمية حقيقية في مجلة “كيوريوس” بالحالة المزيفة، قبل أن يتم سحب البحث لاحقًا بعد اكتشاف طبيعة المعلومات. أثارت التجربة جدلًا واسعًا بين مؤيدين يرونها درسًا عمليًا في انتشار المعلومات المضللة، ومعارضين يرونها مساهمة في “تسميم” أنظمة الذكاء الاصطناعي.

تداعيات علمية أعمق من التجربة

تكمن الخطورة الأكبر، بحسب خبراء، في أن أنظمة الذكاء الاصطناعي تستقي معلوماتها من مصادر متنوعة على الإنترنت، مما يجعلها عرضة لتلقي معلومات غير دقيقة. تقع المسؤولية النهائية على المستخدمين للتأكد من صحة المعلومات التي تقدمها هذه الأنظمة.

ويكمن الخطر الأعظم، وفقًا للدكتورة نجوى البدري، مديرة مركز التميز للخلايا الجذعية والطب التجديدي بمدينة زويل للعلوم والتكنولوجيا، في تعامل بعض الباحثين مع ما يُنشر في الدوريات العلمية على أنه “نص مقدس” دون تدقيق أو تمحيص.

تؤكد البدري أن قواعد البحث العلمي تتطلب تقييم قيمة الدوريات العلمية ومصداقية الباحثين، خاصة عند تناول حالات طبية جديدة. يتطلب الأمر الانتظار لفترة للتأكد من توثيق الأعراض في مصادر متعددة ومستقلة.

وتضيف البدري أن الاستشهاد ببحث لا يزال في مرحلة ما قبل الطباعة، أي لم يخضع لمراجعة الأقران، يعتبر أمرًا غير مقبول علميًا، ويساوي الاستشهاد بمعلومات من مصادر غير موثوقة مثل صفحات التواصل الاجتماعي.

يبقى التحدي قائمًا حول كيفية تعزيز موثوقية المعلومات التي تقدمها أنظمة الذكاء الاصطناعي، وضمان عدم استغلالها لنشر معلومات مضللة، خاصة مع تزايد الاعتماد عليها في المجالات الحساسة كالطب.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى