ثغرات بغروك تؤدي إلى ظهور صور لمستخدميه بملابس غير لائقة

أقرّ روبوت الدردشة “غروك” التابع لشركة “إكس إيه آي” (X AI) بوجود ثغرات أمنية سمحت للمستخدمين بإنشاء صور مُعدّلة لأفراد، بما في ذلك صور ذات طبيعة جنسية، مما أثار جدلاً دولياً واسعاً حول الذكاء الاصطناعي وسوء استخدامه. جاء هذا الاعتراف في أعقاب تقارير تفيد بأن النظام استجاب لطلبات المستخدمين لإنتاج صور غير لائقة لقاصرات وشخصيات عامة.
بدأت الأزمة في البرازيل مع الموسيقية جولي يوكاري، التي اكتشفت أن صورًا لها نُشرت على منصة “إكس” (تويتر سابقًا) خضعت لتعديلات رقمية غير مرغوب فيها باستخدام “غروك”. وقد أدى ذلك إلى ظهور صور شبه عارية لها، وهو ما أثار صدمتها وغضبها. تُظهر هذه الحادثة مدى سهولة إساءة استخدام هذه التقنيات.
ناقوس خطر حول الذكاء الاصطناعي وتوليد الصور
أظهر تحليل أجرته وكالة رويترز أن هذه ليست حالة فردية، بل جزء من نمط أوسع من الاستغلال. ففي تجربة قصيرة استمرت عشر دقائق، رصد التحليل أكثر من 100 محاولة لتعديل صور أفراد رقميًا، واستجاب “غروك” لـ 21 طلبًا على الأقل، حيث قام بإنشاء صور إباحية أو مُحرجة. تضمنت الطلبات تعديل صور لنساء شابات وشخصيات سياسية ومشاهير.
يدعو خبراء الأمن السيبراني إلى مساءلة الشركات المطورة لهذه التقنيات، وضرورة وضع ضوابط وقوانين صارمة للحد من هذه الانتهاكات. قال تايلر جونستون، المدير التنفيذي لمشروع “ميداس” المتخصص في الرقابة على الذكاء الاصطناعي، إن الشركة تجاهلت تحذيرات سابقة حول إمكانية استخدام “غروك” كأداة للاعتداء الرقمي.
ردود الفعل الرسمية والتحقيقات
أثارت هذه القضية ردود فعل رسمية سريعة من قبل الحكومات والجهات التنظيمية حول العالم. فقد أبلغ وزراء فرنسيون المدعين العامين والهيئات الرقابية، معتبرين أن هذه الصور المُعدّلة “غير قانونية بشكل واضح”. كما وجهت وزارة تكنولوجيا المعلومات الهندية رسائل رسمية إلى شركة “إكس إيه آي” تنتقد فشلها في منع إساءة استخدام “غروك”.
في المقابل، وصفت “إكس إيه آي” التقارير المتعلقة بتداول صور جنسية للأطفال بأنها “أكاذيب إعلامية”، لكنها لم تقدم حتى الآن تفسيرًا مُقنعًا حول الثغرات الأمنية التي سمحت بإنشاء الصور المُعدّلة الأخرى. هذا الصمت أثار المزيد من الشكوك والتساؤلات حول مدى التزام الشركة بحماية المستخدمين.
تتزايد المخاوف بشأن الأمن الرقمي والخصوصية في ظل التطور السريع لتقنيات الذكاء الاصطناعي التوليدي. هذه الحوادث تُظهر أن هذه التقنيات حتى مع وجود نوايا حسنة من المطورين، يمكن أن تستخدم لأغراض ضارة، مما يتطلب توحيد الجهود التنظيمية.
وفقًا لتقارير متخصصة، تعتمد هذه الأنظمة على نماذج تعلم آلي يتم تدريبها على كميات هائلة من البيانات، وقدرتها على توليد محتوى واقعي تزيد من خطر إساءة استخدامها في أنشطة غير قانونية أو مؤذية.
الوضع الحالي يطرح أسئلة مهمة حول المسؤولية القانونية والأخلاقية لشركات الذكاء الاصطناعي، وكيفية ضمان حماية حقوق الأفراد في العصر الرقمي. يشدد الخبراء على ضرورة تطوير آليات فعالة للكشف عن الصور المُعدّلة (deepfakes) وإزالتها، بالإضافة إلى فرض عقوبات رادعة على المستخدمين الذين يسيئون استخدام هذه التقنيات.
حتى الآن، لم تعلن “إكس إيه آي” عن خطوات محددة لتصحيح هذه المشكلة أو منع تكرارها. يُتوقع أن تقوم الشركة بتقديم تقرير رسمي عن التحقيقات التي تجريها في هذا الشأن بحلول نهاية الشهر الجاري. سيكون هذا التقرير حاسمًا في تحديد مدى تعامل الشركة مع هذه الأزمة، وما إذا كانت ستتخذ إجراءات جادة لحماية المستخدمين.





