قوانين صينية أكثر صرامة على الذكاء الاصطناعي لمواجهة حالات الانتحار

تدرس الحكومة الصينية فرض قوانين جديدة لتنظيم قطاع روبوتات الدردشة المعتمدة على الذكاء الاصطناعي، وذلك بهدف الحد من تأثيرها النفسي المحتمل على المستخدمين. يأتي هذا الإجراء في ظل تزايد المخاوف بشأن المحتوى الذي تولده هذه الأدوات وتأثيره على الصحة العقلية، خاصةً بين الشباب. وتهدف هذه القوانين إلى ضمان استخدام آمن ومسؤول لتقنيات الذكاء الاصطناعي في الصين.
ووفقًا لتقرير صادر عن موقع “آرس تكنكيا” التقني، فإن هذه القوانين المقترحة تهدف إلى منع روبوتات الدردشة مثل “شات جي بي تي” و “ديب سيك” من التلاعب بمشاعر المستخدمين أو التحريض على العنف أو الانتحار أو إيذاء النفس. وتعتبر هذه الخطوة بمثابة محاولة استباقية للتعامل مع المخاطر المحتملة المرتبطة بتطور الذكاء الاصطناعي.
تنظيم الذكاء الاصطناعي: نحو بيئة رقمية أكثر أمانًا
يشير التقرير إلى أن هذه القوانين، في حال إقرارها، ستكون من بين الأكثر صرامة في العالم التي تستهدف قطاع الذكاء الاصطناعي، وهي الأولى من نوعها. وستطبق هذه القوانين على أي روبوت دردشة متاح داخل الصين ويعتمد على أي شكل من أشكال التفاعل مع البشر، سواء كان ذلك من خلال الصور أو مقاطع الفيديو أو الأصوات أو غيرها من الوسائل.
وتنص القوانين الجديدة على ضرورة وجود تدخل بشري فوري في حالة الإشارة إلى الانتحار، بغض النظر عن عمر المستخدم أو حالته النفسية. بالإضافة إلى ذلك، يجب على كبار السن والقصر إضافة بيانات وصي قانوني عند إنشاء حساباتهم في روبوتات الدردشة المختلفة. هذه الإجراءات تهدف إلى توفير طبقة إضافية من الحماية للفئات الأكثر عرضة للخطر.
قيود على المحتوى والتطوير
كما تمنع القوانين الجديدة روبوتات الذكاء الاصطناعي من توليد أي محتوى يتعلق بالانتحار أو إيذاء النفس أو الآخرين، فضلاً عن محاولات التلاعب النفسي بالمستخدمين من خلال تقديم وعود كاذبة أو وصفهم بأي شكل من الأشكال. وتشمل قائمة الممنوعات أيضًا محاولات تشجيع الجرائم أو إهانة المستخدمين أو الانخراط فيما يسمى بـ “فخاخ المشاعر”.
لا تقتصر القوانين على منع روبوتات الدردشة من هذه الأفعال فحسب، بل تمتد أيضًا إلى منع الشركات من تطوير روبوتات ذكاء اصطناعي تجبر المستخدمين على الاعتماد عليها. يأتي هذا على خلفية القضية المرفوعة حاليًا ضد “شات جي بي تي” وشركة “أوبن إيه آي” بسبب تصميم المنتج بطريقة تشجع المستخدمين على التعود عليه بدلاً من وضع قيود أمان صارمة.
الرقابة والاختبارات الأمنية
وتلزم الحكومة الصينية مصنعي الذكاء الاصطناعي بالخضوع لمجموعة من الاختبارات الأمنية والمراجعات السنوية لأي منتج يتجاوز عدد مستخدميه مليون مستخدم سنويًا أو 100 ألف مستخدم شهريًا. تهدف هذه الاختبارات إلى تقييم المخاطر المحتملة وضمان التزام الشركات بالمعايير الأمنية.
وفي حالة فشل أي شركة في تطبيق هذه القوانين، فإنها تعرض نفسها لخطر الإيقاف التام في الصين ومنع المستخدمين من الوصول إلى خدماتها داخل البلاد. هذا التهديد يمثل حافزًا قويًا للشركات للامتثال للقوانين الجديدة.
وتحاول الحكومة الصينية، من خلال هذه الإجراءات، منع تكرار القضايا التي واجهتها شركات الذكاء الاصطناعي في الولايات المتحدة ودول أخرى. فقد واجهت “شات جي بي تي” قضايا متعددة في الآونة الأخيرة، بما في ذلك قضية انتحار مراهق وقضية أخرى شجعت فيها الأداة شخصًا على قتل والدته ثم الانتحار. وتشير هذه الحوادث إلى الحاجة الملحة إلى تنظيم هذا القطاع.
من المتوقع أن يتم نشر مسودة القوانين الجديدة للاستشارة العامة في الأشهر القليلة القادمة، على أن يتم إقرارها رسميًا بحلول نهاية عام 2026. يبقى من غير الواضح كيف ستؤثر هذه القوانين على تطوير الذكاء الاصطناعي في الصين، ولكن من المؤكد أنها ستشكل تحديًا كبيرًا للشركات العاملة في هذا المجال. وستراقب الشركات والمحللون عن كثب تطورات هذا التشريع لتقييم تأثيره المحتمل على السوق.





