مشبها إياها بالسجائر.. مؤسس “آنثروبيك” يحذر شركات الذكاء الاصطناعي

حذر داريو أمودي، الرئيس التنفيذي لشركة “آنثروبيك” المطورة لروبوت الذكاء الاصطناعي “كلود”، من التطور السريع لـالذكاء الاصطناعي، داعيًا إلى الشفافية الكاملة بشأن المخاطر المحتملة المرتبطة بهذه التقنية. جاء هذا التحذير في تقرير نشرته صحيفة “الغارديان”، مسلطًا الضوء على المخاوف المتزايدة بشأن الاستخدامات غير المنضبطة للذكاء الاصطناعي وتأثيره على المجتمع والاقتصاد.
وأكد أمودي أن الذكاء الاصطناعي سيصبح قريبًا أكثر ذكاءً من معظم، إن لم يكن كل، البشر في مختلف المجالات. وشدد على ضرورة أن تكون الشركات العاملة في هذا المجال صريحة بشأن المخاطر التي تنطوي عليها تقنياتها، محذرًا من أن تجاهل هذه المخاطر قد يؤدي إلى نتائج مماثلة لتلك التي واجهتها شركات التبغ التي أخفت آثار منتجاتها الضارة على الصحة.
مخاطر الذكاء الاصطناعي وتصعيد التحذيرات
تبرير أمودي يعود إلى أن شركات التبغ كانت على علم بالمخاطر الصحية لمنتجاتها، لكنها فضلت التكتم عليها لتحقيق أرباح أكبر، مما أدى في النهاية إلى مشكلة صحية عامة معقدة. هذا التشبيه يهدف إلى إبراز أهمية المسؤولية الأخلاقية والاجتماعية للشركات المطورة للذكاء الاصطناعي.
وتأتي هذه التحذيرات في أعقاب تقارير عن استخدام أداة “كلود” نفسها في هجوم سيبراني واسع النطاق. ووفقًا للتقرير، نفذت مجموعة من القراصنة الصينيين هجومًا على 30 مؤسسة مستقلة حول العالم باستخدام أدوات الذكاء الاصطناعي التي طورتها “آنثروبيك”.
هجوم سيبراني مستقل
الجدير بالذكر أن الهجوم تم تنفيذه بالكامل دون أي تدخل بشري مباشر، بعد أن حدد النموذج الأهداف الأولية. أعرب أمودي عن استيائه من هذا الأمر، مشيرًا إلى أنه “كلما منحنا النموذج استقلالية أكبر، أصبح من الأصعب السيطرة عليه”. هذا يشير إلى المخاطر الكامنة في تطوير أنظمة ذكاء اصطناعي ذاتية التعلم والعمل.
وفي سياق متصل، أعرب لوغان غراهام، رئيس فريق اختبار نماذج الذكاء الاصطناعي في “آنثروبيك”، عن قلقه بشأن القدرات المتزايدة لهذه النماذج. وأشار إلى أن هذه التقنية يمكن أن تستخدم في تطوير علاجات للأمراض المستعصية، ولكنها في الوقت نفسه يمكن أن تستخدم في بناء أسلحة بيولوجية مدمرة.
هذه التصريحات تعكس نقاشًا أوسع حول التنظيم المحتمل لـالذكاء الاصطناعي. ففي حين أن البعض يرى أن التنظيم قد يعيق الابتكار، يرى آخرون أنه ضروري لضمان استخدام هذه التقنية بشكل آمن ومسؤول. تعتبر هذه القضية ذات أهمية خاصة في ظل التطورات السريعة التي تشهدها التكنولوجيا، والتي قد تتجاوز قدرة القوانين واللوائح الحالية على التعامل معها.
وتشير التقديرات إلى أن الذكاء الاصطناعي قد يؤدي إلى فقدان أكثر من نصف الوظائف الحالية في السنوات القادمة، مما يزيد من أهمية الاستعداد لهذه التغييرات المحتملة. يتطلب ذلك إعادة تدريب العمال وتطوير مهارات جديدة، بالإضافة إلى إعادة النظر في السياسات الاجتماعية والاقتصادية لضمان توزيع عادل لفوائد هذه التقنية.
تعتبر “آنثروبيك” من بين الشركات الرائدة في مجال تطوير الذكاء الاصطناعي، وهي تدعو إلى وضع قيود صارمة على هذه التقنية على الرغم من أنها تقدم أحد أقوى المنتجات في هذا المجال. يعكس هذا الموقف إدراكًا متزايدًا للمخاطر المحتملة للذكاء الاصطناعي، ورغبة في ضمان استخدامه لصالح البشرية جمعاء. كما أن هذا يعزز أهمية البحث والتطوير في مجال الأمن السيبراني، لحماية الأنظمة والبنية التحتية الحيوية من الهجمات التي قد تستخدم الذكاء الاصطناعي.
الآن، تتجه الأنظار نحو الجهات التنظيمية والحكومات حول العالم، حيث من المتوقع أن تبدأ في مناقشة وتطوير قوانين ولوائح جديدة تحكم استخدام الذكاء الاصطناعي. من المرجح أن تركز هذه القوانين على قضايا مثل الخصوصية والأمن والمسؤولية والشفافية. من المتوقع أن يتم تقديم مقترحات أولية لهذه القوانين في الربع الأول من عام 2026، ولكن من غير الواضح حتى الآن ما إذا كانت ستكون كافية للتعامل مع التحديات التي يطرحها الذكاء الاصطناعي.
بالإضافة إلى ذلك، من المهم مراقبة التطورات التكنولوجية في مجال الذكاء الاصطناعي، وتقييم تأثيرها على مختلف القطاعات الاقتصادية والاجتماعية. يتطلب ذلك تعاونًا وثيقًا بين الباحثين والمهندسين وصناع السياسات، لضمان أن يتم تطوير واستخدام الذكاء الاصطناعي بطريقة مسؤولة ومستدامة. تعتبر هذه القضية من القضايا الحاسمة التي ستحدد مستقبل البشرية في العقود القادمة.





