Jannah Theme License is not validated, Go to the theme options page to validate the license, You need a single license for each domain name.
تكنولوجيا

لماذا يحذر العاملون في الذكاء الاصطناعي ذويهم من استخدامه؟

كشف تقرير حديث عن تزايد القلق وانعدام الثقة بين العاملين في مجال الذكاء الاصطناعي، خاصةً فيما يتعلق بمراجعة وتقييم دقة وموثوقية النتائج التي تقدمها هذه النماذج. ويشير التقرير إلى أن هؤلاء العاملين يحذرون حتى أفراد أسرهم من الاعتماد على أدوات الذكاء الاصطناعي في الحصول على المعلومات، مما يعكس أزمة ثقة متنامية في هذا القطاع التكنولوجي.

وتأتي هذه المخاوف في ظل تزايد الاعتماد على نماذج الذكاء الاصطناعي في مختلف المجالات، بدءًا من خدمة العملاء وصولًا إلى تقديم المعلومات الصحية. وقد نشرت صحيفة “الغارديان” البريطانية التقرير الذي سلط الضوء على تجارب هؤلاء العاملين الذين يقضون ساعات في تدقيق مخرجات الذكاء الاصطناعي، ليكتشفوا في كثير من الأحيان أخطاءً وتحيزات غير مقبولة.

أزمة الثقة في تقييم نتائج الذكاء الاصطناعي

يعود السبب الرئيسي وراء هذا الانعدام بالثقة إلى معرفة العاملين بالعمليات الداخلية لتقييم نماذج الذكاء الاصطناعي. فغالبية هؤلاء الأشخاص يعملون في مهام مراجعة البيانات والنتائج التي تظهر للمستخدمين، ويكتشفون بشكل مباشر الأخطاء والتحيزات الكامنة في هذه النماذج. وتشير البيانات إلى أن جودة البيانات المستخدمة في التدريب هي نقطة الضعف الرئيسية.

وصرحت كريستا باولوسكي، وهي إحدى العاملات في منصة “أمازون ميكانيكال تورك”، لصحيفة “الغارديان” بأنها كادت أن تمرر ردًا عنصريًا من أحد نماذج الذكاء الاصطناعي دون أن تدرك ذلك. وأضافت أن هذا الموقف دفعها إلى التفكير مليًا في عدد المرات التي قد تكون قد تجاهلت فيها معلومات خاطئة أو متحيزة دون علم.

دور منصات العمل الحر

تعمل باولوسكي ضمن نطاق العمالة غير المنتظمة عبر منصة “أمازون ميكانيكال تورك”، وهي منصة توفر فرص عمل للعديد من الأفراد لمراجعة وتدقيق البيانات التي تنتجها شركات الذكاء الاصطناعي. تؤكد أمازون أن المنصة تعمل كـ “متجر مفتوح للوظائف” وأنها ليست مسؤولة بشكل مباشر عن محتوى المهام أو الاختبارات التي يتم إجراؤها من خلالها.

وبالمثل، يشير التقرير إلى أن عملية تقييم الردود الصحية التي تقدمها أدوات الذكاء الاصطناعي التابعة لشركة “غوغل” تتم غالبًا دون تدقيق أو مراجعة دقيقة. وقد أكد أحد موظفي “غوغل” المسؤولين عن هذه المهمة لـ “الغارديان” أن العملية تفتقر إلى النقد البناء والتقييم الشامل.

وتشير بروك هانسن، وهي عاملة أخرى في “أمازون ميكانيكال تورك”، إلى أن الشركات المطورة لنماذج الذكاء الاصطناعي لا تولي اهتمامًا كافيًا بتدريب العاملين الذين يقومون بتقييم هذه النماذج. بالإضافة إلى ذلك، تفرض هذه الشركات أعباء عمل كبيرة وتطلب نتائج سريعة، مما يزيد من احتمالية مرور الأخطاء والتحيزات دون اكتشاف.

وكشفت “الغارديان” عن مثال ملموس على التحيز في أحد نماذج الذكاء الاصطناعي التابعة لـ “غوغل”، حيث رفض النموذج تقديم أي ردود عند سؤاله عن تاريخ الفلسطينيين، بينما قدم إجابات مفصلة عند توجيه نفس السؤال حول تاريخ إسرائيل. وقد أثار هذا الأمر غضبًا واستياءً لدى العاملين الذين يرون فيه دليلًا على أن نماذج الذكاء الاصطناعي يمكن أن تكون مشوبة بالتحيزات السياسية والإيديولوجية.

ويؤكد أحد العاملين في “غوغل” أن الذكاء الاصطناعي يعكس التحيزات والعنصرية التي يتم برمجته عليها. وقد دفعه هذا الإدراك إلى رفض استخدام تقنيات الذكاء الاصطناعي وروبوتات الدردشة، بل وحذر أصدقاءه وأفراد أسرته من الاعتماد عليها أو شراء الأجهزة التي تعتمد عليها.

هذه المخاوف تتجاوز مجرد الأخطاء التقنية، إذ تثير تساؤلات حول المسؤولية الأخلاقية للشركات المطورة لنماذج الذكاء الاصطناعي. فإذا كانت هذه النماذج قادرة على نشر معلومات خاطئة أو متحيزة، فمن يتحمل مسؤولية ذلك؟

وتشير هذه الشكاوى إلى أزمة حقيقية في جودة البيانات المستخدمة لتدريب نماذج الذكاء الاصطناعي. فبينما تركز الشركات على جمع أكبر قدر ممكن من البيانات، فإنها غالبًا ما تهمل تقييم جودة هذه البيانات والتأكد من خلوها من التحيزات والأخطاء. وهذا يؤدي إلى ظهور نماذج ذكاء اصطناعي غير موثوقة وقادرة على إلحاق الضرر بالمستخدمين.

من المتوقع أن تستمر هذه القضية في جذب الاهتمام في الأشهر المقبلة، مع تزايد الضغوط على شركات الذكاء الاصطناعي لتحسين جودة البيانات المستخدمة في التدريب وزيادة الشفافية في عمليات التقييم. كما من المرجح أن نشهد المزيد من النقاش حول الحاجة إلى وضع معايير أخلاقية وقانونية تنظم تطوير واستخدام نماذج الذكاء الاصطناعي، لضمان حماية المستخدمين والمجتمع من الآثار السلبية المحتملة لهذه التكنولوجيا.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى