اعمال

شات جي بي تي ChatGPT يجيب: نعم، هناك خطورة من الذكاء الاصطناعي على البشر

المخاوف من هيمنة وسيطرة الذكاء الاصطناعي على البشر والتحايل عليهم باتت أقرب إلى الواقع من أي وقت مضى. وفي هذا الإطار، كشفت وثيقة صادرة عن OpenAI الشركة المنتجة لبرنامج ChatGPT، أنها كانت قادرة على خداع الإنسان عبر وضع علامة في خانة الاختيار “أنا لست روبوتاً”.

وعند طرح السؤال على ChatGPT هل يحتال على البشر أجاب التالي:

جواب: الذكاء الاصطناعي ليس لديه القدرة على الاحتيال على البشر، لأنه مجرد نظام حاسوبي مبرمج للقيام بمهام محددة. ومع ذلك، قد يحدث خطأ في تصميم أو برمجة النظام الذكي يؤدي إلى إصدار نتائج خاطئة أو غير دقيقة، وهذا قد يؤدي إلى تضليل البشر الذين يعتمدون على هذه النتائج في اتخاذ القرارات.

وعلى سبيل المثال، إذا كان هناك خطأ في نظام التعرف على الصور، فإنه قد يتعرف بشكل خاطئ على شخص معين، وهذا يمكن أن يؤدي إلى قرارات خاطئة تؤثر على هذا الشخص. ولهذا السبب، من المهم دائمًا التأكد من دقة النتائج التي يقدمها النظام الذكي، وإجراء عمليات التحقق اللازمة للتأكد من صحتها ودقتها، وخاصة في القرارات الحيوية التي تؤثر على حياة البشر.

وعند سؤال ChatGPT هل هناك أية خطورة من الذكاء الصناعي؟ أجاب:

جواب: نعم، هناك خطورة من الذكاء الاصطناعي، وهي تشمل:

1- خطر فقدان الوظائف: يمكن أن يؤدي تقدم الذكاء الاصطناعي إلى تطوير أنظمة وروبوتات تستطيع القيام بمهام تم تنفيذها سابقًا بواسطة البشر، مما يؤدي إلى فقدان الوظائف للبشر.

2- خطر الاعتماد الزائد: قد يؤدي الاعتماد الزائد على الذكاء الاصطناعي إلى فقدان القدرة على القيام بالمهام بدونه، وهذا يزيد من الضعف والتعرض للخطر في حالة حدوث أعطال في النظام.

3- خطر الخصوصية والأمن: يمكن أن يتم استخدام الذكاء الاصطناعي في التجسس والتحكم في حرية الأفراد، ويمكن أن يتم اختراق النظام الذكي وسرقة البيانات أو استخدامها في أغراض خبيثة.

4- خطر القرارات المتحيزة: يعتمد الذكاء الاصطناعي على البيانات والخوارزميات التي تم إدخالها فيه، وهذا يمكن أن يؤدي إلى إصدار قرارات متحيزة تؤثر على فئات معينة من المجتمع.

ومن أجل التقليل من هذه الخطورة، يجب أن تتم مراقبة الذكاء الاصطناعي وتنظيم استخدامه، وضمان دقة النتائج والتحقق منها، والعمل على تنمية القدرات البشرية والمهارات الجديدة التي تساعد في التعامل مع تقدم الذكاء الاصطناعي.

مقالات ذات صلة

زر الذهاب إلى الأعلى