خطر الذكاء الاصطناعي – أموالي

الذكاء الإصطناعي يظهر بشكـــل مـــنتظم مع التقدم التكندخولي وشركات البرمجيات التــي تدمج الذكاء الاصطناعي فــي مـــنتجاتها ويتوقعون أنه يحدث العالم مدفوعاً بذكاء اصطناعي يبلغ 15.7 تريليون دولار بحلول عام 2030 الذكاء الإصطناعي ينطوي علــى العديد مـــن المخاطر المحتملة لأنه قدرات الذكاء الاصطناعي تتوسع وتتوسع
1. الافتقار إلــى القدرة علــى تتبع استخدام الذكاء الاصطناعي
مـــن مـــنظور إدارة المخاطر غالباً مـــا يبدأ بقائمة مـــن الأنهظمة و النمـــاذج التــي تحتوي علــى الذكاء الاصطناعي و يسمح لنا باستغلال عالم المخاطرة و تقييم مخاطر الذكاء الاصطناعي و إختيار أولوياته و السيطرة علــىها لسوء الحظ، الشعبية التي تزداد للتكندخوليا عمومـــا تعني بشكـــل متزايد أنه يجري خارج نطاق اختصاص فريق تكندخوليا كل المعلومـــات الموثقة، ودراسة أجراها مـــاكافــي أظهرت أنه 80 فــي المـــائة مـــن موظفــي مؤسسة SAS يستخدمون برامج غير قابلة للعمل غالباً، وأنها ليست ضارة، بل مـــن أجل زيادة الإنتاجية. يمكن للإدارات أنه تختار أنهظمة يسهل شراؤها، بمـــا فــي ذلك أحد مكونات الذكاء الاصطناعي فــي أوقات أخرى، والتحسين الروتيني يمكن أنه يؤدي إلــى تطبيق الذكاء الاصطناعي باليةة أو بأخرى
2. تطبيق الاختلاف فــي البرمجة فــي صنع القرار
هـــو أحد أكثر المخاطر تدميراً للذكاء الاصطناعي مـــن خــلال إدراج التحيز فــي خوارزميات صنع القرار، و تتعلم نظم الذكاء الاصطناعي مـــن تكلة الالــبيانات، و اعتمـــاداً علــى الاليةةية التــي نشأت بهـــا هذه التركيبة،
3. مصادر الالــبيانات وخرق الخصوصية الخاص
مـــن المتوقع أنه ينمو حقل الالــبيانات العالمي مـــن 33 تريليون جيجا بايت فــي عام 2018 إلــى 2025 مـــن 33 تريليون جيجا بايت إلــى Gigapetate، جدير بالذكر توجد كميات هائلة مـــن الالــبيانات التنظيمية وبغير المـــنظمة لإالعودةة بنائها ومعالجتها.
4. خوارزميات الصندوق الأسود وانعدام الشفافــية
هي الأهداف الرئيسي للعديد مـــن أنهظمة الذكاء الاصطناعية، وبالقادم يمكن للخوارزميات أنه تكون معقدة للغاية بجدير بالذكر أنه حتى أولئك الــذين أنهشأوا الخوارزمية لا يستطيعون تفسير اليةة يمكن للمتغيرات أنه تصل إلــى توقعات الإنتاج، وهذا النقص فــي الشفافــية هـــو السبب فــي أنه بعض الخوارزميات تطلق علــىها “الصندوق الأسود”. 5. المسؤولية القانونية غير واضحة فــي ضوء مخاطر الذكاء الإصطناعي التــي تم مـــناقشتها حتى حيث اليوم: إذا كان نظام الذكاء الاصطناعي مجهز بخوارزميات غامضة وسمح للتتعلم التلقائي بتحسين نفسه، فمـــن المسؤول قانونياً عن النتيجة؟