recent
أخبار ساخنة

‏ما هي مشاكل الذكاء الاصطناعي‏ ؟



‏يستمر ‏‏الذكاء الاصطناعي‏‏ في تحقيق فوائد إضافية لحياة الإنسان. وفقا لتقرير ماكينزي ، من المقرر أن يضيف الذكاء الاصطناعي 13 تريليون دولار إلى الاقتصاد العالمي بحلول عام 2030 ، أي حوالي 16٪ من إجمالي الحصة العالمية. وعلى الرغم من الفوائد الملموسة والنقدية، فإن الذكاء الاصطناعي تعاني من أوجه قصور ومشاكل مختلفة تحول دون اعتمادها على نطاق واسع. وتشمل المشاكل السلامة والثقة وقوة الحساب والقلق من فقدان الوظائف وما إلى ذلك.‏

‏المشاكل الرئيسية المرتبطة بالذكاء الاصطناعي‏

‏فيما يلي بعض المشاكل الرئيسية المرتبطة بالذكاء الاصطناعي وحلوله الممكنة.‏



1. مشكلة فقدان الوظيفة‏


‏كانت مخاوف فقدان الوظائف المتعلقة ‏‏بالذكاء الاصطناعي‏‏ موضوعا للعديد من الحالات التجارية والدراسات الأكاديمية. وفقا لدراسة أكسفورد ، فإن أكثر من 47٪ من الوظائف الأمريكية ستكون مهددة بسبب الأتمتة بحلول منتصف عام 2030.

ووفقا للمنتدى الاقتصادي العالمي، ستحل أتمتة الذكاء الاصطناعي محل أكثر من 75 مليون وظيفة بحلول عام 2022. وبعض الأرقام أكثر صعوبة. ووفقا لتقرير آخر لماكينزي، يمكن للروبوتات ذات القواعد الذكاء الاصطناعي أن تحل محل 30٪ من القوى العاملة العالمية الحالية. وفقا لخبير الذكاء الاصطناعي والرأسمالي المغامر كاي فو لي ، سيتم استبدال 40٪ من الوظائف العالمية بروبوتات تعتمد على الذكاء الاصطناعي في السنوات ال 10-15 المقبلة. 

وسيكون العمال ذوو الدخل المنخفض والعمال ذوو المهارات المنخفضة هم الأكثر تضررا من هذا التغيير. عندما يصبح الذكاء الاصطناعي أكثر ذكاء يوما بعد يوم ، يصبح حتى العمال ذوو الأجور العالية والمهارات العالية أكثر عرضة لفقدان الوظائف ، نظرا لارتفاع تكلفة العمال المهرة ، تحصل الشركات على هوامش أفضل من خلال أتمتة أعمالهم. ومع ذلك ، يمكن معالجة هذه القضايا المتعلقة بفقدان الوظيفة والأجور من خلال التركيز على التدابير التالية.

  • ‏‏إصلاح نظام التعليم وإعطاء المزيد من التركيز على مهارات مثل التفكير النقدي والإبداع والابتكار حيث يصعب تكرار هذه المهارات.‏
  • ‏زيادة الاستثمار العام والخاص في تطوير رأس المال البشري بحيث يكون أكثر انسجاما مع الطلب الصناعي.‏
  • ‏تحسين حالة سوق العمل من خلال سد الفجوة بين‏‏ العرض والطلب‏‏ وإعطاء زخم لاقتصاد العربة



2. مشكلة السلامة‏

‏كان هناك دائما الكثير من الغضب حول قضايا السلامة المرتبطة بالذكاء الاصطناعي. عندما يعبر خبراء مثل إيلون ماسك وستيفن هوكينج وبيل غيتس وغيرهم عن قلقهم فيما يتعلق بسلامة الذكاء الاصطناعي ، يجب أن نولي اهتماما لقضايا السلامة الخاصة به.

كانت هناك حالات مختلفة أخطأ فيها الذكاء الاصطناعي عندما بدأ تويتر شابوت في بث المشاعر المسيئة والمؤيدة للنازية وفي حالات أخرى عندما بدأت روبوتات فيسبوك الذكاء الاصطناعي في التفاعل مع بعضها البعض بلغة لا يفهمها أي شخص آخر ، مما أدى في النهاية إلى إغلاق المشروع.‏


‏هناك مخاوف جدية بشأن قيام الذكاء الاصطناعي بشيء ضار للبشرية. وخير مثال على ذلك الأسلحة ذاتية التشغيل التي يمكن برمجتها لقتل البشر الآخرين. 


هناك أيضا مخاوف وشيكة بشأن الذكاء الاصطناعي تشكيل "عقل خاص بهم" ولا يقدر الحياة البشرية. وإذا ما نشرت هذه الأسلحة، فسيكون من الصعب جدا التراجع عن تداعياتها. وفيما يلي التدابير التي يمكن اتخاذها للتخفيف من حدة هذه الشواغل.‏

  • ‏نحن بحاجة إلى لوائح قوية خاصة عندما يتعلق الأمر بإنشاء أو تجربة الأسلحة ذاتية التشغيل‏
  • ‏هناك حاجة إلى التعاون العالمي بشأن القضايا المتعلقة بهذا النوع من الأسلحة لضمان عدم تورط أي شخص في سباق الفئران‏ .
  • ‏الشفافية الكاملة في النظام الذي جربت فيه هذه التقنيات أمر ضروري لضمان استخدامه الآمن‏


3. مشكلة تتعلق بالثقة‏


‏نظرا لأن خوارزميات الذكاء الاصطناعي تصبح أكثر قوة يوما بعد يوم ، فإنها تجلب أيضا العديد من القضايا المتعلقة بالثقة حول قدرتها على اتخاذ قرارات عادلة ومن أجل تحسين البشرية. مع وصول الذكاء الاصطناعي ببطء إلى القدرات المعرفية على مستوى الإنسان ، تصبح قضية الثقة أكثر أهمية. هناك العديد من التطبيقات التي تعمل فيها الذكاء الاصطناعي كصندوق أسود. على سبيل المثال - في التداول عالي التردد ، حتى مطوري البرنامج ليس لديهم فهم جيد للأساس الذي الذكاء الاصطناعي تنفيذ الصفقة. 


بعض الأمثلة الأكثر لفتا للنظر تشمل خوارزمية Amazon الذكاء الاصطناعي القائمة على التسليم في نفس اليوم والتي كانت متحيزة عن غير قصد ضد الحي الأسود ، ومثال آخر كان تنميط إدارة المجرمين الإصلاحيين للعقوبات البديلة (COMPAS) حيث كانت ‏‏خوارزمية الذكاء الاصطناعي‏‏ أثناء تنميط المشتبه بهم متحيزة ضد مجتمع السود.‏

‏فيما يلي بعض التدابير التي يمكن اتخاذها لسد القضايا المتعلقة بالثقة في الذكاء الاصطناعي

  • ‏‏يحتاج جميع مزودي الذكاء الاصطناعي الرئيسيين إلى وضع قواعد ومبادئ توجيهية تتعلق بالثقة والشفافية في تنفيذ الذكاء الاصطناعي. يجب اتباع هذه المبادئ دينيا من قبل جميع أصحاب المصلحة المشاركين في تطوير الذكاء الاصطناعي واستخدامه.‏
  • ‏يجب أن يكون جميع أصحاب المصلحة على دراية بالتحيز الذي يأتي بطبيعته مع خوارزمية الذكاء الاصطناعي ويجب أن يكون لديهم آلية قوية للكشف عن التحيز وطرق للتعامل معه.‏
  • ‏الوعي هو عامل رئيسي آخر يلعب دورا رئيسيا في سد فجوة الثقة. يجب توعية المستخدمين بالعمليات الذكاء الاصطناعي وقدراتها وحتى النقص المرتبط بالذكاء الاصطناعي‏





‏4. مشكلة الحساب‏

‏تتضمن خوارزمية الذكاء الاصطناعي تحليل الكمية الضخمة من البيانات التي تتطلب قدرا هائلا من القوة الحسابية. حتى الآن تم التعامل مع المشكلة بمساعدة ‏‏الحوسبة السحابية والمعالجة‏‏ المتوازية. ومع ذلك ، مع زيادة كمية البيانات وخوارزمية التعلم العميق الأكثر تعقيدا في التيار الرئيسي ، فإن القوة الحسابية الحالية لن تكون كافية لتلبية المتطلبات المعقدة. سنحتاج إلى المزيد من التخزين والطاقة الحسابية التي يمكنها التعامل مع الإكسابايت و Zettabytes من البيانات.‏

‏الحوسبة الكمومية يمكن أن تعالج مشكلة سرعة المعالجة على المدى المتوسط إلى الطويل‏

‏قد تكون الحوسبة الكمومية التي تستند إلى مفاهيم نظرية الكم هي الحل لحل تحديات القدرة الحسابية. الحوسبة الكمومية أسرع 100 مليون مرة من الكمبيوتر العادي الذي نستخدمه في المنزل. على الرغم من أنه حاليا ، هو في مرحلة البحث والتجريبية. وفقا لتقدير من قبل خبراء مختلفين ، يمكننا أن نرى تنفيذه السائد في السنوات 10-15 القادمة.‏


‏من المؤكد أن المشاكل المذكورة أعلاه ليست مستحيلة الحل ، ومع ذلك ، فإنها تتطلب تطورا سريعا في التكنولوجيا وكذلك التعاون البشري. في حين أننا نسير على الطريق الصحيح من حيث معدل التقدم التكنولوجي ولكن لا يزال أمامنا طريق طويل لنقطعه لتطوير المبادئ والمنهجية والأطر لضمان عدم إساءة استخدام التكنولوجيا القوية مثل الذكاء الاصطناعي أو إساءة تطبيقها مما قد يؤدي إلى عواقب غير مقصودة.‏

author-img
بدر جمال

تعليقات

google-playkhamsatmostaqltradent