العلماء عاجزون عن تفسير بعض طرق الذكاء الاصطناعي!

يوماً بعد يوم يزداد اعتماد البشر على الذكاء الاصطناعي. ومع هذا الاعتماد المتزايد يستمر تطور أنظمة الذكاء الاصطناعي بسرعة حتى أن العلماء أصبحوا غير قادرين على تفسير أو شرح الطريقة التي يعمل بها.

ما هي نكهة الآيس كريم المفضلة لديك؟ قد تقول الفانيليا أو الشوكولا، وإذا سألت عن السبب، فمن المحتمل أن تقول لأن طعمه جيد. ولكن لماذا تصف طعمها بالجيد؟ ولماذا لا تزال ترغب في تجربة نكهات أخرى في بعض الأحيان؟ نادراً ما نشكك في القرارات الأساسية التي نتخذها في حياتنا اليومية، ولكن إذا فعلنا ذلك، فقد ندرك أنه لا يمكننا تحديد الأسباب الدقيقة لتفضيلاتنا وعواطفنا ورغباتنا في أي لحظة.

بشكل مشابه، هناك مشكلة مماثلة في الذكاء الاصطناعي، فالأشخاص الذين يطورون الذكاء الاصطناعي يواجهون مشاكل متزايدة في شرح كيفية عمله وتحديد سبب إعطائه نتائج معينة قد تكون غير متوقعة أحياناً.

غالبًا ما تبدو الشبكات العصبية العميقة (DNN-Deep neural networks) – والمكونة من طبقات متعددة من أنظمة معالجة البيانات التي قام العلماء بتغذيته بها لتقليد الشبكات العصبية لدماغ الإنسان، تبدو وكأنها تعكس ليس فقط الذكاء البشري ولكن أيضاً عدم القدرة على تفسير الكيفية التي يتم بها عمل دماغ الإنسان.

الصندوق الأسود الغامض!

معظم أنظمة الذكاء الاصطناعي تعمل بطريقة تسمى “الصندوق الأسود”، وهي أنظمة يتم التعرض لها فقط من حيث مدخلاتها ومخرجاتها، لكن لا يحاول العلماء فك شفرة هذا “الصندوق الأسود”، أو العمليات الغامضة التي يقوم بها النظام، طالما أنهم يتلقون المخرجات التي يبحثون عنها.

على سبيل المثال، إذا قدمت بيانات للذكاء الاصطناعي حول كل نكهة آيس كريم، وبيانات ديموغرافية حول العوامل الاقتصادية والاجتماعية ونمط الحياة لملايين الأشخاص، فمن المحتمل أن تخمن نكهة الآيس كريم المفضلة لديك أو أين تفضل تناولها وفي أي متجر للآيس كريم، حتى لو لم يكن مبرمجاً لهذا الغرض.

عاجزون عن الشرح!

ومع الوقت يصبح من الصعب إصلاح هذه الأنظمة جزئياً لأن مطوريها غالباً لا يستطيعون شرح كيفية عملها بشكل كامل، مما يجعل المسألة صعبة. ونظراً لأن أنظمة الذكاء الاصطناعي أصبحت أكثر تعقيدًا وأصبح البشر أقل قدرة على فهمها، يحذر خبراء الذكاء الاصطناعي والباحثون المطورين من التراجع في هذا الأمر، والتركيز بشكل أكبر على كيفية وسبب إنتاج الذكاء الاصطناعي لنتائج معينة بدلاً من معرفة حقيقة أن النظام يمكن أن ينتجها بدقة وسرعة.

كتب رومان ف. يامبولسكي، أستاذ علوم الكمبيوتر بجامعة لويزفيل، في ورقته البحثية بعنوان “عدم قابلية التفسير وعدم فهم الذكاء الاصطناعي” يقول: “بالإضافة إلى ذلك، إذا اعتدنا على قبول إجابات الذكاء الاصطناعي دون تفسير، ومعاملته بشكل أساسي كنظام أوراكل، فلن نتمكن من معرفة ما إذا كان سيبدأ في تقديم إجابات خاطئة أو متلاعبة في المستقبل.” وفق ما نشر موقع “فايس”.

يذكر أنه تم استخدام أنظمة الذكاء الاصطناعي في السيارات ذاتية القيادة، وروبوتات المحادثة لخدمة العملاء، وتشخيص الأمراض، كما أن لديها القدرة على أداء بعض المهام بشكل أفضل من البشر.

على سبيل المثال، الآلة قادرة على تذكر تريليون عنصر، مثل الأرقام والحروف والكلمات، مقابل البشر، الذين يتذكرون سبعة في المتوسط ​​في ذاكرتهم قصيرة المدى، كما أنها قادرة على معالجة المعلومات وحسابها بسرعة أكبر و معدل محسن من البشر، لكن مع تطور العمليات التي أصبحت نماذج الذكاء الاصطناعي قادرة عليها، تراجعت مع الوقت قدرة مطوريها على شرح الكيفية التي تعمل بها.

وقالت إميلي إم بندر، أستاذة اللغويات في جامعة واشنطن في تصريحات صحفية: “إذا لم يفهم قادة الأعمال وعلماء البيانات لماذا وكيف يحسب الذكاء الاصطناعي المخرجات التي يقوم بها، فإن ذلك يخلق مخاطر محتملة، فيما قال بينا اماناث، المدير التنفيذي لمعهد ديلويت للذكاء الاصطناعي، إن الافتقار إلى القابلية لتفسير كيفية عمل الذكاء الاصطناعي يحد من القيمة المحتملة له”، بحسب ما نشر موقع “ماذربورد” التقني.

وتتمثل المخاطر في أن نظام الذكاء الاطناعي قد يتخذ قرارات باستخدام قيم قد لا نتفق معها، مثل القرارات المتحيزة (كالعنصرية أو التمييز الجنسي). كما أن هناك خطر آخر يتمثل في أن النظام قد يتخذ قرارًا سيئًا للغاية، لكن لا يمكننا التدخل لأننا لا نفهم أسبابه، بحسب ما قال جيف كلون، الأستاذ المساعد في علوم الكمبيوتر بجامعة كولومبيا البريطانية.

عماد حسن (التلفزيون الألماني)

 

مقالات ذات صلة

زر الذهاب إلى الأعلى

تم الكشف عن مانع الإعلانات

يرجى إلغاء تنشيط مانع الإعلانات الخاص بك حتى تتمكن من استخدام موقعنا.