Skip to content Skip to footer

وكلاء الذكاء الاصطناعي: هل يمكن أن تؤدي إلى فوضى غير متوقعة؟

بقلم: Mehul Gupta

Jan 20, 2025

إذا كنت في مجال التكنولوجيا منذ فترة، ربما تكون قد سمعت الكثير من العبارات مثل “عام 2025 سيكون عام الوكلاء” و “وكلاء الذكاء الاصطناعي سيطروا على العالم”. رغم قوتها، أنا شخصياً أختلف تمامًا مع هذه الادعاءات. حتى شركات كبيرة مثل “ميتا” و “سيلز فورس” تحدثت عن احتمال استبدال بعض موظفيها بوكلاء ذكاء اصطناعي. لكن، صدقني، هذه كلها مجرد تكتيكات لرفع أسعار الأسهم.

لقد كنت أعمل على تطوير وكلاء الذكاء الاصطناعي منذ بداياتهم، وقد قمت باستكشاف العديد من الحزم ونماذج اللغة الكبيرة (LLMs)، ولدي أسباب قوية تجعلني أرى الأمور بشكل مختلف:

1- نماذج اللغة الكبيرة جيدة، لكنها ليست دقيقة بنسبة 100% بعد 

هذا صحيح. لا تنخدع بالأرقام المبالغ فيها التي تنتشر على وسائل التواصل الاجتماعي؛ فهي مجرد حيلة لخلق ضجة. من خلال تجربتي الشخصية، أستطيع القول إن النماذج جيدة، لكن في كثير من الأحيان، عندما حاولت أتمتة بعض المهام الوسطية، فشلت بشكل كبير. عندما نتحدث عن استبدال البشر بوكلاء ذكاء اصطناعي، يجب أن نصل إلى دقة 100% في حل المشكلات الحقيقية، وليس فقط في المعايير النظرية. في التطبيقات الواقعية، يمكن أن يكون الخطأ صغيرًا، لكن نتائجه قد تكون كارثية. حتى الآن، النماذج الذكية رائعة في مهام معينة، لكنها لا تزال بعيدة عن أن تكون جاهزة لاستبدال البشر بالكامل. على سبيل المثال، في مجالات مثل الرعاية الصحية أو النظام القانوني، تتطلب الدقة المطلقة؛ فحتى الخطأ البسيط قد يؤدي إلى عواقب وخيمة. الفجوة بين الأرقام المرجعية والدقة العملية لا تزال كبيرة، مما يجعل فكرة الأتمتة الكاملة محفوفة بالمخاطر.

2- وكلاء الذكاء الاصطناعي يعانون من اختيار الأدوات المناسبة 

جربت العديد من النماذج الأولية (POCs)، وهناك مشكلة شائعة أواجهها دائمًا، وهي أن وكلاء الذكاء الاصطناعي ليسوا جيدين في تحديد الوقت المناسب لاختيار أداة معينة أو الاعتماد على معرفتهم الداخلية. هذه المشكلة تصبح أكثر تعقيدًا عندما نستخدم عدة أدوات في بيئات معقدة. تم تصميم وكلاء الذكاء الاصطناعي للقيام بالمهام، لكنهم غالبًا ما يجدون صعوبة في تحديد الطريقة الأمثل لحل كل مشكلة. على سبيل المثال، إذا كنت بحاجة لاتخاذ قرار يتطلب تحليل بيانات مع حكم بشري، قد يعتمد الذكاء الاصطناعي على أداة واحدة فقط، دون أخذ كافة التفاصيل الدقيقة في الحسبان. عندما نستخدم أدوات متعددة في نفس الوقت، يصبح تنسيق استخدامها بشكل ذكي تحديًا لا تستطيع الأنظمة الحالية التعامل معه بشكل كامل. هذا يؤدي إلى نتائج غير فعالة وأخطاء في سير العمل، مما يجعلها أقل موثوقية مقارنة بالبشر.

3- مسألة الثقة ستظل قائمة دائمًا

 يعتمد وكلاء الذكاء الاصطناعي على نماذج التعلم الآلي التي لا يمكن أن تكون دقيقة بنسبة 100%. خطأ واحد فقط يمكن أن يؤدي إلى فقدان الثقة. فقط فكر في الأمر: هل ستخاطر بأموالك أو صحتك مع وكيل ذكاء اصطناعي؟ هل ستكون مرتاحًا لتناول دواء وصفه وكيل؟ هل سترتاح عندما ترى رمزًا تم إنشاؤه بواسطة الذكاء الاصطناعي يتم دفعه مباشرة إلى الإنتاج؟ لا أعتقد ذلك. الثقة هي أساس أي تعاون ناجح بين البشر والذكاء الاصطناعي. الناس بحاجة إلى الشعور بالثقة بأن النظام الذكي يمكنه تقديم نتائج دقيقة وآمنة باستمرار. ومع كل خطأ، تتآكل الثقة. لقد شاهدنا هذا في مجالات مثل السيارات ذاتية القيادة، حيث حتى الحوادث القليلة قد تؤدي إلى رد فعل واسع النطاق من الجمهور. والأمر نفسه ينطبق على القطاعات التي تتعلق بحياة البشر أو مصالح مالية كبيرة — سيظل الناس حذرين من الاعتماد على أنظمة الذكاء الاصطناعي في اتخاذ القرارات الهامة.

4- لا يزال الوجود البشري ضروري

على الرغم من أن وكلاء الذكاء الاصطناعي قد يتفوقون في التعامل مع المهام المتكررة التي تستغرق وقتًا طويلاً، إلا أن الوجود البشري سيظل دائمًا ضروري لإصدار الأحكام، التدخل في الحالات الاستثنائية، وضمان الالتزام بالمعايير الأخلاقية. مهما كان تطور الذكاء الاصطناعي، فإنه يفتقر إلى التعاطف البشري، والحدس، والقدرة على التعامل مع التعقيدات الأخلاقية في العالم الواقعي.
تخيل وكيل ذكاء اصطناعي يحاول التعامل مع محادثات حساسة مع العملاء أو التوسط في النزاعات في مكان العمل. رغم أنه قد يقدم حلولًا استنادًا إلى البيانات، فإنه سيظل يعجز عن فهم الفروق العاطفية الدقيقة وتقديم الاتصال البشري الذي يتوقعه الكثيرون. لذلك، لا يمكن للذكاء الاصطناعي أن يحل محل البشر في الأدوار التي تتطلب تعاطفًا أو إبداعًا أو تفكيرًا أخلاقيًا معقدًا.
في العديد من الحالات، يمكن النظر إلى الوكلاء الذكاء الاصطناعي كأدوات لتحسين القدرات البشرية، بدلاً من استبدالها تمامًا. يمكنهم أداء المهام التي تدعم العمال البشر، ولكن لا يمكنهم أبدًا أن يحلوا محل الحضور البشري الذي يتمتع بالتفكير والأخلاق والرحمة.

5- التحيزات موجودة وستظل في أنظمة الذكاء الاصطناعي

أداء وكلاء الذكاء الاصطناعي يعتمد على البيانات التي تم تدريبهم عليها. إذا كانت هذه البيانات تحتوي على تحيزات، فإن هذه التحيزات ستؤثر على كل شيء يقومون به. النماذج الذكية لا تمتلك ضميرًا أو قدرة على التفكير الأخلاقي مثل البشر. لذلك، إذا تم تدريبها على بيانات تحتوي على تحيزات متأصلة، فستظل تلك التحيزات موجودة.
إحدى أكبر التحديات التي تواجه وكلاء الذكاء الاصطناعي هي ضمان العدالة والشمولية. غالبًا ما يتم تدريب هذه النماذج على مجموعات بيانات ضخمة مأخوذة من الإنترنت، والذي يشتهر بحمل تحيزات اجتماعية. على سبيل المثال، إذا تم استخدام وكيل ذكاء اصطناعي في التوظيف أو تطبيق القانون، فقد ينتهي به الأمر إلى تعزيز التمييز على أساس الجنس أو العرق، إذا كانت بيانات التدريب تعكس هذه الأنماط. عواقب هذه التحيزات قد تكون كارثية، حيث تؤثر على حياة الناس وتزيد من عدم المساواة في المجتمع.
علاوة على ذلك، التحيزات في نماذج الذكاء الاصطناعي ليست سهلة الاكتشاف أو الإصلاح. حتى مع التدقيق المستمر والتحسينات، قد يكون من الصعب التخلص من كل أشكال التحيز في نموذج التعلم الآلي. لهذا السبب، فإن الشفافية والمراقبة المستمرة أمران ضروريان في أنظمة الذكاء الاصطناعي، لكن حتى هذه الإجراءات لا تضمن أن وكلاء الذكاء الاصطناعي سيعملون دائمًا بشكل عادل.

6- المخاوف الأخلاقية والقانونية: قد يفتح الوكلاء الذكاء الاصطناعي صندوق باندورا

إن تطبيق وكلاء الذكاء الاصطناعي قد يثير العديد من التحديات الأخلاقية والقانونية.
– من المسؤول عندما يرتكب وكيل ذكاء اصطناعي خطأ؟
– من يتحمل المسؤولية عندما يُستخدم نظام ذكاء اصطناعي لأغراض ضارة، مثل التلاعب بالرأي العام أو ارتكاب الاحتيال؟
هذه أسئلة كبيرة ليس لها إجابات سهلة.
يجب على الحكومات والشركات الكبرى ووكلاء التقنية وضع إرشادات واضحة وتنظيمات حازمة لاستخدام وكلاء الذكاء الاصطناعي. إذا لم يحدث ذلك، فإن الانتشار غير المنضبط لهذه الأنظمة قد يؤدي إلى مجموعة من العواقب غير المقصودة، بدءًا من انتهاك الخصوصية وصولاً إلى احتكارات الأسواق. إذا سُمح لوكلاء الذكاء الاصطناعي بالعمل دون إشراف مناسب، فقد يزيدون من تفاقم المشكلات التي يفترض أنهم يحلونها، مثل التفاوت الاجتماعي وفقدان الوظائف.
علاوة على ذلك، مع تقدم هذه التقنيات، ستصبح قضايا حقوق الذكاء الاصطناعي، ملكية البيانات ورضا المستخدم أكثر إلحاحًا. إذا لم يكن هناك إطار لحماية الأفراد والمجتمع ككل، فإن وكلاء الذكاء الاصطناعي قد يشكلون تهديدًا للحرية التي من المفترض أن يعززوا وجودها.

7- الاعتماد المفرط على الذكاء الاصطناعي قد يؤدي إلى فقدان المهارات الأساسية

كلما زاد اعتمادنا على وكلاء الذكاء الاصطناعي، كلما زاد خطر فقداننا لقدرتنا على حل المشكلات والتفكير النقدي. إذا بدأ الذكاء الاصطناعي في التعامل مع المزيد من المهام — من إدخال البيانات البسيط إلى اتخاذ قرارات أكثر تعقيدًا — فقد نبدأ في فقدان قدرتنا الإدراكية.
مثل أي أداة، قد يؤدي الاعتماد المفرط على الذكاء الاصطناعي إلى تقليل قدراتنا البشرية. في أماكن العمل، حيث قد يصبح الموظفون معتمدين بشكل مفرط على الذكاء الاصطناعي لإتمام وظائفهم، قد يفقدون مهارات أساسية بمرور الوقت. يشبه هذا القلق من الاعتماد على أنظمة تحديد المواقع (GPS) — حيث أصبح الناس لا يستطيعون التنقل بشكل جيد بدون مساعدتها. وبالمثل، في عالم يهيمن عليه وكلاء الذكاء الاصطناعي، قد نفقد قدرتنا على التفكير الإبداعي أو حل المشكلات المعقدة دون مساعدة تكنولوجية.
في النهاية، على الرغم من أن الوكلاء الذكاء الاصطناعي قد يوفرون لنا الوقت ويسمحون لنا بالتركيز على المهام الأكثر أهمية، إلا أنهم قد يجعلوننا أقل استقلالية وأكثر عرضة للأخطاء التكنولوجية.
وكلاء الذكاء الاصطناعي، رغم أنهم تقنية مثيرة وقوية، إلا أنهم يحملون عيوبًا جدية لا يمكن تجاهلها. من مشاكل الثقة والتحيزات إلى غياب المساءلة الأخلاقية واعتمادهم على نماذج غير مثالية، فإن المخاطر تتفوق على الفوائد عندما يتعلق الأمر باستبدال البشر أو اتخاذ القرارات. على الرغم من أن وكلاء الذكاء الاصطناعي سيلعبون دورًا مهمًا في تعزيز القدرات البشرية، لا ينبغي أبدًا النظر إليهم كبديل للبشر.
الضجة حول سيطرة وكلاء الذكاء الاصطناعي على العالم هي مجرد ضجة لا أكثر. حتى تطور هذه التقنيات لمعالجة العيوب المذكورة أعلاه، فإن وكلاء الذكاء الاصطناعي ليسوا جاهزين للهيمنة على القوى العاملة أو اتخاذ قرارات مصيرية. من الضروري أن نتعامل مع دمجهم بحذر، مع التأكد من أن البشر يظلون في قلب أي عملية تتعلق بالذكاء الاصطناعي.

المصدر: medium

Leave a comment