الرئيسية » وكلاء الذكاء الاصطناعي: أدوات مستقلة مذهلة… ومخيفة الموجة التالية من التطويرات قادمة

وكلاء الذكاء الاصطناعي: أدوات مستقلة مذهلة… ومخيفة الموجة التالية من التطويرات قادمة

by ekram

إن الضجة المستمرة حول الذكاء الاصطناعي تجعل من الصعب فصل الإشارة الحقيقية عن «الضوضاء». إلا أن أهمية «الذكاء الاصطناعي المستقل» قد تتجاوز الضجة بالفعل، كما كتب توم بارنيت

وكلاء أذكياء مستقلون

يمكن

لوكيل الذكاء الاصطناعي المستقل التفاعل مع البيئة، واتخاذ القرارات، واتخاذ الإجراءات، والتعلم من العملية. وهذا يمثل تحولاً هائلاً في استخدام الذكاء الاصطناعي، وبالتالي يقدم فرصاً ومخاطر مقبلة.

إن أدوات الذكاء الاصطناعي التوليدية، التي تخضع إلى حد كبير للإشراف البشري، مصممة حتى الآن للعمل من خلال التدريب المسبق (وهو ما يمثله الحرف P في GPT – Generative pre – trained transformer). أي التدريب على كميات هائلة من البيانات أدت إلى تطوير نظم مثل نماذج اللغة الكبيرة (LLMs)، والنظم الأخرى المستندة إلى مصادر بيانات محددة أخرى، ومن ثم تقديم استجابات للمدخلات، أو المطالبات (سؤال أو تعليمات) التي يقدمها المستخدمون.

استجابات مماثلة لاستجابات البشر

وقد ثبت أن هذه طريقة رائعة للتوصل إلى استجابات شبيهة بالإنسان للاستفسارات أو المطالبات -مثل طفل يقلد الأصوات أو الكلمات دون أن يعرف حقاً ما يقوله. إنه أمر رائع نوعاً ما، ولكن من غير المرجح أن تتمكن هذه الأدوات من أن تستحضر مبادئ نيوتن، أو تقدم سيمفونية بيتهوفن. إذن، هل تعمل هذه الأدوات التوليدية حقاً ككائنات إبداعية مستقلة؟ هذا أمر مشكوك فيه. ولكن هذا قد يتغير بشكل كبير.

نهج ذكاء اصطناعي جديد

يسمح نهج جديد للذكاء الاصطناعي بالتفاعل بشكل مباشر وأكثر استقلالية مع البيانات، والتفاعل بطريقة ديناميكية -أشبه كثيراً بما يفعله البشر. وتعتمد هذه التكنولوجيا على وكلاء الذكاء الاصطناعي المستقلين، الذين يعتقد بيل غيتس أنهم سيقلبون صناعة البرمجيات رأساً على عقب، ويجلبون أكبر ثورة في الحوسبة منذ انتقلنا من كتابة الأوامر إلى النقر على الأيقونات. وقد يكون هذا أقل من الحقيقة.

وكلاء أذكياء لاتخاذ القرارات

تم تصميم وكلاء الذكاء الاصطناعي لاتخاذ القرارات دون تدخل بشري لأداء مهام محددة مسبقاً (في الوقت الحالي). يمكنهم الوصول إلى العالم الخارجي، والعثور على بيانات لم يسبق لهم مواجهتها، وتحليلها، ثم اتخاذ إجراء -وهو ما يشبه إلى حد كبير التفاعل البشري مع البيئة، وأقل مثل هو الاعتماد على عالم البيانات الثابتة لبرنامج الشطرنج، أو روبوت الدردشة، وبرنامج النماذج اللغوية الكبرى الذي لا يمكنه تجاوز المعرفة المدربة مسبقاً.

إنها أدوات تبدو رائعة. ولكن ماذا إن حدث خطأ؟

هذه خطوة كبيرة إلى الأمام، تحل محل النهج الإحصائي الذكي لتكرار التعبير البشري بشيء قادر على استيعاب المحفزات الخارجية غير المعروفة مسبقاً، ومعالجتها، واتخاذ إجراء دون الحاجة إلى التدريب المسبق أو إعادة التدريب. نحن نزيل دورنا الوسيط في إنشاء وإدارة عالم الذكاء الاصطناعي المفاهيمي وصنع القرار.

هذه هي النقطة والمشكلة في نفس الوقت. من العدل أن نقول إن الطفل الذي يعمل بالذكاء الاصطناعي ليس في طريقه إلى اتخاذ بضع خطوات فحسب؛ بل قد يكون قادراً على الانطلاق بسرعة.

إيجابيات إزالة الوسيط البشري

الجانب الإيجابي واضح. ستقل الحاجة إلى التدريب والإشراف المحددين. ولا تقتصر قدرة هذا الأدوات على التوسع إلا على موارد الحوسبة. يمكنك إزالة الوسيط البشري وإرسال وكلاء للذهاب، وإكمال كميات هائلة من المهام بأنفسهم. إنهم في نهاية المطاف وكلاء، ولديهم القدرة على اتخاذ القرارات والاختيارات. والأخطاء.

أخطاء فادحة وأخطار التسلل

*أخطاء وتسلل. ما الذي قد يحدث خطأ؟ باعتبارها برمجيات وليست فاعلاً بشرياً، يمكن أن تتفاقم أخطاء وكلاء الذكاء الاصطناعي على الفور وبشكل لا نهائي تقريباً، وتكرارها، وتسلسلها. كما أنها تصبح هدفاً للمتسللين.

*سيناريوهات «يوم القيامة». هناك سيناريوهات واضحة لـ«يوم القيامة» مثل وكيل الذكاء الاصطناعي المارق الذي يتسبب بشكل غير صحيح في موجة ضخمة من تداول الأوراق المالية أو إطلاق حملة انتقام عسكرية عن غير قصد. عندما يتعلق الأمر بالقرارات ذات العواقب الكارثية المحتملة، فإن الإشراف البشري ليس مثالياً بأي حال من الأحوال، لكن معظمنا يشعر على الأقل بقدر ضئيل من الراحة عند معرفة أن هناك يداً بشرية خبيرة تحوم فوق زر التشغيل.

* خرق القانون وأخطار التجارة. هناك تأثيرات أقل دراماتيكية، ولكنها لا تزال شديدة التأثير في المجال القانوني والامتثال، وهي تشكل مخاطر تجارية كبيرة.

*التحيز الخوارزمي. يستخدم المزيد والمزيد من الشركات أدوات مدفوعة بالذكاء الاصطناعي عبر دورة حياة الموظف بأكملها، من اختيار المرشحين إلى إجراء المقابلات، والتوظيف، والاستمرار من خلال تقييم الأداء (الزيادات والترقيات والإنهاء).

وتنشر هذه الأدوات بشكل متزايد وكلاء الذكاء الاصطناعي. إذ غالباً ما يروج مقدمو الخدمات لوكلاء الذكاء الاصطناعي على أنهم يدعمون ويحسنون جودة قرارات الموارد البشرية الحاسمة. ولكن الأخطاء الدقيقة في تصميم النظام أو تنفيذه قد تؤدي إلى نتائج غير عادلة. وهناك اسم لهذه الظاهرة: التحيز الخوارزمي.

وفي الوقت نفسه، تتبنى الولايات الأميركية قوانين تعاقب كلاً من المطورين والمستخدمين لهذه الأدوات إذا أدى استخدامها إلى معاملة غير عادلة للموظفين. ومن الطبيعي أن يتبع ذلك التقاضي.

أعمال محفوفة بالمخاطر

لا يمكن إنكار أن وكلاء الذكاء الاصطناعي يقدمون فرصة كبيرة لزيادة الإنتاجية من خلال أتمتة المهام الروتينية، وتحرير الناس لمزيد من الإبداع، وحل المشكلات. ولكن المخاطر لا يمكن إنكارها بنفس القدر.

في حين أن التخلص من الإشراف والرقابة قد يكون ضرورياً مع الأطفال في مرحلة معينة، فإن الاستعارة لا تذهب إلى أبعد من ذلك عندما يتعلق الأمر بتحرير الذكاء الاصطناعي من خلال الوكلاء المستقلين. وفي الوقت الحالي، وبينما نزيل مهمات التدريب بسعادة، يجب أن ننتبه إلى موازنة حماسنا المفهوم مع الحذر المعقول لتجنب أي حوادث كارثية.

You may also like