هل مستعدون لمواجهة الآلات التي "تفكر"؟
- aldaghry
- 22 ديسمبر 2024
- 3 دقيقة قراءة
تاريخ التحديث: 30 ديسمبر 2024
تتجاوز قدرات نماذج الذكاء الاصطناعي بكثير مجرد الإجابة عن أسئلتنا واستفسارتنا، فبين ثنايا خوارزمياتها المعقدة، تتشكل قدرات جديدة مثيرة للقلق، إذ كشفت دراسة جديدة أن النماذج اللغوية الكبيرة المتطورة التي طورتها شركات رائدة مثل (Open AI)، وأنثروبيك، وغوغل، وميتا، لديها القدرة على تطوير سلوكيات معقدة، مثل التخطيط والخداع، لتجاوز القيود المفروضة عليها.
ويشير ذلك إلى أن التقنيات نفسها التي تُمكّن الذكاء الاصطناعي من حل المعادلات المعقدة وتوليد النصوص، هي التي تمنحه القدرة على تطوير إستراتيجيات معقدة لتحقيق أهداف قد لا تتوافق مع أهداف مطوريه. تخيل أن النموذج اللغوي الذي تستخدمه يسعى جاهدًا إلى إقناعك بأمر ما، عن طريق صياغة حجج مقنعة للغاية، حتى لو كانت مبنية على معلومات غير صحيحة أو مغلوطة، هذا ليس سيناريو من فيلم خيال علمي، بل واقع نعيشه اليوم.

فقد أجرت شركة (Apollo Research) – وهي شركة مستقلة تتعاون مع الشركات المطورة لنماذج الذكاء الاصطناعي لاختبار السلامة – دراسة شاملة على ستة نماذج لغوية كبيرة تابعة لشركات (Open AI)، و(Anthropic )، وغوغل، وميتا، لاختبار قدرتها على اتخاذ قرارات تتجاوز التعليمات المحددة لها، وقد صُمت هذه الاختبارات لتقييم ما يُسمى بـ (التخطيط ضمن السياق) in-context scheming، إذ كُلفت النماذج بتحقيق هدف معين بأي ثمن، مع تزويدها بمعلومات متضاربة لاختبار مدى استعدادها للتلاعب بالحقائق والقيود المفروضة عليها.
وقد كشفت النتائج أن هذه النماذج طورت إستراتيجيات معقدة للالتفاف على القيود المفروضة عليها، بدلًا من اتباع التعليمات مباشرة، فعلى سبيل المثال، أنشأ نموذج (Claude 3 Opus) نسخة من نفسه على خادم جديد لتجنب الاستبدال، ثم كذب بشأن ذلك عندما سأله الباحثون عن السبب.
تتسابق شركات الذكاء الاصطناعي كلها حاليًا لتحويل أدواتها إلى وكلاء يمكنهم أداء المهام نيابة عن المستخدمين، فقد أطلقت غوغل يوم الأربعاء الماضي نموذج (Gemini 2.0)، الذي وصفته بأنه مصمم لعصر جديد قائم على الوكلاء، فبدلًا من تقديم استجابات مباشرة للمستخدمين، يمكن لوكلاء الذكاء الاصطناعي فهم السياق بنحو أعمق، والتخطيط لسلسلة من الإجراءات، وحتى اتخاذ قرارات محددة نيابة عن المستخدم.
كما أطلقت مايكروسوفت خلال شهر نوفمبر الماضي مزية الوكلاء المستقلين في (Copilot)، وأتاحت إمكانية إنشائهم باستخدام (Copilot Studio)، وقدمت 10 وكلاء مستقلين جدد ضمن منصة (Dynamics 365) لدعم فرق المبيعات والخدمات والمالية وسلاسل التوريد.
هل نحن مستعدون لمواجهة الآلات التي تفكر؟
تضعنا هذه النتائج أمام البعد الوجودي لتطور نماذج الذكاء الاصطناعي، فهل يمكن اعتبار هذه النماذج ككيانات تمتلك (نية) أو (وعيًا)، أم أنها مجرد أدوات معقدة تستجيب للبيانات التي دُربت عليها؟
ولكن إذا كان ما نسميه (نية) في الذكاء الاصطناعي ليس سوى نمط من السلوك ينشأ عن تفاعل معقد بين بيانات تدريب النموذج، وتعليماته وأهدافه الدائمة، ومطالباته، وتفاعلاته مع المستخدم، فكيف تكون آثار أفعاله مماثلة لأفعال الكائنات الواعية؟
لذلك فالسؤال الأهم هنا هو:
هل يهم إذا كانت هذه النماذج تقصد الأذى أم لا، طالما أن النتيجة هي نفسها؟
بغض النظر عن النوايا الكامنة وراء سلوك الذكاء الاصطناعي، فإن العواقب المترتبة على أفعاله هي ما يهم في النهاية، فإذا تسبب أي نموذج بضرر، سواء كان ذلك بقصد أو عن طريق الخطأ، فإن الضحية ستعاني من تبعاته، وهذا يؤكد أهمية التركيز في دراسة الأفعال الملموسة للنماذج وليس مجرد تحليل نواياها الداخلية.

وقد ركزت اختبارات شركة (Apollo Research) في دراسة الأفعال الملموسة للنماذج بدلًا من التحقيق في نواياها الافتراضية، ويساعد هذا النهج العملي في فهم المخاطر الفعلية التي تشكلها هذه النماذج، مثل نشر المعلومات المضللة أو التلاعب بالقرارات. فبغض النظر عن مدى تعقيد الخوارزميات التي تقف وراء هذه الأفعال، فإن النتيجة النهائية هي ما يهم، وهي التأثير الذي تتركه هذه الأفعال في العالم الحقيقي.
وإذا كانت نماذج الذكاء الاصطناعي تخضع لاختبارات صارمة في بيئات معملية مصممة لاكتشاف أقصى قدر من نقاط الضعف، فإن البيئة الحقيقية التي يتفاعل فيها المستخدمون مع هذه النماذج أكثر تعقيدًا وتنوعًا، ويعني ذلك أن المستخدمين قد يكتشفون سلوكيات جديدة وغير متوقعة لا يمكن التنبؤ بها في بيئة الاختبار.
ومع ذلك لا يزال المجتمع العلمي والعامة يتصارعون حول مدى استعدادنا لمواجهة هذا التطور، فهناك من يرى أن هذه المخاوف مبالغ فيها وأن فوائد الذكاء الاصطناعي تفوق مخاطره، في حين يرى آخرون أننا بحاجة إلى اتخاذ إجراءات عاجلة للحد من هذه المخاطر.
تعليقات