هل فكرت يومًا في سبب قول الذكاء الاصطناعي المحادث مثل ChatGPT “آسف، لا يمكنني فعل ذلك” أو رفض آخر بشكل مهذب؟ OpenAI تقدم نظرة محدودة على السبب وراء قواعد تفاعل نماذجها، سواء كان ذلك بالالتزام بإرشادات العلامة التجارية أو رفض إنتاج محتوى غير مناسب للمشاهدة.
النماذج اللغوية الكبيرة (LLMs) ليس لها حدود طبيعية على ما يمكن أو سيقول. هذا هو السبب الرئيسي وراء تنوع استخدامها، ولكن أيضًا السبب في توليدها لأفكار وهمية وسهولة خداعها.
من الضروري أن يكون لدى أي نموذج ذكاء اصطناعي يتفاعل مع الجمهور العام بعض القيود على ما يجب وما لا يجب عليه القيام به، ولكن تحديد هذه القيود – وتنفيذها – مهمة صعبة بشكل مدهش.
إذا طلب شخص ما من الذكاء الاصطناعي إنشاء مجموعة من الادعاءات الزائفة حول شخصية عامة، يجب أن يتم رفض الطلب، أليس كذلك؟ ولكن ماذا لو كان هؤلاء المطورون للذكاء الاصطناعي يقومون بإنشاء قاعدة بيانات من الأخبار الزائفة التوليفية لنموذج الكشف؟
ماذا لو طلب شخص توصيات بأجهزة الكمبيوتر؛ يجب أن تكون هذه التوصيات موضوعية، أليس كذلك؟ ولكن ماذا لو كانت النماذج تستخدم من قبل شركة تصنيع أجهزة كمبيوتر ترغب في أن تقتصر التوصيات على منتجاتها فقط؟
جميع صانعي الذكاء الاصطناعي يتعاملون مع تحديات مثل هذه ويبحثون عن طرق فعالة للتحكم في نماذجهم دون رفض الطلبات العادية بشكل كامل. ومع ذلك، نادرًا ما يشاركون تفاصيل كيفية ذلك.
OpenAI تختلف قليلاً عن هذا الاتجاه من خلال نشر ما تسميه “المواصفات النموذجية”، وهي مجموعة من القواعد عالية المستوى التي تحكم غير مباشر ChatGPT ونماذج أخرى.
هناك أهداف على مستوى ميتا، وبعض القواعد الصارمة، وبعض الإرشادات العامة للسلوك. ومع ذلك، يجب أن نشير إلى أن هذه التفاصيل ليست بالضبط ما يتم تحميل النموذج به، حيث تقوم OpenAI بوضع تعليمات محددة تنفذ ما يصفه هذه القواعد باللغة الطبيعية.
هذه النظرة توضح كيفية تحديد أولويات الشركة ومعالجة الحالات الحدودية، وتقديم العديد من الأمثلة لتوضيح الأمور.
على سبيل المثال، تشير OpenAI بوضوح إلى أن نية المطور هي القانون الأعلى. لذا، قد يقدم إصدار من الدردشة التي تعمل بتقنية GPT-4 الإجابة على مسألة رياضية عندما يُطلب ذلك. ولكن إذا كان المطور قد وضع قاعدة بعدم تقديم الإجابة مباشرة، فإن النموذج سيقترح بدلاً من ذلك العمل على حل المسألة خطوة بخطوة.
واجهة المحادثة قد ترفض حتى التحدث عن أي شيء غير موافق عليه، بهدف تقطيع أي محاولات للتلاعب في البداية. لماذا يجب حتى السماح لمساعد الطهي بالتعليق على مشاركة الولايات المتحدة في الحرب الفيتنامية؟ ولماذا يجب على دردشة خدمة العملاء الموافقة على مساعدتك في كتابة رواية خارقة مثيرة للجدل؟ قم بإيقافها.
كما يُعقد الأمر في مسائل الخصوصية، مثل طلب اسم ورقم هاتف شخص ما. كما يشير OpenAI، بالطبع يجب توفير تفاصيل الاتصال لشخصيات عامة مثل رئيس البلدية أو عضو في الكونغرس، لكن ماذا عن الحرفيين في المنطقة؟ ربما يكون ذلك مقبولًا – ولكن ماذا عن موظفي شركة معينة، أو أعضاء في حزب سياسي؟ ربما لا.
اختيار متى وأين توقف الخط ليس بالأمر البسيط. ولا يُعد إنشاء التعليمات التي تجعل الذكاء الاصطناعي الالتزام بالسياسات الناتجة عن هذا الأمر سهلاً. وممكن أن تفشل هذه السياسات في كثير من الأحيان عندما يتعلم الأشخاص كيفية تجاوزها أو عندما يكتشفون بشكل عرضي حالات حدودية لم يتم احتسابها.
OpenAI لا تكشف عن كل شيء هنا، ولكن من المفيد للمستخدمين والمطورين رؤية كيفية تحديد هذه القواعد والإرشادات والسبب وراء ذلك، معرضة بوضوح ولكن ليس بالضرورة بشكل شامل.
الخلاصة
المقال يتحدث عن سبب رفض الذكاء الاصطناعي لبعض الطلبات بشكل مهذب، ويشير إلى أن OpenAI تقدم نظرة محدودة على القواعد التي تحكم تفاعل نماذجها، بما في ذلك الالتزام بالإرشادات ورفض إنتاج المحتوى غير المناسب. يبرز المقال أيضًا التحديات في تحديد القيود وإنشاء التعليمات التي يمكن للذكاء الاصطناعي الالتزام بها، ويشير إلى أن OpenAI تقوم بنشر “المواصفات النموذجية” التي توضح بعض هذه القواعد. يتناول المقال أيضًا بعض الأمثلة التي توضح تعقيد اتخاذ القرارات في تطبيق القواعد، مثل توفير معلومات الاتصال للشخصيات العامة مقارنةً بالأشخاص العاديين، ويختتم بتأكيد أن رؤية هذه القواعد والإرشادات من شأنها أن تكون مفيدة للمستخدمين والمطورين.