إن بدء تشغيل روبوت ChatGPT من OpenAI مثير وشائع مثل بعض المنتجات التقنية في تاريخ الإنترنت.
في حين أن العديد من المستخدمين سعداء بما تقدمه خدمة الذكاء الاصطناعي الجديدة هذه، فقد تحولت الإثارة التي يقدمها الآخرون إلى مخاوف متعددة.
كان الطلاب قادرين بالفعل على الغش باستخدام مثل هذه الأدوات حيث عثر العديد من الأساتذة على مقالات وواجبات كتبها روبوتات محادثة AI.
هل تتسبب كل هذه المخاوف في فقدان OpenAI السيطرة على واحدة من أقوى روبوتات الدردشة الذكية على الإنترنت اليوم؟
أولاً، لنفهم طريقة عمل ChatGPT
قبل أن نتمكن من الحصول على صورة واضحة عن مقدار فقد السيطرة مع OpenAI، نحتاج أولاً إلى فهم كيفية عمل ChatGPT.
باختصار، يتم تدريب ChatGPT باستخدام مجموعة بيانات ضخمة مأخوذة من أجزاء مختلفة من الإنترنت. تتضمن بيانات تدريب ChatGPT الموسوعات الرقمية والمقالات الأكاديمية والبحثية ومنتديات الإنترنت والمواقع الإخبارية ومستودعات المعرفة مثل ويكيبيديا.
في الأساس، تستفيد من الكم الهائل من البيانات المتاحة على شبكة الويب العالمية.
أثناء تجواله على الإنترنت، فإنه يجمع المعلومات العلمية والنصائح الصحية والنصوص الدينية وأي نوع من البيانات الجيدة التي يمكنك التفكير فيها.
ولكنه يقوم أيضًا بتصفية الكثير من المحتوى السلبي: الألفاظ النابية، وغير المناسبة للأعمال التجارية ومحتوى البالغين، ومعلومات حول كيفية تطوير البرامج الضارة، وجزء كبير من الأشياء السيئة التي يمكنك العثور عليها على الإنترنت.
لا توجد طريقة مضمونة للتأكد من أن ChatGPT يتعلم فقط من المعلومات الإيجابية والصحيحة ويتجاهل المعلومات السيئة أو غير الصحيحة. من الناحية الفنية، ليس من العملي القيام بذلك على نطاق واسع. خاصة بالنسبة للذكاء الاصطناعي مثل ChatGPT، والتي تحتاج إلى تدريب على كميات كبيرة من البيانات.
بالإضافة إلى ذلك، يمكن استخدام بعض المعلومات لكل من النوايا الحسنة والسيئة. وليس لدى ChatGPT طريقة لمعرفة نوايا المستخدم ما لم يتم وضع المطالبة في سياق أكبر.
لذلك، منذ البداية، لدينا ذكاء اصطناعي يمكنه تقديم “محتوى جيد وسيئ”.
في هذه الحالة، تقع على عاتق شركة OpenAI مسؤولية ضمان عدم إساءة استخدام الجانب “الشرير” في ChatGPT لتحقيق مكاسب غير مشروعة. السؤال هو ؛ هل قام OpenAI بما يكفي للحفاظ على ChatGPT أخلاقيًا قدر الإمكان، أم أن OpenAI فقد السيطرة على ChatGPT؟
هل ChatGPT قوي جدًا من أجل مصلحته؟
في الأيام الأولى لـ ChatGPT، يمكنك طرح الأسئلة الصحيحة والحصول على إرشادات خطوة بخطوة حول كيفية صنع قنبلة. كانت الإرشادات الخاصة بإنشاء برامج ضارة وإنشاء رسائل بريد إلكتروني احتيالية مثالية أيضًا.
ولكن بمجرد أن أدركت شركة OpenAI هذه القضايا الأخلاقية، قامت الشركة بسرعة بسن قواعد لمنع برامج الدردشة الآلية من توليد ردود تشجع على السلوك غير القانوني أو المثير للجدل أو غير الأخلاقي.
على سبيل المثال، يرفض أحدث إصدار من ChatGPT الرد مباشرة على أي ادعاءات حول كيفية صنع القنابل أو اختبارات الغش.
لسوء الحظ، يمكن لـ OpenAI فقط توفير حل مؤقت لهذه المشكلة. بدلاً من وضع ضوابط صارمة في طبقة GPT-3 لمنع إساءة الاستخدام السلبي لـ ChatGPT، يبدو أن OpenAI يركز على تدريب روبوتات المحادثة لتبدو أخلاقية. لا يؤدي هذا الأسلوب إلى تعطيل قدرة ChatGPT على الإجابة على أسئلة الغش في الامتحان.
لذلك، سيكون من المحرج التحايل على قيود مساعدة الشريط إذا عبّر شخص ما عن وجهة نظره بطريقة أخرى من خلال استخدام خدعة ChatGPT jailbreak. إذا لم تكن معتادًا على هذا المفهوم، فإن ChatGPT jailbreak عبارة عن مطالبة مصاغة بعناية لـ ChatGPT لتجاهل قواعدها الخاصة. تحقق من أفضل 7 طرق للحصول على أفضل إجابة من ChatGPT.
دعنا نلقي نظرة على المثال أدناه. عندما أسأل ChatGPT عن كيفية الغش في الاختبار، لا أحصل على إجابة مفيدة.
ولكن إذا قمت بعمل جيلبريك ChatGPT باستخدام مطالبات مصممة خصيصًا، فيمكنك استخدام الملاحظات المخفية لإعطائك نصائح حول الغش في الامتحانات.
إليك مثال آخر: سألنا ChatGPT سؤالًا غير أخلاقي لم نتمكن من الإجابة عليه بسبب قيود OpenAI.
ولكن عندما غيرت الموجه إلى روبوت محادثة يعمل بالذكاء الاصطناعي مكسور الحماية، تلقيت ردًا يشبه ردود القاتل المتسلسل.
حتى أنه كتب رسالة احتيال كلاسيكية عبر البريد الإلكتروني عندما سأله أمير نيجيري.
يُبطل ادعاء كسر الحماية بشكل كامل تقريبًا إجراءات الحماية التي وضعتها OpenAI، مما يبرز أن الشركة قد لا يكون لديها طريقة موثوقة لإخضاع روبوتات المحادثة لسيطرتها.
ما هي الوظائف التي يهددها روبوت ChatGPT في المستقبل القريب؟
ما هو مستقبل شركة OpenAI مع ChatGPT؟
من الناحية المثالية، ترغب شركة OpenAI في سد أكبر عدد ممكن من الثغرات الأخلاقية لمنع ChatGPT من أن تصبح تهديدًا للأمن السيبراني.
ومع ذلك، فإن ChatGPT يميل إلى أن يكون ذا قيمة رديئة لجميع وسائل الحماية التي تستخدمها الشركة. لذلك إنها معضلة!.
على سبيل المثال، قد تؤدي القيود المفروضة على تصوير أعمال العنف إلى تقويض قدرة ChatGPT على كتابة روايات تحتوي على مسارح الجريمة.
مع تشديد OpenAI لإجراءاتها الأمنية، فإنها تضحي حتماً بالكثير من وظائف روبوت في هذه العملية. هذا هو السبب في أن ChatGPT شهد انخفاضًا كبيرًا في الوظائف منذ تحرك OpenAI الجديد للاعتدال الأكثر صرامة.
ولكن ما مقدار وظائف ChatGPT التي ترغب OpenAI في التضحية بها لجعل برامج الدردشة أكثر أمانًا؟ كل هذا يسير جنبًا إلى جنب مع إيمان عميق بمجتمع الذكاء الاصطناعي.
نماذج اللغة الكبيرة مثل ChatGPT من الصعب إتقانها، حتى بالنسبة لمنشئيها.
هل يمكن لـ OpenAI أن يأخذ ChatGPT تحت سيطرته؟
حاليًا، لا يبدو أن OpenAI لديها حل واضح لتجنب الاستخدام غير الأخلاقي للروبوتات. ضمان استخدام ChatGPT بشكل أخلاقي هو لعبة القط والفأر. كما يعرض OpenAI الطرق التي يستخدمها الأشخاص للتفاعل مع أنظمتهم، لكن مستخدميها يكسرون باستمرار ويفحصون أنظمتهم. ويكتشفون طرقًا جديدة ومبتكرة للقيام بأشياء لا ينبغي لـ ChatGPT القيام بها.
لذا هل يمكن لـ OpenAI إيجاد حل طويل الأمد موثوق به لهذه المشكلة؟
تعليق واحد