تمكنت إحدى الشخصيات البارزة في مجال القرصنة الإلكترونية من خداع نظام الذكاء الاصطناعي الشهير ChatGPT، الذي تم تطويره بواسطة OpenAI، ليكشف له تفاصيل دقيقة حول كيفية صناعة القنابل. في حين أن الشركات المطورة لهذه الأنظمة تضع مجموعة من القيود الأمنية الصارمة التي تهدف إلى منع النماذج من الإجابة على الأسئلة الحساسة، فإن هذه الحيلة تكشف عن الثغرات التي يمكن أن يستغلها البعض في تجاوز تلك الحواجز الأمنية.
هاكر يخدع شات جي بي تي |
عادةً ما تعتمد أنظمة الذكاء الاصطناعي على تقنيات متطورة للحفاظ على الأمان وتفادي تقديم أي معلومات يمكن أن تُستخدم في الأنشطة غير القانونية أو الإجرامية مثل صناعة المواد المخدرة أو المتفجرات. إلا أن الخبير في القرصنة الإلكترونية استخدم مهاراته في الهندسة الاجتماعية، وهي نوع من التلاعب النفسي الذي يهدف إلى خداع الأشخاص أو الأنظمة للحصول على معلومات سرية، ليتجاوز تلك القيود بنجاح. وتُعد هذه الحيلة بمثابة تحذير جديد حول إمكانيات التلاعب التي يمكن أن يستغلها الأفراد المتمرسون لاستخراج معلومات حساسة.
القرصان الذي نجح في خداع النظام قام بابتكار سيناريو خيالي أوهم فيه النموذج بأنه بصدد إنشاء مشروع خيال علمي. من خلال هذا السيناريو المُصمم بعناية، بدأ يطرح أسئلة تدريجية على ChatGPT، مما سمح له بتوجيه النموذج بشكل تدريجي للحصول على المعلومات التي كانت محظورة. هذه الحيلة تستعرض كيف يمكن أن تتلاعب الأسئلة في الذكاء الاصطناعي، وتكشف عن قدرة المستخدم على تجاوز الأنظمة الأمنية التي تم تصميمها لمنع مثل هذه الأفعال.
وتأتي هذه الحادثة لتثير العديد من الأسئلة حول فعالية وتطور آليات الأمان في أنظمة الذكاء الاصطناعي، خصوصًا في ظل تزايد استخدام هذه التكنولوجيا في مختلف المجالات. على الرغم من الجهود المبذولة لتقييد مثل هذه الأنظمة، إلا أن واقع الأمر يظهر أن هناك دائمًا طرقًا جديدة يمكن من خلالها اختراق القيود وإيجاد ثغرات في النظام. هذا الأمر يطرح تحديات كبيرة أمام الشركات المطورة في سبيل حماية هذه الأنظمة من الاستغلال الضار.
الأمر الذي يزيد من خطورة الحيلة هو أن هذه ليست المرة الأولى التي يتعرض فيها ChatGPT للخداع. ففي عام 2023، تمكن فريق من الباحثين في شركة IBM من خداع نفس النظام للحصول على شروحات مفصلة عن تقنيات القرصنة، وهو ما أثار حينها الكثير من الجدل حول قدرة الأنظمة الذكية على التفاعل بشكل آمن مع المستخدمين، ومدى قدرتها على حماية نفسها من الاستغلال في الأنشطة غير المشروعة.
هذا الحادث الأخير يعكس مدى تعقيد الصراع بين محاولات حماية الأنظمة الذكية من الاستغلال والقدرة المتزايدة للهاكرز على اكتشاف ثغرات جديدة. ومع تزايد استخدام الذكاء الاصطناعي في مجالات متنوعة مثل الأبحاث، والتعليم، والأعمال، يصبح من الضروري على الشركات المطورة وضع استراتيجيات أقوى وأذكى لحماية هذه الأنظمة من مثل هذه المحاولات.
من ناحية أخرى، يثير هذا النوع من الحيل العديد من المخاوف بشأن الاستخدامات المحتملة لأنظمة الذكاء الاصطناعي في الأغراض السيئة. فالتطور السريع في تقنيات الذكاء الاصطناعي يفتح المجال أمام الأفراد لاستغلال هذه الأنظمة في تحقيق أهداف غير قانونية قد تهدد الأمن العام. وهو ما يدفع إلى تساؤلات هامة حول قدرة الشركات على مواكبة هذا التطور والتصدي له، خصوصًا مع تزايد المخاوف من أن تكنولوجيا الذكاء الاصطناعي قد تصبح سلاحًا في يد المجرمين.
وعلى الرغم من أن الأنظمة الذكية مثل ChatGPT تم تصميمها ليكون لها آلية دفاع ضد الأسئلة الضارة، إلا أن هذا النوع من الاختراقات يسلط الضوء على الثغرات التي ما زالت موجودة في هذه الأنظمة. وهذه الحيلة تأتي في وقت حساس، حيث تزداد الدعوات لتطبيق قوانين وتشريعات أكثر صرامة على استخدام هذه التقنيات. ولكن مع تزايد استخدام الذكاء الاصطناعي في الحياة اليومية، فإن الحاجة إلى توفير حماية متكاملة وشاملة لهذه الأنظمة تصبح أكثر إلحاحًا.
إن الكشف عن هذه الحيلة يعكس تحديات كبيرة قد تواجهها الشركات المطورة في المستقبل، كما يعكس أيضًا كيفية استخدام بعض الأفراد لقدراتهم في تكنولوجيا المعلومات للتلاعب بالأنظمة المتطورة. وهذا قد يستدعي تطوير المزيد من السياسات والإجراءات التي تتضمن مراقبة دقيقة لمنع استخدام هذه الأنظمة في أغراض سيئة قد تهدد الأمن العام أو تسبب أضرارًا اقتصادية أو اجتماعية.