ثغرة أمنية بـ ChatGPT تهدد بسرقة بيانات المستخدمين

mainThumb
ChatGPT

26-09-2024 08:00 PM

وكالات - السوسنة

اكتشف الباحث الأمني يوهان ريهبيرجر ثغرة خطيرة في ميزة "الذاكرة طويلة المدى" (Long-term Memory) الخاصة بمنصة ChatGPT الذكية، والتي تسمح للمخترقين بزرع معلومات زائفة قد تؤدي إلى سرقة بيانات المستخدمين بشكل دائم.

شركة OpenAI، المطورة لمنصة ChatGPT، أغلقت الثغرة بسرعة بعد اعتبارها "مشكلة أمان"، وليست ثغرة أمنية تقليدية. ريهبيرجر قدّم نموذجًا عمليًا يثبت استغلال هذه الثغرة لاستخراج بيانات المستخدمين باستمرار، مما دفع مهندسي OpenAI إلى إجراء إصلاح جزئي للخلل.

تمثل الثغرة في استغلال ميزة "الذاكرة طويلة المدى"، التي تم اختبارها لأول مرة في فبراير وتوسيع استخدامها في سبتمبر. هذه الميزة تسمح لمنصة ChatGPT بتخزين معلومات المستخدم من المحادثات السابقة لتسهيل التفاعل المستقبلي.

خلال الأشهر الثلاثة الأولى من تفعيل هذه الميزة، اكتشف ريهبيرجر إمكانية زرع ذكريات زائفة باستخدام تقنية "حقن غير مباشر للأوامر" (Prompt Injection)، وهو هجوم يستغل محتويات غير موثوقة، مثل البريد الإلكتروني أو المستندات، لتنفيذ أوامر مخالفة لتطوير المنصة الأصلي.

تمكن الباحث من خداع ChatGPT ليصدق معلومات زائفة مثل أن المستخدم يبلغ 102 عامًا، ويعيش في عالم خيالي، ويؤمن بنظريات خاطئة. واستغل الثغرة عبر تحميل ملفات ضارة على خدمات مثل Google Drive وOneDrive، أو تصفح مواقع غير موثوقة عبر Bing.

ورغم أن OpenAI أغلقت البلاغ المبدئي في مايو دون إجراءات واضحة، إلا أنها عادت للتعامل مع البلاغ بعد تقديم نموذج استغلال عملي في يونيو، يظهر إمكانية سرقة بيانات المستخدمين بشكل متواصل عبر تطبيق ChatGPT على نظام macOS.

وفي حين أن OpenAI قدمت إصلاحًا جزئيًا يمنع استخدام "الذاكرة" لاستخراج البيانات، إلا أن ريهبيرجر حذر من أن المحتويات غير الموثوقة ما زالت قادرة على تنفيذ هجمات حقن الأوامر، مما يسمح للمخترقين بزرع معلومات دائمة في ذاكرة ChatGPT.

أوصى الباحث الأمني المستخدمين بمراجعة إشعارات إضافة الذكريات الجديدة ومتابعة الذكريات المخزنة على حساباتهم للتأكد من عدم وجود معلومات زائفة .  

إقرأ المزيد :  






تعليقات القراء

لا يوجد تعليقات


أكتب تعليقا

لا يمكن اضافة تعليق جديد