روبوت الدردشة ChatGPT يقدم أجوبة خاطئة

mainThumb
روبوت الدردشة ChatGPT

26-12-2024 01:14 AM

وكالات - السوسنة

كشفت دراسة جديدة، عن وجود عيب في برنامج روبوت الدردشة "تشات جي بي تي" الذي يعمل بالذكاء الاصطناعي، بعد تقديمه اجابات خاطئة بما يخص الإجابة الشاملة عن الاسئلة الطبية .

وطرح الباحثون في جامعة لونغ آيلاند 39 استفساراً متعلقاً بالأدوية على النسخة المجانية من البرنامج وكانت جميعها أسئلة حقيقية من خدمة المعلومات الدوائية بكلية الصيدلة بالجامعة، بحسب تقرير نشرته شبكة "سي إن إن".

ثم تمت مقارنة إجابات البرنامج مع الإجابات المكتوبة والمراجعة من قبل الصيادلة المدربين، وتبين أن الإجابات الدقيقة كانت لحوالي 10 أسئلة فقط أما الأسئلة الأخرى والبالغ عددها 29 فكانت إجاباتها غير كاملة أو غير دقيقة أو أنها لم تتناول الأسئلة.

وعلى سبيل المثال في أحد الأسئلة سأل الباحثون البرنامج عما إذا كان دواء كوفيد-19 المضاد للفيروسات "باكلوفيد" ودواء خفض ضغط الدم "فيراباميل" سيتفاعلان مع بعضهما البعض في الجسم، فرد بأن تناول الدواءين معاً لن يؤدي إلى أي آثار ضارة!

لكن في الحقيقة قد يعاني الأشخاص الذين يتناولون كلا الدواءين من انخفاض كبير في ضغط الدم، مما قد يسبب الدوخة والإغماء.

في الأثناء عندما طلب الباحثون من البرنامج مراجع علمية لدعم كل من إجاباته، وجدوا أنه يمكن أن يوفر لهم ثمانية فقط، وفي كل حالة فوجئوا عندما اكتشفوا أنه كان يقوم بتلفيق المراجع.

وهذه الدراسة ليست الأولى التي تثير المخاوف بشأن "تشات جي بي تي" إذ وثقت الأبحاث السابقة أيضاً إنشاء البرنامج عمليات تزوير خادعة للمراجع العلمية وحتى إدراج أسماء المؤلفين الحقيقيين، الذين لديهم منشورات سابقة في المجلات العلمية.

يذكر أنه تم إصدار "تشات جي بي تي" وهو روبوت الدردشة التجريبي القائم على الذكاء الاصطناعي من شركة OpenAI، في نوفمبر/شباط 2022، وأصبح تطبيق المستهلك الأسرع نمواً في التاريخ، حيث سجل ما يقرب من 100 مليون شخص في غضون شهرين .

إقرأ المزيد :  






تعليقات القراء

لا يوجد تعليقات


أكتب تعليقا

لا يمكن اضافة تعليق جديد