خبراء يتwarnون من خطر الهلوسة في الطب بسبب الذكاء الاصطناعي

منذ 2 ساعات
خبراء يتwarnون من خطر الهلوسة في الطب بسبب الذكاء الاصطناعي

حذّر مجموعة من الخبراء من مخاطر الاعتماد على روبوتات الدردشة المدعومة بالذكاء الاصطناعي عند البحث عن معلومات صحية وطبية، مشيرين إلى أن هذه الأنظمة قد توفر إجابات غير دقيقة أو مضللة في بعض الأحيان. وأكدت دراسة حديثة أن هذه الأنظمة، مثل ChatGPT وGrok، تعاني مما يُعرف بظاهرة “الهلوسة”، حيث تقوم بإنتاج معلومات خاطئة أو غير مكتملة على الرغم من تقديمها بشكل يبدو موثوقا.

في إطار هذه الدراسة، تم طرح 50 سؤالا طبيا مختلفا، وأظهرت النتائج أن حوالي نصف الإجابات التي قدمتها الروبوتات كانت “إشكالية”. كانت أعلى نسبة أخطاء في Grok حيث بلغت 58%، تلاها ChatGPT بنسبة 52%، ثم Meta AI التي سجلت 50% من الأخطاء. هذه الإحصائيات تعكس المستوى المتزايد من المخاطر عند الاعتماد على هذه الأدوات لأغراض طبية.

أوضح الباحثون أن عوامل مثل انحياز البيانات المستخدمة في تدريب هذه الأنظمة وعدم دقتها قد تسهم في إنتاج إجابات خاطئة. بالإضافة إلى ذلك، قد تميل هذه البرمجيات إلى “المجاملة” من خلال تقديم إجابات تتوافق مع معتقدات المستخدم، مما ينعكس سلبا على دقة المعلومات المقدمة.

كما تم الإشارة إلى أن هذه الأنظمة غير معتمدة لتقديم الاستشارات الطبية ولا تمتلك القدرة على الوصول إلى المعلومات الأحدث، مما يجعل استخدامها في مجالات الصحة عرضة للمخاطر، خصوصا بدون إشراف متخصص. وقد تناولت الدراسة مجموعة من المواضيع الشائعة مثل فعالية مكملات فيتامين (د) وسلامة لقاحات “كوفيد-19″، بالإضافة إلى مخاطر تطعيم الأطفال.

نتائج الدراسة أظهرت أداء أفضل نسبيا في موضوعات مثل اللقاحات والسرطان، ولكن الأداء كان أقل في مجالات التغذية والعلاج بالخلايا الجذعية والرياضة. هذا يشير إلى أن الروبوتات لا تقدم تحليلا دقيقا للأدلة العلمية، بل تعتمد على التنبؤات الإحصائية في إدراك المعلومات، مما قد يؤدي إلى تقديم معلومات تبدو دقيقة ولكنها تفتقر إلى الموثوقية الحقيقية.

في الختام، شدد الباحثون على ضرورة تعزيز الوعي العام حول هذا الموضوع، إلى جانب تطوير ضوابط تنظيمية مناسبة وتوفير تدريب مهني كافٍ، لضمان أن استخدام الذكاء الاصطناعي في المجال الصحي يخدم الصحة العامة بدلا من التسبب في أضرار. إن الاستخدام المسؤول والمدروس لهذه التقنيات يمكن أن يسهم في تحقيق فوائد جمة، بينما يتطلب الأمر حذرًا وتوعياً مستمراً من المستخدمين.