موسوعة عقل

>

ما هي هلوسة الذكاء الاصطناعي AI Hallucination؟

ما هي هلوسة الذكاء الاصطناعي AI Hallucination؟

الوقت المتوقع للقراءة: دقيقة واحدة

نهلة أشرف

موسوعة عقل

جدول المحتوى

ما هي هلوسة الذكاء الاصطناعي (AI Hallucination)؟

هلوسة الذكاء الاصطناعي هي عندما يقوم نموذج الذكاء الاصطناعي، خاصة نماذج اللغة الكبيرة (LLMs) مثل ChatGPT أو DeepSeek، بإنتاج معلومات خاطئة أو غير موجودة، ولكن بطريقة تبدو منطقية وصحيحة جدًا. هذه واحدة من أبرز تحديات نماذج اللغة الكبيرة LLMs، خاصة عند استخدامها في مجالات تتطلب دقة وموثوقية عالية. سُمّيت هذه الظاهرة باسم هلوسة الذكاء الاصطناعي قياسًا على ظاهرة الهلوسة في علم النفس البشري، وهي الحالة التي يحدث فيها تغير في الوعي ينجم عنه إدراك غير حقيقي وغير موجود في الواقع. 

ببساطة: النموذج "يخترع" إجابة من خياله، دون قصد الكذب، لكنه يقدمها وكأنها حقيقة.

مثال:

السؤال: "من هو مخترع البريد الإلكتروني؟"

قد يجيب النموذج: "توماس إديسون اخترع البريد الإلكتروني عام 1876"، وهي معلومة غير صحيحة تمامًا، لكنها قد تبدو مقنعة لغويًا.

لماذا تحدث هلوسة الذكاء الاصطناعي؟

السبب الرئيسي وراء هذه الظاهرة هو أن نماذج الذكاء الاصطناعي تتعلم الأنماط من كميات هائلة من البيانات، وعندما تواجه مواقف جديدة أو بيانات غير مألوفة، قد "تتخيل" إجابات تبدو منطقية لكنها غير صحيحة. لا تفهم هذه النماذج المحتوى بالمعنى البشري، بل تتنبأ بالكلمة التالية أو العنصر التالي استنادًا إلى الاحتمالات التي تعلمتها.

وهناك أسباب متعددة تؤدي إلى هلوسة الذكاء الاصطناعي تتعلق بكيفية عمل وتدريب نماذج الذكاء الاصطناعي، إليك أبرز هذه الأسباب:

1. طبيعة التدريب على البيانات

نماذج الذكاء الاصطناعي الكبيرة، مثل GPT، تُدرَّب على كميات ضخمة جدًا من البيانات النصية التي لا تمر دائمًا بمرحلة "تنقية" للتحقق من صحة المعلومات، بل يتم جمعها لتغطية أكبر قدر ممكن من اللغة والمعاني والسياقات.

2. غياب المعرفة الفعلية أو التحقق الفوري

النموذج لا يرتبط افتراضيًا بقاعدة بيانات حية أو بمحركات بحث، وبالتالي لا يستطيع الوصول إلى المعلومات المحدثة بعد تاريخ تدريبه، ولا يمكنه "التحقق" من أي معلومة بشكل مباشر أثناء المحادثة.

3. نقص المعلومات في البيانات

عندما يُطلب من النموذج التحدث عن موضوع لم يتدرب عن إجابات حوله، فإنه لا يتوقف عن الإجابة. بل يحاول "الارتجال" استنادًا إلى البيانات المتاحة، أو من خلال تخمين السياق العام.

4. الأسئلة الغامضة أو المفتوحة جدًا

عندما يقوم المستخدم بطرح سؤال غير دقيق أو له احتمالات كثيرة، فإن النموذج يبدأ في "تخمين" ما يريد المستخدم، ويملأ الفجوات بما يراه أقرب منطقًا، لا بما هو مؤكد أو دقيق.

أنواع هلاوس الذكاء الاصطناعي

عندما يخطئ الذكاء الاصطناعي، تظهر "الهلاوس" بأشكال مختلفة. إليك توضيح لأبرزها:

  1. هلاوس واقعية (Factual Hallucinations): تحدث هذه الهلاوس عندما يقدم نموذج الذكاء الاصطناعي معلومات خاطئة، لكن بأسلوب يوحي بالثقة الكبيرة في صحتها.
  2. هلاوس في الاستشهادات والمصادر: هنا، يقوم النموذج باختلاق مصادر أو استشهادات وهمية ليدعم بها المعلومات التي يقدمها، مما يضلل المستخدم بخصوص موثوقية المعلومة.
  3. هلاوس سياقية (Contextual Hallucinations): تحدث عندما يسيء الذكاء الاصطناعي فهم السياق الذي تدور فيه المعلومة، أو يقوم باختلاق تفاصيل غير صحيحة لا علاقة لها بالموضوع الأصلي.
  4. هلاوس استنتاجية (Inferential Hallucinations): في هذا النوع، يستخلص الذكاء الاصطناعي معلومات خاطئة بناءً على البيانات المتوفرة لديه. 
  5. هلاوس توسيع المحتوى (Content Expansion Hallucinations): تظهر عندما يضيف الذكاء الاصطناعي معلومات لا داعي لها، أو يوسّع السرد بطريقة تبتعد عن السياق الأصلي للموضوع.
  6. هلاوس بصرية (Visual Hallucinations): تختص هذه الهلاوس بنماذج توليد الصور، حيث تنتج صورًا غير واقعية، مشوهة، أو تخالف المنطق البصري. ومثال ذلك، صورة لشخص يمتلك ثلاث أرجل.

مخاطر هلاوس الذكاء الاصطناعي

تُشكل هلاوس الذكاء الاصطناعي تحديًا كبيرًا، خاصة مع ازدياد الاعتماد على أنظمة الذكاء الاصطناعي في مجالات حياتنا المختلفة. إليك أبرز المخاطر المترتبة عليها:

  • نشر معلومات مضللة: قد تنتشر المعلومات الخاطئة التي ينتجها الذكاء الاصطناعي بسرعة وتؤثر على القرارات الشخصية والتجارية.
  • خطر في التطبيقات الحرجة: في مجالات حساسة مثل الطب، القانون، أو الأمن، قد تُسفر هذه الهلاوس عن عواقب وخيمة، كالتشخيصات الطبية الخاطئة أو القرارات القانونية الغير صائبة.
  • مشاكل قانونية وأخلاقية: ذكر أشخاص أو جهات بمعلومات غير صحيحة يمكن أن يُعرض الذكاء الاصطناعي ومطوريه إلى دعاوى قضائية ويُثير مسائل أخلاقية معقدة.
  • تدهور جودة المحتوى: الاعتماد المفرط على الذكاء الاصطناعي لإنشاء المحتوى دون مراجعة بشرية قد يؤدي إلى انخفاض عام في جودة المعلومات المتاحة عبر الإنترنت وخارجه.

كيف نحد من هلوسة الذكاء الاصطناعي؟

تُعد هلاوس الذكاء الاصطناعي تحديًا كبيرًا، لكن هناك عدة طرق للوقاية منها والحد من تأثيرها:

  • استخدم تقنيات هندسة الأوامر (Prompt Engineering): قم بصياغة الأسئلة والأوامر بوضوح ودقة عالية، كما يمكنك الإشارة إلى أن النموذج يمكنه إخبارك بعدم تأكده من معلومة معينة إذا لم تكن لديه معلومة مؤكدة.
  • اطلب المصادر: اطلب من النموذج إرسال مصادر المعلومات، وقم بالتحقق منها، خاصة في المعلومات التي تعتمد على بيانات أو تقارير احصائية.
  • التحقق (بشرية أو آلية): قم بمراجعة المعلومات بدلًا من الاعتماد الأعمى على نتائجه، خصوصًا في المجالات الحساسة، سواء يدويًا أو من خلال أدوات تحقق مناسبة.

الخلاصة

فهم هذه الظاهرة ومعالجتها أمر بالغ الأهمية لضمان استخدام آمن وموثوق لنماذج وأدوات الذكاء الاصطناعي في المستقبل.

Your subscription could not be saved. Please try again.
Your subscription has been successful.

اشترك في القائمة البريدية

لتحصل على آخر الأخبار والاتجاهات..