تُنتج النماذج اللغوية الكبيرة، مثل: ChatGPT ، Google ، Gemini وغيرها من أدوات الذكاء الاصطناعي المشابهة، معلومات مغلوطة، أو هلاوس، مما قد يؤدي إلى عواقب وخيمة عند الوثوق بها في مجالات محوريّة كالصحة، أو القانون.
وتتمثل الطرق التقليديّة لحل مشكلة الهلوسة في آليتين يُعرفان بالإشراف supervision، والتعزيز reinforcement. أما الآلية الأولى، فتعتمد على تدريب النموذج على بيانات مرفقة بتصنيفاتها الصحيحة؛ أي السؤال وإجابته النموذجيّة، مما يساعد الآلة على استرجاع الإجابة الصحيحة. في حين تعتمد الآلية الثانية على الثواب والعقاب؛ بحيث يُكافأ النموذج عند تقديم الإجابات الدقيقة، والعكس، دون الحاجة لتدريب النموذج على الإجابة الصحيحة مسبقًا. ورغم جودة الآليتين فإنهما يحتاجان وقتًا ومجهودًا ضخمًا، مع أنه لا تستبعد الأجوبة غير الدقيقة كليًّا.
في بحثٍ جديد منشور في دورية Nature، ابتكر العلماء آلية جديدة لحل مشكلة الهلوسة، بتحديد احتمالاتها، من خلال مقياس العشوائية الدلالية semantic entropy؛ الذي يُحدد مدى دقة الأجوبة التي ينتجها الذكاء الاصطناعي، عن طريق إنتاج إجابات عديدة، وتحليلها، وملاحظة الفرق بينها في المعنى. فكلما كان الاختلاف بين الأجوبة كبيرًا، زادت احتمالية الهلوسة. ولكن الأمر برمته يعتمد على نوع البيانات المُستخدمة في تدريب هذه النماذج، فإذا كانت خاطئة، ستكون الإجابات مغلوطة بدورها.
في النهاية، حتى وإن كانت الآلية الجديدة أكثر دقة من غيرها في تحديد هلوسة الذكاء الاصطناعي، فمن الضروري توخي الحذر عند استخدام هذه النماذج عمومًا، مع الوعي بأن عملها يعتمد على إنتاج الأجوبة، بغض النظر عن صحتها.
وبشكل عام، لا يُنصَح بمشاركة معلوماتك الشخصية مع ChatGPT، أو غيره من النماذج اللغويّة الكبيرة، فضلًا عن استخدامها في الحصول على الاستشارات الطبيّة، أو القانونيّة.