على الرغم من دقة العديد من الاستجابات لمولدات النصوص المدعومة بالذكاء الاصطناعي، إلا أنه يُنتج في كثير من الأحيان معلومات مضللة، وغالبًا ما تكون الإجابات التي يُنتجها مزيجًا من الحقيقة والخيال. لذا، إذا كنت تستخدم نصوصًا مُولّدة بالذكاء الاصطناعي لأغراض البحث، فعليك التأكد من نتائجها.
وينتج الذكاء الاصطناعي ما يعتقد أنه التسلسل الأنسب من الكلمات للإجابة على سؤالك، لكن ذلك لا يعني أنه يُقدم لك الإجابة النهائية! فعند اختيار استخدام الذكاء الاصطناعي، من الحكمة استخدامه كنقطة انطلاق لا كغاية، كما تنصح جامعة ميريلاند.
عندما يخطئ الذكاء الاصطناعي
اعتبارًا من عام 2023، لا يقوم نموذج الذكاء الاصطناعي النموذجي بتقييم صحة المعلومات التي يقدمها، وإنما هدفه عند تلقيه طلبًا هو توليد ما يعتقد أنه سلسلة الكلمات الأكثر ترجيحًا للإجابة على ذلك الطلب.
وأحيانًا ينتج عن ذلك إجابة صحيحة، وأحيانًا أخرى لا، ولا يستطيع الذكاء الاصطناعي تفسير أو التمييز بين الحالتين. والأمر متروك لك للتمييز بينهما.
يمكن أن يخطئ الذكاء الاصطناعي في عدة جوانب، منها:
قد يعطي إجابة خاطئة أو مضللة
أحيانًا، قد يُقدّم الذكاء الاصطناعي إجابة خاطئة، وقد يكون هذا نتيجة خطأً في المعلومات، أو سهوًا عن معلومات مفقودة.
اختلاق معلومات خاطئة
أحيانًا، لايكون الذكاء الاصطناعي مخطئًا فحسب، بل إنه قد يختلق معلومات غير موجودة. ويطلق البعض على هذا "الوهم"، أو "الاقتباس الوهمي" عندما تكون المعلومات المختلقة عبارة عن مرجع.
ويصعب اكتشاف هذه الأخطاء، لأنها غالبًا ما تحتوي على مزيج من المعلومات الحقيقية والمزيفة.
عندما يُقدّم "تشات جي بي تي" رابطًا لمصدر ما، فإنه غالبًا ما يُنشئ رابطًا وهميًا، أو يستخدم رابطًا حقيقيًا يُؤدي إلى شيء مختلف تمامًا. لذا، من الضروري التحقق من إجابات الذكاء الاصطناعي بالرجوع إلى مصدر بشري.
غياب الدقة في الرجوع للمصادر
حاليُا، إذا طلبت من نظام ذكاء اصطناعي ذكر مصادره، فمن غير المرجح أن تكون النتائج التي يقدمها هي المصادر الحقيقية للمعلومات. في الواقع، لا يستطيع نظام الذكاء الاصطناعي ولا مبرمجوه تحديد مصدر المعلومات بدقة ضمن مجموعة بيانات التدريب الضخمة.
واعتبارًا من صيف 2023، حتى الذكاء الاصطناعي الذي يُقدّم حواشي حقيقية لا يُحدّد مصادر المعلومات، بل يُقدّم مجموعة من صفحات الويب والمقالات ذات الصلة بموضوع السؤال. وعند طلب الإجابة، يُقدّم الذكاء الاصطناعي نفس الإجابة مع إضافة حواشي لمصادر مختلفة.
تفسير مطالباتك بطريقة غير متوقعة
قد يتجاهل الذكاء الاصطناعي التعليمات عن غير قصد، أو يفسر الطلب بطريقة غير متوقعة. ومن الأمثلة البسيطة على ذلك، قيام "تشات جي بي تي" بإرجاع رد من خمس فقرات بدلًا من ثلاث، أو تجاهل توجيهات تضمين المراجع في النص.
ولكن في حالات أخرى أكثر تعقيدًا، قد يُقدم الذكاء الاصطناعي تفسيرات قد لا تلاحظها. فإذا لم تكن مُلمًا بالموضوع الذي تسأل عنه أداة الذكاء الاصطناعي، فقد لا تُدرك حتى إنها تُفسر طلبك بشكل خاطئ.
قد تؤثر طريقة طرحك للسؤال على الإجابة التي تتلقاها. فأي افتراضات تضعها في سؤالك ستنقلها لك على الأرجح إلى نظام الذكاء الاصطناعي.

