مبادىء التلقين (11) - عندما يُقدم ChatGPT إجابة، كيف يقرر ما سيكتبه في الخطوة التالية؟
لنتخيل أن ChatGPT ليس "عقلاً مفكراً" بالمعنى البشري، بل هو "محرك احتمالات فائق الذكاء". إليك شرح مفصل لكيفية اتخاذه القرارات عند الكتابة:
1. فكرة التنبؤ بالكلمة التالية (Next-Token Prediction)
عندما تبدأ بسؤال ChatGPT، هو لا يملك الإجابة كاملة وجاهزة في "درج" ليخرجها لك. بدلاً من ذلك، هو يقرأ سؤالك ويبدأ ببناء الإجابة كلمة بكلمة (أو جزء من كلمة يُسمى Token).
بعد كتابة الكلمة الأولى، ينظر إلى السؤال + الكلمة الأولى، ليتوقع الكلمة الثانية.
بعد الكلمة الثانية، ينظر إلى كل ما سبق ليتوقع الثالثة، وهكذا.
مثال واقعي (خاصية الإكمال التلقائي):
تخيل لوحة مفاتيح هاتفك عندما تكتب "كيف..."، سيقترح عليك "حالك؟" أو "أصل؟". ChatGPT يفعل الشيء نفسه لكن بمليارات الاحتمالات والتعقيدات الإضافية.
2. كيف يقرر؟ (الأنماط اللغوية)
خلال مرحلة التدريب، قرأ ChatGPT كميات هائلة من النصوص (كتب، مقالات، شفرات برمجية، محادثات). من هنا تعلم "الإحصاء اللغوي":
تعلم أن كلمة "السماء" غالباً ما تتبعها كلمة "صافية" أو "زرقاء".
تعلم أنك إذا سألت عن "طريقة عمل القهوة"، فمن المنطقي أن تبدأ الكلمة التالية بـ "أولاً" أو "سخن".
3. أمثلة واقعية على آلية القرار
المثال الأول - إكمال جملة مشهورة. إذا كتبت له: "ليس كل ما يلمع...". النموذج يحلل الكلمات السابقة. يبحث في الأنماط التي تعلمها (الأمثال العربية). يجد أن احتمال كلمة "ذهباً" هو 99.9%. فيقرر كتابة "ذهباً".
المثال الثاني - السياق الذكي. إذا سألته: "ما هي عاصمة فرنسا؟" النموذج يحلل الكلمات: (عاصمة، فرنسا). النمط المتعلم يربط "عاصمة" مع "فرنسا" بكلمة "باريس". يبدأ بكتابة: "عاصمة (احتمال عالي) فرنسا (احتمال عالي) هي (احتمال عالي) باريس".
4. لماذا تبدو إجاباته بشرية وليست مجرد إحصاء؟
السر يكمن في "السياق". ChatGPT لا ينظر فقط للكلمة التي تسبقه مباشرة، بل يمتلك خاصية تسمى (Attention Mechanism) أو "آلية الانتباه".
هذه الآلية تجعله يفهم أنك إذا بدأت القصة عن "قطة"، ثم كتبت 500 كلمة، ثم كتبت "هي"، فإنه يدرك أن "هي" تعود على "القطة" وليس على أي شيء آخر ذُكر في المنتصف.
خلاصة العملية:
المدخلات: سؤالك.
المعالجة: البحث في مليارات الأنماط المخزنة (ما هي الكلمة المنطقية التالية هنا؟).
الاختيار: يختار الكلمة ذات الاحتمال الأعلى بناءً على السياق.
التكرار: يعيد الكرة حتى تكتمل الإجابة أو يصل لنقطة النهاية.
ملاحظة طريفة: لهذا السبب قد يخطئ ChatGPT أحياناً فيما يسمى بـ "الهلوسة"؛ لأنه أحياناً يختار كلمة "تبدو منطقية لغوياً" لكنها "خاطئة واقعياً".