صيدا سيتي

مبادىء التلقين (11) - عندما يُقدم ChatGPT إجابة، كيف يقرر ما سيكتبه في الخطوة التالية؟ زورونا بالـ Kotob Store | شو ما كان اللي ببالك من أحدث التقنيات والإلكترونيات صارت أقرب إلك فايز أحمد الأبيض (أبو محمد) في ذمة الله كيف تآكلت الدولة في لبنان؟ فؤاد السنيورة يروي المسار من الداخل حتى الانكسار توقيع مذكرة تفاهم استراتيجية بين وزارة الصحة اللبنانية وشركة أسترازينيكا صيدا تشيع القائد في الدفاع المدني حسان حبلي بموكب حزين حسان حبلي... وداعاً حسان حبلي... خمسة وثلاثين عامًا في خدمة الوطن والمواطن بين النصيحة والتشهير: أين الحكمة؟ الصورة التي رافقتني منذ العام 2012 سما… الطفلة التي علّمتنا كيف نرى مبادىء التلقين (10) - ما المقصود بـ الاستدلال (Reasoning) في سياق الذكاء الاصطناعي؟ التوجيه الأكاديمي في لبنان ودور المدارس في خيارات الطلاب المستقبلية مبادىء التلقين (9) - ما هو "الرمز/الـ Token" في ChatGPT؟ مؤسسة رجب وسهام الجبيلي تطلق منحة دراسية سنوية في الجامعة اللبنانية الأميركية (LAU) موقع صيدا سيتي يفتح المجال أمام الأقلام لكتابة حكايات المدينة لإعلانك في قسم | خاص صيدا سيتي | (أنظر التفاصيل)

مبادىء التلقين (11) - عندما يُقدم ChatGPT إجابة، كيف يقرر ما سيكتبه في الخطوة التالية؟

إعداد: المحرر - الجمعة 19 كانون أول 2025 - [ عدد المشاهدة: 67 ]

لنتخيل أن ChatGPT ليس "عقلاً مفكراً" بالمعنى البشري، بل هو "محرك احتمالات فائق الذكاء". إليك شرح مفصل لكيفية اتخاذه القرارات عند الكتابة:

1. فكرة التنبؤ بالكلمة التالية (Next-Token Prediction)

عندما تبدأ بسؤال ChatGPT، هو لا يملك الإجابة كاملة وجاهزة في "درج" ليخرجها لك. بدلاً من ذلك، هو يقرأ سؤالك ويبدأ ببناء الإجابة كلمة بكلمة (أو جزء من كلمة يُسمى Token).

بعد كتابة الكلمة الأولى، ينظر إلى السؤال + الكلمة الأولى، ليتوقع الكلمة الثانية.

بعد الكلمة الثانية، ينظر إلى كل ما سبق ليتوقع الثالثة، وهكذا.

مثال واقعي (خاصية الإكمال التلقائي):

تخيل لوحة مفاتيح هاتفك عندما تكتب "كيف..."، سيقترح عليك "حالك؟" أو "أصل؟". ChatGPT يفعل الشيء نفسه لكن بمليارات الاحتمالات والتعقيدات الإضافية.


2. كيف يقرر؟ (الأنماط اللغوية)

خلال مرحلة التدريب، قرأ ChatGPT كميات هائلة من النصوص (كتب، مقالات، شفرات برمجية، محادثات). من هنا تعلم "الإحصاء اللغوي":

تعلم أن كلمة "السماء" غالباً ما تتبعها كلمة "صافية" أو "زرقاء".

تعلم أنك إذا سألت عن "طريقة عمل القهوة"، فمن المنطقي أن تبدأ الكلمة التالية بـ "أولاً" أو "سخن".


3. أمثلة واقعية على آلية القرار
المثال الأول - إكمال جملة مشهورة. إذا كتبت له: "ليس كل ما يلمع...". النموذج يحلل الكلمات السابقة. يبحث في الأنماط التي تعلمها (الأمثال العربية). يجد أن احتمال كلمة "ذهباً" هو 99.9%. فيقرر كتابة "ذهباً".

المثال الثاني - السياق الذكي.  إذا سألته: "ما هي عاصمة فرنسا؟" النموذج يحلل الكلمات: (عاصمة، فرنسا). النمط المتعلم يربط "عاصمة" مع "فرنسا" بكلمة "باريس". يبدأ بكتابة: "عاصمة (احتمال عالي) فرنسا (احتمال عالي) هي (احتمال عالي) باريس".

4. لماذا تبدو إجاباته بشرية وليست مجرد إحصاء؟

السر يكمن في "السياق". ChatGPT لا ينظر فقط للكلمة التي تسبقه مباشرة، بل يمتلك خاصية تسمى (Attention Mechanism) أو "آلية الانتباه".

هذه الآلية تجعله يفهم أنك إذا بدأت القصة عن "قطة"، ثم كتبت 500 كلمة، ثم كتبت "هي"، فإنه يدرك أن "هي" تعود على "القطة" وليس على أي شيء آخر ذُكر في المنتصف.


خلاصة العملية:

المدخلات: سؤالك.

المعالجة: البحث في مليارات الأنماط المخزنة (ما هي الكلمة المنطقية التالية هنا؟).

الاختيار: يختار الكلمة ذات الاحتمال الأعلى بناءً على السياق.

التكرار: يعيد الكرة حتى تكتمل الإجابة أو يصل لنقطة النهاية.

ملاحظة طريفة: لهذا السبب قد يخطئ ChatGPT أحياناً فيما يسمى بـ "الهلوسة"؛ لأنه أحياناً يختار كلمة "تبدو منطقية لغوياً" لكنها "خاطئة واقعياً".


السؤال الأول (صح أم خطأ):
عندما يسأله المستخدم سؤالاً، يقوم ChatGPT بالبحث في قاعدة بيانات ضخمة لديه عن إجابة مخزنة مسبقاً ويقوم بنسخها ولصقها لك.
هل هذه العبارة صحيحة أم خاطئة؟ ولماذا؟
الإجابة: خاطئة.
السبب: ChatGPT لا يملك "مجلداً" فيه إجابات جاهزة ينسخ منها. هو يولّد (Generate) النص من الصفر في كل مرة. إنه يبني الجملة كلمة بكلمة بناءً على الاحتمالات، ولهذا قد تطلب منه نفس الشيء مرتين ويعطيك صياغتين مختلفتين.

السؤال الثاني (توقع النمط):
تخيل أنني كتبت لـ ChatGPT الجملة التالية: "تناول المريض الدواء لكي..." بناءً على ما تعلمته عن "الأنماط اللغوية"، اذكر 3 كلمات يتوقع ChatGPT أنها قد تكون الكلمة التالية (بناءً على الاحتمالات المنطقية).
إجابة السؤال الثاني (توقع النمط):
الجملة: "تناول المريض الدواء لكي..." الكلمات الأكثر احتمالاً التي قد يتوقعها ChatGPT هي:
يشفى (الاحتمال الأعلى بناءً على السياق الطبي).
يتعافى (نمط لغوي مرادف).
يتحسن (نمط لغوي شائع). ChatGPT يختار واحدة منها ويبني عليها ما بعدها.

السؤال الثالث (التفكير النقدي):
إذا كان ChatGPT يختار الكلمة التالية بناءً على "الأنماط التي تعلمها في الماضي"، فماذا سيحدث لو سألته عن "نتيجة مباراة كرة قدم لُعبت بالأمس فقط"؟ (علماً أن تدريبه انتهى قبل عام مثلاً).
إجابة السؤال الثالث (التفكير النقدي):
في الغالب سيعتذر عن الإجابة أو يعطيك معلومات خاطئة (هلوسة).
السبب: بما أن تدريبه انتهى في تاريخ معين، فهو لا يملك "الأنماط" الخاصة بأحداث المستقبل. هو لا "يشاهد" التلفاز أو يتصفح الإنترنت لحظياً (إلا إذا استخدم ميزة البحث في الويب). بدون بيانات تدريبية، لا يمكنه توقع الكلمة التالية بشكل صحيح لأن النمط غير موجود في ذاكرته.

 
design رئيس التحرير: إبراهيم الخطيب 9613988416
تطوير وبرمجة: شركة التكنولوجيا المفتوحة
مشاهدات الزوار 1010357703
الموقع لا يتبنى بالضرورة وجهات النظر الواردة فيه. من حق الزائر الكريم أن ينقل عن موقعنا ما يريد معزواً إليه.
موقع صيداويات © 2025 جميع الحقوق محفوظة