يعني إيه ChatGPT؟

العالم كله يتحدث الآن عن النقلة النوعية والعلمية الهائلة في الذكاء الاصطناعى والقدرات المبهرة للنماذج اللغوية الضخمة Large Language Models (LLM). الثورة هنا حول قدرة الآلة على فهم اللغة – الوسيلة الأساسية للتواصل البشري- مما يعني قدرة الآلة على الاقتراب من العقل البشري ومضاهاته بل ومنافسته في الفهم والتعقل والاستقراء والاستدلال وتخليق النصوص. ChatGPT ستغير وجه العالم في السنوات القليلة القادمة.. إبداع علمي لا يقل عن اختراعات ساهمت في تطور البشرية عبر العصور، مثل الطباعة والكهرباء والإنترنت. وهو نموذج لغوي كبير وبرنامج ذكاء اصطناعي يمكنه معالجة وفهم مدخلات اللغة الطبيعية من المستخدمين والاستجابة بطريقة تشبه الإنسان، تم إنشاؤه بواسطة شركة OpenAI التي تأسست في عام 2015 بقيادة إلون ماسك، الذي قرر تحويل نشاط الشركة من التركيز على أبحاث الفضاء والسيارات الكهربائية الذكية إلى نظم الذكاء الاصطناعي artificial Intelligence.

وربما سمعنا كثيرًا عن نظم الشات بوت التفاعلية للرد على أسئلة المستخدمين والعملاء في تطبيقات كثيرة. هذه التقنية converstioal AI كانت محدودة القدرات وتقوم بالرد فقط في نطاق المعلومات المتوافرة من المؤسسة، بينما يعتمد ChatGPT على تقنية النماذج اللغوية الضخمة Large Language Models (LLM)، حيث تقوم التقنية بالتدريب على مليارات النصوص الرقمية المتاحة على الإنترنت وفي المكتبات الإلكترونية والوثائق الرقمية وويكيبيديا، مما يتيح  القدرة على فهم اللغة بعلاقاتها وتشابكتها الصرفية والنحوية والدلالية في إطار رقمي.

تم تدريب ChatGPT على حوالي 600 جيجا من النصوص الرقمية، وحوالي 570 مليار مقطع لغوى تم تخزينهم في 175 مليار متغير، مما يمكنها من إنشاء ردود متماسكة وذات صلة بالسياق لمجموعة واسعة من الأسئلة في مجالات مختلفة. وهناك فرق كبير بين استرجاع المعلومات بصورة سريعة مثل المحرك البحثي الشهير Google والقدرة على فهم النصوص وتلخيصها وتوليد إجابة محددة.

كذلك يمكن لـ ChatGPT التحاور في مواضيع متنوعة، بما في ذلك العلم والتاريخ والأدب والأحداث الجارية، ويستخدم بنية شبكة عصبية معقدة لمعالجة وفهم المعنى الكامن وراء الكلمات والعبارات، مما يسمح له بتوليد استجابات شبيهة بالبشر تكون مفيدة وجذابة. كما يمكن لـ ChatGPT أيضًا التعلم من تفاعلاته مع المستخدمين، وتحسين استجاباته باستمرار بناءً على التعليقات ومدخلات المستخدم، وذلك بفضل قدرته على تقديم إجابات فورية والمشاركة في محادثات هادفة.

الجدير بالذكر أن النقلة العلمية لتطوير ChatGPT  لم تقم بها شركة Open AI، ولكن من خلال علماء شركة جوجل، في بحث تاريخي عن ما يسمى المحولات Transformers. تستخدم ChatGPT تقنيات التعلم غير الخاضعة للإشراف Unsupervised Learning، وأحيانًا تسمىself-supervised learning، أي أنه يتعلم ذاتيًا. والطريقة العلمية التي يتعامل بها  ChatGPT  مع اللغات تعتمد على الرموز، فلا يحتاج للتعامل مع كل لغة على حدة. وهنا يجب تصحيح مفهوم خاطيء، وهو أنه عند سؤال ChatGPT باللغة العربية فأنه يقوم بالإجابة بعد ترجمة السؤال إلى الإنجليزية ثم يقوم بالترجمة العكسية، وهذا مفهوم شائع وخاطئ، فكل اللغات بالنسبة لـ ChatGPT هي سلسة من الرموز، يتم فهم مضمونها والتعامل معها، يعني لو تخيلنا مثلا أنه تم تغذية ChatGPT بكم كبير من نصوص اللغة الهيروغليفية،  فإنه سيستطيع الإجابة عن أسئلة باللغة الهيروغليفية.

يتم تقسيم أي نص لغوي إلى مجموعة من المقاطع الرمزية تسمى Tokens ولنطلق عليها “توكن”. وتعتمد طريقة عمل وتدريب GPT على أنه عند إدخال أي سؤال أو جملة او أمر يقوم بتحويله إلى سلسلة من “التوكن”، يقوم بفهمها ثم الرد أيضًا من خلال أفضل تنبؤ لسلسلة من التوكن أيضًا، ويسمى هذا بالـ Tokenizer، وأعتقد أن معطمنا عند الكتابة على الموبايل أو على محرك جوجل يجد أنه هناك خاصية اسمها autocomplete للتنبؤ بالكلمة أو الجملة المقصودة، فيمكن اعتبار تقنية ChatGPT نموذج شديد التطور والتعقيد مقارنة بخاصية التنبؤ autocomplete .

ورغم أن التقنية متطورة جدًا للغة الإنجليزية، ولا تعمل بنفس الكفاءة للغة العربية في التطبيقات المتخصصة، يستطيع النموذج العام الإجابة جيدًا في أحوال كثيرة باللغة العربية، ولكن أقل جودة ووضوح من اللغات الأوروبية المدعومة بشكل أفضل نسبيًا من اللغات الأخرى. قد يقول البعض هذا شيء معروف وطبيعي ناتج عن ضعف المحتوى الإلكترونى على الإنترنت وندرته النسبية مقارنة باللغات الأوروبية، وقوة وجودة اللغة في ChatGPT  تتناسب طرديًا مع كم المحتوى النصي الذي تم تدريب النموذج اللغوي عليه.. الحقيقة هذا المقولة المعروفة لا تمثل ربما نصف الحقيقة وربما أقل، لعدة أسباب:

• ChatGPT لم يتم تدريبه على كل محتوى الإنترنت، ولكن على حوالي 570 مليار مقطع لغوي من لغات مختلفة – جزء كبير منها نصوص إلكترونية على الإنترنت ولكن هناك مصادر إلكترونية أخرى غير معلنة، منها كتب ومقالات و روايات وشعر وكتالوجات وبروشورات. كم مهول من النصوص الإلكترونية ولا يعلم أحد تحديدًا كم نسبة اللغة العربية في هذه النصوص.

• ذاكرة ChatGPT وعدد البارامترات في النهاية محدود وليست لا نهائية، فعدد البارامترات التي تحتوي على المحددات الرقمية لفهم اللغة تصل إلى 175 مليار بارامتر، موزعة على 95 لغة، ومؤكد ليس بطريقة منتظمة، وبالتالي هناك قرارات استراتيجية وخيارات من الشركة في نسبة التركيز على لغات بعينها، وكلها تتوقف على التوزيع النسبي للغات في النصوص التي تم تغذية التقنية بها.

• التوجه التجاري: مؤكد أن الأولوية للغة الإنجليزية واللغات الأوروبية من الناحية التجارية، وتظل اللغات الأخرى مثل العربية لغات هامشية nice to have، وغالبًا مصادرها نابعة من المسح الكبير لصفحات الإنترنت.

• وهنا نأتي لنقطة في غاية الأهمية ربما قليل جدًا من انتبه إليها، ففي اللغة الإنجليزية “التوكن” هي تقريبًا كلمة، وأحيانًا أقل من كلمة، مثلًا Hi how are you بها 4 توكن، توكن لكل كلمة تقريبًا، ولكن كلمة propaganda بها 2 توكن prop+aganda، وهذه هي طريقة ChatGPT  في التعامل مع النص.

• نأتي للغة العربية. الملاحظ والمعلومات من موقع الشركة نفسها أن اللغة العربية واللغات “النائية الأخرى” يتم تعريف التوكن فيها بطريقة مختلفة، فالتوكن في اللغة العربية هو تقريبًا حرف، بمعنى أن التقنية تتعامل مع اللغة العربية كتتابع من الحروف وليس الكلمات ولا حتى مقاطع الكلمات، وهذه نقطة ربما لم يلتفت إليها أحد و لها تأثير مباشر على قدرة التقنية على فهم اللغة، وهذا كلام علمي و منشور وليس مرسل character Tokenizers versus subword tokenizers، وبالتالي التعامل مع اللغة كتسلسل من الكلمات أو مقاطع الكلمات أفضل من التعامل معها كسلسة من الأحرف مثلما هو الحال في ChatGPT.

• نقطة أخرى وهي أن المستخدم العربي لا يتلقى فقط جودة أقل في هذه التقنية، لكنه سيدفع حوالى ثلاثة أضعاف من يتعامل باللغة الإنجليزية لنفس المحتوى تقريبًا، ولتوضيح ذلك، ما يستخدمه العامة هو النسخة المجانية من Web ChatGPT، ولكن المحترفين يستخدمون نماذج متخصصة داخل موقع Open AI، مثل davinci – curie – Babbage – ada. وعلى سبيل المثال لبناء تطبيقات متخصصة للشركات والمؤسسات، وهذه ليست خدمات مجانية، وطريقة الحساب هي لكل 1000 توكن هناك تسعيرة حسب قوة النموذج , فمثلًا للنموذج الأقوى davinci التسعيرة هي 2 سنت لكل 1000 توكن، وبالتالي للنصوص العربية على سبيل المثال  100 كلمة تقريبًا خمسمائة حرف، وبينما يدفع المستهلك العربي  1 سنت، يدفع مستخدم اللغة الإنجليزية لنفس النص ثلث سنت.

• إذًا القصة ليست ضعف وندرة المحتوى العربي فقط، ولكنها أولويات تجارية يتم ترجمتها لأولويات تقنية تؤثر على الجدوى النوعية والاقتصادية لهذه الثورة التكنولوجية عند التعامل مع اللغات المختلفة.

في النهاية نحن على عتبة عهد جديد ومثير في الذكاء الاصطناعي، المنافسة فيه محتدمة بين OpenAI + microsoft، بعد استثمار مايكروسوفت بمبلغ عشرة مليارات دولارات في شركة OpenAI، وبين Google التي مازالت ملتزمة الصمت رغم الإعلانات المتكررة ولكن بدون تواجد حقيقي في يد المبرمجين والمستخدمين، وأيضًا شركة meta (FB) الذي يبدو أنه ضجيج بلا طحين حتى هذه اللحظة.

الجدير بالذكر أن تقنية المحولات لم تقف فقط عند القدرة على فهم اللغة وتوليد النصوص، ولكن أيضًا تخليق الصور والصوت والفيديو، ومازالت الأبحاث مستمرة.

نقطة أخيرة هناك مقولة أن الذكاء الاصطناعي بات خطرًا على البشرية، وأنه سيهيمن على الإنسان ويقوده، وهذا ما يسمي بـ”كلام في الهواء” غير مبنى على أي أسس علمية، ومقولة أخري أن التقنية ستستبدل كثير من الوظائف، وربما يكون هذا المنطق صحيح مؤقتًا، ولكن ذلك سيؤدي في رأيي إلى الارتقاء بالوظائف، مثلما نستخدم الآلة الحاسبة الآن وقد تصور البعض عند اختراعها أنها ستلغي قدرة العقل البشري في العمليات الحسابية، وهناك وظائف كانت بأجر في هذا الوقت تطورت مع الزمن. فلا أحد يستطيع أن يقف أمام عجلة التطور العلمي والإبداع.

1 تعليق

التعليقات

من فضلك ادخل تعليقك
من فضلك ادخل اسمك هنا

موضوعات ذات صلة