الخميس 9 مايو 2024 مـ 10:01 مـ 1 ذو القعدة 1445 هـ
موقع هدف
موقع هدف
موقع هدف
موقع هدف
رئيس مجلس الأمناء مجدي صادقرئيس التحرير محمود معروفأمين الصندوق عادل حسين

لو مش عارف سر ChatGPT .. تفاصيل آلية عمل روبوتات الدردشة المدعمة بالذكاء الاصطناعى

ChatGPT
ChatGPT

يمكن لـChatGPT وروبوتات الدردشة الأخرى التي تعتمد على الذكاء الاصطناعي التحدث بجمل سليمة نحويًا بطلاقة، وقد يكون لها إيقاع طبيعي لها، لكن لا تنخدع في الخلط بين هذا الخطاب الذي تم تنفيذه بشكل جيد وبين الفكر أو العاطفة أو حتى النية، كما يقول الخبراء. وبحسب موقع businessinsider الأمريكى، فإن برامج الدردشة الآلية، في جوهرها، ليس أكثر من مجرد آلة تقوم بإجراء حسابات رياضية وتحليل إحصائي لاستدعاء الكلمات والجمل الصحيحة، ويتم تدريب الروبوتات مثل ChatGPT على كميات كبيرة من النصوص، ما يسمح لها بالتفاعل مع المستخدمين البشريين بطريقة طبيعية، وهناك أيضًا الكثير من التدريبات التي يقوم بها البشر، ما يساعد على التخلص من أي تجاعيد. وتقول شركة OpenAI، الشركة التي تقف وراء ChatGPT، على موقعها الإلكتروني إن نماذجها تعتمد على معلومات من مجموعة من المصادر، بما في ذلك من مستخدميها والمواد التي رخصتها. كيفية عمل روبوتات الدردشة المدعمة بالذكاء الاصطناعى

تعتمد روبوتات الدردشة المستندة إلى الذكاء الاصطناعي، مثل ChatGPT من OpenAI، على نماذج لغوية كبيرة، أو LLMs، وهي برامج يتم تدريبها على كميات من النصوص التي يتم الحصول عليها من الكتابات والمعلومات المنشورة عبر الإنترنت، والتي يتم إنتاجها بشكل عام من قبل البشر.

وقال الخبراء إن الأنظمة يتم تدريبها على سلسلة من الكلمات وتتعلم أهمية الكلمات في تلك السلسلة، لذا فإن كل هذه المعرفة المتشربة لا تقوم فقط بتدريب نماذج لغوية كبيرة على المعلومات الواقعية، ولكنها تساعدهم على أنماط الكلام الإلهية وكيفية استخدام الكلمات عادةً وتجميعها معًا. ويتم تدريب Chatbots بشكل أكبر من قبل البشر على كيفية تقديم الاستجابات المناسبة والحد من الرسائل الضارة. وقال أحد مدربي بيانات الذكاء الاصطناعي الذي يعمل في شركة Invisible Technologies، وهي شركة متعاقدة لتدريب ChatGPT، لموقع Insider سابقًا أنهم مكلفون بتحديد الأخطاء الواقعية؛ الأخطاء الإملائية والنحوية، والمضايقات عند اختبار استجابات برنامج الدردشة الآلية. وقال كريستيان هاموند، أستاذ علوم الكمبيوتر في جامعة نورث وسترن: "يمكنك أن تقول: هذا أمر سام، وهذا سياسي للغاية، وهذا رأي، وتضعه في إطار لا يؤدي إلى توليد تلك الأشياء"، هاموند هو أيضًا مدير مركز الجامعة لتعزيز سلامة الذكاء الآلي. وعندما تطلب من برنامج الدردشة الآلية الإجابة على سؤال واقعي بسيط، يمكن أن تكون عملية الاستدعاء واضحة ومباشرة: فهي تنشر مجموعة من الخوارزميات لاختيار الجملة الأكثر احتمالية للرد عليها، فهو يختار أفضل الاستجابات الممكنة خلال أجزاء من الثانية، ومن بين أفضل الاختيارات، يقدم واحدة عشوائيًا، ولهذا السبب فإن طرح نفس السؤال بشكل متكرر يمكن أن يؤدي إلى إجابات مختلفة قليلاً. ويمكن لروبوتات الدردشة أيضًا تقسيم الأسئلة إلى أجزاء متعددة والإجابة على كل جزء بالتسلسل، كما لو كنت تفكر في السؤال. ولنفترض أنك طلبت من الروبوت تسمية رئيس أمريكي يحمل الاسم الأول للممثل الرئيسي في فيلم "كاميلوت"، وقد يجيب الروبوت أولاً بأن الممثل المعني هو ريتشارد هاريس، وقال هاموند: "سوف يستخدم بعد ذلك هذه الإجابة ليعطيك ريتشارد نيكسون كإجابة لسؤالك الأصلي". Chatbots ليست مثالية

وتواجه روبوتات الدردشة المدعمة بالذكاء الاصطناعي أكبر قدر من المشاكل عندما تُطرح عليها أسئلة لا تملك الإجابة عليها، إنهم ببساطة لا يعرفون ما لا يعرفونه، لذا بدلاً من رفض الإجابة، يقومون بالاستقراء بناءً على ما يعرفونه، ويقومون بالتخمين.

وتكمن المشكلة في أنهم لا يخبرونك بأنهم يخمنون، بل قد يقدمون المعلومات على أنها حقيقة، وعندما يخترع برنامج الدردشة الآلي معلومات يقدمها للمستخدم على أنها حقيقية، يُطلق على ذلك اسم "الهلوسة". إن احتمال أن يصدر ChatGPT هلوسة هو، جزئيًا، السبب الذي يجعل بعض خبراء التكنولوجيا يحذرون مستخدمي chatbot من توخي الحذر، وفي دراسة حديثة أجرتها مجموعة بوسطن الاستشارية، وجد الباحثون أن الأشخاص الذين يستخدمون ChatGPT في العمل يمكن أن يؤديوا في الواقع أداءً أسوأ في مهام معينة إذا أخذوا مخرجات chatbot في ظاهرها ولم يقوموا بفحصها بحثًا عن الأخطاء. وقال ويليام وانغ، الأستاذ المشارك الذي يدرس علوم الكمبيوتر في جامعة كاليفورنيا، سانتا باربرا: "هذا ما نسميه معرفة المعرفة أو ما وراء المعرفة". وهو أيضًا مدير مشارك لمجموعة معالجة اللغة الطبيعية بالجامعة،وقال: "إن النموذج لا يفهم الأشياء المجهولة المعروفة جيدًا".