أبحاثتكنولوجيامختارات

الذكاء الاصطناعي ChatGPT.. هل تسود الآلات عالمنا يوماً ما؟

 

‏ أثار برنامج الذكاء الاصطناعي الجديد ChatGPT الكثير من الأسئلة حول مستقبل تلك التقنيات كما أثار الكثير من الجدل والمخاوف بشأن النواحي الأخلاقية لاستخداماته.. فما هو هذا البرنامج؟ وإلى أي مدى يمكن أن تتسع قدراته؟

منذ عقود خلت وإلى اليوم، يتعاظم الخوف البشري من تنامي قدرات الذكاء الاصطناعي AI (Artificial intelligence) وتخطيه حدود فهم الإنسان الذي قام بصنعه.

في هذا السياق أُنتجت العشرات من أفلام الخيال العلمي وكُتبت مئات الكتب والمقالات، محذرة من السيطرة “الوشيكة” لهذه البرامج على العالم، وليس ببعيد عنا ما حدث في مجال الأدب والفن والرسم وكيف اخترقه هذا النوع من البرامج.

واليوم يدور حديث متزايد حول برنامج ذكاء اصطناعي جديد فاق حدود تصور البشر بشأن درجة التطور التي قد تصل إليها هذه التقنيات يوماً ما.

جدل كبير.. في وقت قصير

البرنامج الجديد أطلق عليه اسم ChatGPT (Generative Pretrained Transformer 3) وهو برنامج لمعالجة اللغة، يتفاعل مع المستخدم من خلال الحوار كتابة على الموقع الإلكتروني الخاص به، وأطلق في تشرين الثاني/ نوفمبر 2022، ويعمل وفق آلية “تعلم الآلة”، لكن ما يظهر على السطح منه يبدو أشبه بقمة جبل الجليد!

الانتخابات البرلمانية الألمانية 2021

البرنامج من إنتاج شركة (أوبن أيه آي OpenAI) التي تأسست عام 2015 بمشاركة كل من إيلون ماسك وجريج بروكمان وإيليا سوتسكيفر ووجسيخ زاريمبا وسام التمان. والبرنامج هو أحدث نماذج تعلم الآلة وقد تم إنشاؤه على رأس عائلة نماذج روبوتات المحادثة وتعلم اللغات والمسماة ( OpenAI’s GPT-3)، ويخضع لإشراف دقيق للغاية لتطوير اللغة التي يستجيب بها لطلبات المستخدمين من خلال ما يسمى يتقنيات التعلم التعزيزي ( reinforcement learning techniques) أو التعلم المعزز من ردود الفعل البشرية (RLHF).

وتقول شركة OpenAI على موقعها إن “لقد قمنا بتدريب نموذج يسمى ChatGPT وهو يتفاعل بطريقة المحادثة. يتيح الحوار مع ChatGPT الإجابة على أسئلة المتابعة والاعتراف بأخطائه ورفض الطلبات غير الملائمة، وهو نموذج شقيق لـبرنامج الذكاء الاصطناعي InstructGPT”. ويعتبر البرنامج حالياً أشهر نماذج الذكاء الاصطناعي لمعالجة اللغة على الإنترنت.

يتيح الحوار مع ChatGPT الإجابة على أسئلة المتابعة والاعتراف بأخطائه ورفض الطلبات غير الملائمة

وبحسب تجارب شخصية لمستخدمين وثقوا استخدامهم للبرنامج الجديد في فيديوهات على المنصات المختلفة وفي تغريدات على تويتر، فإن هناك انطباع عام لدى البرنامج باعتزازه بنفسه وبما يقوم به. ويحب البرنامج أن يصف نفسه بأنه “نموذج AI لمعالجة اللغة”، ما يعني أنه برنامج قادر على فهم لغة الإنسان بالشكل الذي يتم به التحدث بها وكتابتها، مما يسمح له بفهم المعلومات التي تضاف إليه ويتم تغذيته بها بشكل مستمر ودائم والتفكير قبل التلفظ بأي رد على طلبات المستخدم، وهو ما يحدث بسرعة فائقة بالطبع.

وإلى الآن يكتفي ChatGPT بالردود المكتوبة ولا يقوم بإنتاج مواد صوتية أو بصرية، وذلك على عكس نماذج أخرى شهيرة منها الروبوت صوفيا Sophia the Robot وأيضاً منشئ الصور Dall-E، إلا أنه يعتبر ذو قدرة خارقة مقارنة بكل برامج الذكاء الاصطناعي من حيث فهمه العميق للغة المكتوبة والمنطوقة، الأمر الذي يمنحه نطاقًا واسعًا للغاية من القدرات، بدءًا من كتابة تعليقات على القصائد الشعرية مروراً بنظريات العوالم الموازية وصولاً إلى شرح ميكانيكا الكم بعبارات بسيطة أو كتابة أوراق بحثية ومقالات كاملة.

ويقول مستخدمون إن البرنامج استجاب لطلبات خاصة بكتابة الموضوع بشكل ساخر وأنه يستطيع فهم الكثير من الأمور المعقدة الواردة في الأسئلة وأن قوته الحقيقية تكمن في سرعة استجابته وفهمه للغة المستخدمة في الأسئلة بشكل مثير للإعجاب منتجاً مقالات كاملة بأسلوب جيد للغاية، لكن آخرين قالوا إن هناك بعض الموضوعات مثل الأحداث العالمية الأخيرة أو الموضوعات التي لا يوجد بشأنها الكثير من المعلومات والتي قوبلت من جانب البرنامج بإنتاج مقالات أو ردود خاطئة أحياناً ومشوشة في أحيان أخرى.

أيضاً، وبحسب تجارب مستخدمين، فإن البرنامج يمتنع عن الإجابة عن الأسئلة عندما تشكل الردود نوعاً من الخطر سواء للسائل أو للمجتمع بوجه عام ويتوقف حينها عن المساعدة في مثل هذه الطلبات الخطرة بل إنه يوقفك عن طرح مزيد من الأسئلة بشأن تلك الموضوعات “الضارة”.

قد يبو الأمر في ظاهره بسيطاً.. برنامج تطرح عليه الأسئلة فيقوم بالبحث ويعود إليك بالنتائج بسرعة.. لكن تقنية القيام بذلك أكثر تعقيدًا مما قد تبدو عليه.

كيف يدرك الذكاء الاصطناعي مشاعر الإنسان؟

تم تدريب النموذج ChatGPT باستخدام قواعد البيانات النصية من الإنترنت، وشمل ذلك كميات ضخمة من الغيغا بايتس من البيانات التي تم الحصول عليها من الكتب ونصوص الويب وويكيبيديا والمقالات وغيرها بمعدل وصل إلى نحو 300 مليار كلمة أدخلت في نظامه.

وكنموذج لغوي يعمل على الاحتمالات، فإنه بمقدوره أن يخمن تتابع وترتيب الكلمات بشكل منطقي بحسب اللغة المستخدمة. وللوصول إلى مرحلة حيث يمكنه القيام بذلك، مر النموذج بمرحلة اختبار خاضعة للإشراف البشري، فتمت تغذيته بمدخلات مختلفة منها على سبيل المثال سؤال “ما لون خشب الشجرة؟”. بالطبع كان لدى الفريق مخرجات صحيحة متعددة، وإذا لم تتضمن الإجابة واحدة منها يقوم الفريق بإدخال الإجابة الصحيحة مرة أخرى في النظام، ويقوم بتعليم البرنامج الإجابات الصحيحة ويساعده في بناء معرفته شيئاً فشيئاً، وهو ما يشبه تعليم الطفل.

تأتي المرحلة الثانية وهي تقديم إجابات متعددة على سؤال واحد بالتعاون مع أحد أعضاء الفريق والذي يقوم بتصنيف الإجابات من الأفضل إلى الأسوأ، ويدرب الشخص المسؤول البرنامج على عقد المقارنات وتقييم جودة الإجابات.

والحقيقة فإن ما يميز هذا النموذج وهذه التكنولوجيا عن غيرها هو أنها تستمر في التعلم بشكل لا ينقطع مع تحسين فهمها للأسئلة باستمرار لتصبح يوماً ما الجهة التي تعرف كل شيء عن كل شيء!

نماذج أخرى من الذكاء الاصطناعي في تعلم اللغة

في حين أن GPT-3 قد صنع اسمًا لنفسه من خلال قدراته اللغوية الآخذة في التطور باستمرار، إلا أنه ليس الذكاء الاصطناعي الوحيد القادر على القيام بذلك. تصدر نموذج LaMDA من Google عناوين الصحف عندما طُرد مهندس من غوغل Google لأنه وصفه بأنه “واقعي للغاية لدرجة أنه اعتقد أنه لديه وعي شخصي منفصل وخاص به وليس مجرد برنامج”.

هناك أيضًا الكثير من الأمثلة الأخرى أحدها من إنتاج أمازون Amazon وآخر من إنتاج جامعة ستانفورد Stanford، وحظيت جميعها باهتمام أقل بكثير من OpenAI أو Google LaMDA لكنها لم تكن بهذا القدر من التطور الذي يتمتع به GPT-3، كما أن معظم هذه النماذج غير متاحة للجمهور، لكن OpenAI بدأت في عمل ذلك حتى خلال مراحل الاختبار الأولية، فيما يتوفر LaMDA من Google لمجموعات محددة وبقدرات محدودة بهدف الاختبار.

معايير أخلاقية

كلما ذكر “الذكاء الاصطناعي”، ذُكرت معه “المعايير الأخلاقية” و”المخاوف من تعدي الحدود”. ويدرك خبراء أخلاقيات الذكاء الاصطناعي مدى حساسية أن توضع تقنية شديدة التقدم وسريعة التطور بهذا الشكل بين أيدي الجمهور بلا حساب أو رقابة، وما يمكن أن ينتج عن ذلك من مشكلات متعددة خاصة إذا ما تُرك المجال أمام البرنامج لتعليم نفسه بنفسه دون مراقبة من القائمين على تشغيله وتطويره.

نظرًا لأن النظام يتم تدريبه بشكل أساسي من خلال المواد الموجودة على الإنترنت، فإنه يمكنه التعرف على التحيزات والصور النمطية والآراء العامة، ما يعني أنك قد تجد أحيانًا نكاتًا أو صورًا نمطية حول مجموعات معينة أو شخصيات سياسية بناءً على ما تطلبه.

كما أن تغذية البرنامج من خلال مواد الإنترنت قد تتسبب مع الوقت في ترسيخ صورة معينة عن مجموعات أو أقليات بعينها، كما قد يتسبب التعرض المستمر للأخبار الكاذبة والزائفة ونظريات المؤامرة في مشكلات تتعلق بطبيعة المخرجات التي ينتجها البرنامج.

ولهذا السبب ولغيره، وضعت OpenAI تحذيرات لما يطلبه المستخدمون من البرنامج. فلو أنك سألت مثلاً عن كيفية التنمر على شخص ما، سيتم إخبارك بأن التنمر أمر سيء. ولو سألت عن قصة دموية، سوف يغلق النظام مساحة الدردشة معك، وينطبق الشيء نفسه على الطلبات الخاصة بتعلم كيفية التلاعب بالناس أو صنع أسلحة خطرة.

ماذا يُخفي المستقبل؟

كان لدى شركة OpenAI عدد من المستثمرين المشهورين ساهموا في صعودها إلى الشهرة كما ذكرنا آنفاً، كما سرت أنباء عن اعتزام مايكروسوفت استثمار نحو 10 مليارات دولار في OpenAI والآن تتطلع الشركة إلى إدماج تطبيق ChatGPT في محرك البحث Bing الخاص بها، وسط منافسة شديدة من محرك البحث الأشهر غوغل Google.

في العام الماضي، احتفظ Bing بأقل من 10 في المائة من عمليات البحث على الإنترنت في العالم. على الرغم من أن هذا يبدو ضئيلًا، ويؤكد على إحكام Google قبضته على السوق، لكنه أيضاً يشير إلى مدى أهمية Bing كأحد أكثر الخيارات شيوعًا.

مع وجود خطط لإدماج ChatGPT في نظامه، يأمل محرك البحث Bing في فهم استفسارات المستخدمين بشكل أفضل وتقديم محرك بحث أكثر حوارية. لكن ليس من الواضح إلى الآن ما الذي وصلت إليه جهود مايكروسوفت في هذا الإطار، إلا أنه من المحتمل أن تبدأ الاختبارات قريباً، وسط مخاوف من أن تتأثر نتائج البحث عبر Bing بالتحيزات المسبقة التي قد يقع فيها الذكاء الاصطناعي ChatGPT الأمر الذي قد يسفر عن نتائج غير دقيقة أو غير مرضية للمستخدمين.

ع

يعمل صانعو السيارات على إدخال تقنية جديدة لمنع الحوادث المرورية نتيجة استخدام الهاتف المحمول أو غفوة سريعة، بداية عبر أنظمة مساعدة في السيارات الذكية بإمكانها الالتزام بالمسار أو التوقف عند الحاجة. تتنبه السيارات الذكية لما حولها عبر الكاميرات والماسحات الضوئية، وتضيف إلى خوارزميتها بعد التعلم من مواقف حقيقية.

يستفيد الأشخاص الذين لا يستطيعون إدارة حياتهم اليومية لوحدهم من تكنولوجيا “يد المساعدة” إلى حد بعيد. يوجد في اليابان العديد من المشاريع التجريبية في دور المسنين. وفي بافاريا بألمانيا أيضاً، يقوم مركز الفضاء الألماني (DLR) بالبحث عن روبوتات مساعدة – كما (في الصورة) – بإمكانها الضغط على أزرار المصعد أو وضع الأغطية. كما بوسع هذه الروبوتات طلب المساعدة في حالات الطوارئ أيضاً.

حتى اللحظة، لم يتمكن الذكاء الاصطناعي من استبدال الأطباء بشكل تام. غير أنه يساعد في التشخيصات السريعة وترتيب العلاج اللازم، على سبيل المثال عندما يكون المريض مصاباً بسكتة دماغية، قد تكون المساعدات الرقمية مفيدة حينها، كتحليل حالات سابقة والبحث في العلاجات التي ساعدت على الشفاء.

لم تعد الساعة التي تتلقى المهام صوتياً من “غوغل و”آبل” أمراً نادراً، بل على العكس شائعة جداً وفي تطور دائم. ومن المواصفات المحدثة ترجمة الكلام إلى لغات أجنبية متعددة. لذا ستجد نفسك غير مضطر لتعلم اللغات، إذ ستقوم ساعتك بالتحدث عنك بلغة البلد الذي تحل فيه.

هل يجب إطلاق سراح المتهم بكفالة قبل محاكمته أم لا؟ وفقاً للإحصاءات، فإن هذا القرار غالباً ما يحدده شعور القاضي فقط. لذلك تساعد خوارزمية “تقييم السلامة العامة” في اتخاذ القرارات المشابهة منذ عام 2017، حيث تتضمن بيانات ومعلومات عن ملايين الحالات الأمريكية مع تقييم المخاطر التي تنطوي عليها.

في أحد مطاعم بكين في الصين، بإمكان ضيوف المطعم طلب قائمة الطعام المفضلة لديهم من الروبوتات، ومن ثم يقوم المساعدون الرقميون بالبحث عن الطعام المطلوب في المطبخ (في الصورة) وتسليمه إلى النادل الروبوت، الذي يوصله إلى طاولة الزبون. نظام مؤتمت تماماً، كما يحفظ طلبات الزبائن من أجل الزيارة القادمة.

من لا يحلم بالحصول على خادم شخصي في منزله؟ هناك بالفعل بديل لذلك “الخادم الروبوت” مثل “ووكر” (في الصورة)، الذي يعمل كمساعد وينظم التقويم وحساب البريد الإلكتروني. كما يمكنه أيضاً اللعب مع الأطفال. وهناك أنواع أخرى للخادم الروبوت، حيث يحل محل ساعي البريد ويقوم بتسليم الطرود إلى المنازل. كل شيء ممكن! جينفر فاغنر/ ريم ضوا.

 

 

 

 

 

 

 

 

 

 

 

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى