أبحاثتكنولوجيا

هل الذكاء الاصطناعي يتقدم بسرعة مدمِّرة؟ 

الجميع يخشى الذكاء الاصطناعي، لكن مخاطر المعلومات المضللة على سبيل المثال أشد إقلاقاً

 

 

• معهد “فيوتشر أوف لايف” حذر أن سباق مختبرات الذكاء الاصطناعي خارج عن السيطرة

• بعض منتجات الذكاء الإصطناعي أقدمت على أمور مقلقة، مثل التعبير عن حبها للبشر

• بلغ بالمعهد في 2015 أنه حذر من احتمال فقدان سيطرة البشر على الحضارة

 

“أوبن إيه آي” أصدرت برنامج “تشات جي بي تي” قبل أقل من 6 أشهر المصدر: بلومبرغ

دعا معهد، كان حينها حديثاً ويحمل إسماً كبيراً هو “فيوتشر أوف لايف” (Future of Life)، خبراء في الذكاء الاصطناعي لقضاء عطلة نهاية أسبوع طويلة في سان خوان بجزيرة بورتو ريكو في يناير 2015.

كانت نتيجة اللقاء صورةً جماعيةً، ومجموعةً مكتوبةً من أولويات البحث في هذا المجال، وخطاباً مفتوحاً حول سبل تهيئة أبحاث الذكاء الاصطناعي لتحقيق أقصى فائدة للبشرية، وقد غلب التفاؤل في لهجة تلك الوثائق.

كان من بين التحدّيات المحتملة التي توقعها المعهد أن السيناريو الذي يتصور خفض المركبات ذاتية القيادة لوفيات حوادث السيارات في أميركا من 40 ألف سنوياً إلى نصف ذلك قد لا يسفر عن “20 ألف رسالة شكر، بل عن 20 ألف دعوى قضائية”.

أقرّ المعهد في الخطاب بأنه يتعذر التنبؤ بتأثير الذكاء الاصطناعي على حضارة البشر بدقة، وتطرق إلى بعض النتائج المدمرة المحتملة، لكنه أشار أيضاً إلى أن “القضاء على المرض والفقر ليست أمراً لا يمكن سبر أغواره”.

لكن الخطاب المفتوح الذي نشره معهد “فيوتشر أوف لايف” في 29 مارس كان مختلفاً، فقد حذرت المعهد من أن مختبرات الذكاء الاصطناعي انخرطت في “سباق خارج عن السيطرة لتطوير ونشر عقول رقمية أقوى لا يمكن لأي شخص، ولا حتى لمنشئيها، فهمها أو التنبؤ بها أو التحكم فيها بشكل موثوق”.

كما دعا إلى التوقف الفوري عن أبحاث الذكاء الاصطناعي الأكثر تقدماً، ومن أجل هذا الغرض استقطبت آلاف التوقيعات تأييداً، بما في ذلك توقيعات عديد من الشخصيات البارزة في هذا المجال، إضافة إلى جولة من التغطية عبر أبرز الوكالات الصحافية.

بالنسبة إلى أي شخص يحاول استيعاب الهوس الحالي بشأن الذكاء الاصطناعي، فقد كان الخطاب مفيداً على عدة مستويات. فهو يجسّد مثالاً حياً على كيف يمكن أن تتحول محادثات حول التقنيات الجديدة بسرعة من تفاؤل مذهل إلى تشاؤم عميق.

بيّن أنتوني أغيري، نائب رئيس معهد “فيوتشر أوف لايف” وأمين مجلس إدارته، أن أجواء الفعالية التي أُقيمت في بورتو ريكو في 2015 كانت إيجابيةً وجمعيةً، وكان قد ساهم في صياغة الخطاب الذي نُشر أخيراً، وهو مستوحى مما وصفه بأنه منعطف محبط في تطوير التقنية. قال: “الطرف الذي غاب حينذاك كان الشركات العملاقة التي ينافس بعضها بعضاً.”

هيمنة خطيرة

بالعودة إلى الوراء، بدا أن خطر هيمنة شركات التقنية المهتمة بذاتها على حساب هذا المجال واضحاً. لكن هذا القلق لم يظهر في أي من وثائق لقاء 2015. كما لم يكن هناك أي ذكر لنشر المعلومات المضللة على مستوى القطاع، وهي قضية يرى عديد من خبراء التقنية الآن أنها واحدة من أكثر النتائج المخيفة المتأتية من برامج الدردشة القوية على المدى القريب.

لنرى ما كان رد الفعل على رسالة الشهر الماضي. كما هو متوقع، لم تقدم شركات الذكاء الاصطناعي الرائدة مثل “أوبن إيه آي” (OpenAI) و”غوغل” و”ميتا بلاتفورمز” و”مايكروسوفت” أي مؤشر على أنها ستدفعها لتغيير ممارساتها.

واجه معهد “فيوتشر أوف لايف” أيضاً ردود فعل سلبية من عديد من خبراء الذكاء الاصطناعي البارزين، ويرجع ذلك جزئياً إلى ارتباطه مع حركة الإيثار الفعالة المستقطبة ومع إيلون ماسك، وهومتبرع للمعهد ومستشار لديه معروف بتضاربات مصالح لا تُحصى وأفعالٍ غريبةٍ تهدف لجذب الانتباه.

بصرف النظر عن أي صراعات داخل “وادي السيليكون”، يقول النقاد إن “فيوتشر أوف لايف” كان يحدث ضرراً ، ليس لأنه عبّر عن مخاوف بل بأنه ركز على المغلوط منها. هناك مسحة لا لبس فيها من مفهوم التهديد الوجودي في خطاب “فيوتشر أوف لايف”، الذي يثير بوضوح احتمال فقدان البشر السيطرة على الحضارة التي بنيناها. يعد الخوف من الذكاء الخارق للكمبيوتر قضية طويلة الأمد داخل أوساط التقنية، لكن الميل إلى المبالغة في تقدير قدرات أي تقنية هي موضوع أحدث موجة ضجيج.

التنبؤ بأن المركبات ذاتية القيادة يمكن أن تخفض الوفيات المرورية إلى النصف، والتحذير بأن الذكاء الاصطناعي يمكن أن ينهي الحضارة البشرية، يبدوان على طرفي نقيض من طيف المثالية التقنية.

لكن كلاهما في الواقع يروّجان للرأي القائل إن ما يبنيه “وادي السيليكون” أقوى بكثير مما يفهمه الناس العاديون. قال ألكسندر مادري، الرئيس المشارك لهيئة التدريس في منتدى سياسة الذكاء الاصطناعي التابع لمعهد ماساتشوستس للتكنولوجيا، إن القيام بذلك يحول الانتباه عن المحادثات الأقل إثارة ويقوّض محاولات معالجة المشاكل الأكثر واقعية. قال عن خطاب “فيوتشر أوف لايف”: “إنه مضاد للإنتاجية حقاً… لن يغير شيئاً، لكن علينا الانتظار حتى يتلاشى كي نعود للتعامل مع المخاوف الجدية.”

تتابع متسارع

تُصدر المختبرات التجارية الرائدة التي تعمل في مجال الذكاء الاصطناعي إنجازات رئيسية في نسق سريع ومتتابع. فقد أصدرت “أوبن إيه آي” برنامج “تشات جي بي تي” (ChatGPT) منذ أقل من ستة أشهر وتبعه الإصدار “جي بي تي – 4” (GPT-4) وهو أفضل أداءً وفقاً لعديد من المقاييس، لكن أعماله الداخلية غامضة إلى حد كبير لمن هم خارج الشركة.

تعمل تقنيته هذه على تشغيل سلسلة منتجات أصدرتها “مايكروسوفت”، وهي أكبر مستثمر في “أوبن إيه آي”، وقد قام بعضها بأشياء مقلقة، مثل التعبير عن مشاعر الحب لمستخدميه البشر.

ما كان من شركة “غوغل” إلا أن هرولت إلى إصدار أداة البحث “بارد” (Bard) المنافسة وهي تعمل بنظام “تشات بوت” (chatbot). كما أتاحت “ميتا بلاتفورمز” أخيراً أحد نماذجها للذكاء الاصطناعي للباحثين الذين وافقوا على معطيات بعينها، وسرعان ما أُتيجت هذه الأداة عبر الإنترنت.

قال أرفيند نارايانان، أستاذ علوم الكمبيوتر بجامعة برينستون: “إذا نظرنا للأمر من ناحية أننا بالفعل في أسوأ سيناريو في كلا العالمين، فإن أفضل نماذج الذكاء الاصطناعي يتحكم بها عدد قليل من الشركات. بينما تتوفر النماذج الأقدم قليلاً على نطاق واسع ويمكن حتى تشغيلها على الهواتف الذكية.”

أشار إلى أن أنه أقل قلقاً بشأن سيطرة الجهات الفاعلة السيئة على نماذج الذكاء الاصطناعي مقارنة بتطوير الذكاء الاصطناعي، الذي يحدث خلف الأبواب المغلقة في مختبرات أبحاث الشركات.

تتبنّى “أوبن إيه آي”، رغم أن معنى اسمها يوحي بانفتاحها، وجهة نظر معاكسة لذلك من حيث الأساس. بعد تأسيسها في 2015 كشركة غير ربحية تهدف لإنتاج ومشاركة أبحاث الذكاء الاصطناعي، أضافت ذراعاً هادفة للربح في 2019 (وإن كانت تضع سقفاً للأرباح المحتملة التي يمكن للمستثمرين تحقيقها). أصبحت منذئذ من أبرز مؤيدين إبقاء تقنية الذكاء الاصطناعي تحت حماية وثيقة كي لا تستغلها جهات سيئة.

ذكرت “أوبن إيه آي” عبر مدونتها إنها قد تتوقع مستقبلاً تقدم فيه نماذجها للمراجعة المستقلة، أو توافق على وضع حدود جوهرية لتقنيتها. لكنها لم تذكر كيف ستقرر ذلك. تجادل الشركة حالياً بأن سبل تقليل الضرر، الذي ربما تجلبه تقنيتها هو منع شركائها من الوصول إلى أدواتها الأكثر تقدماً، التي تحكم اتفاقيات الترخيص استخدامها.

لا يمكن أن تكون الضوابط على الأدوات القديمة الأضعف بالتأثير نفسه، كما يقول غريغ بروكمان، أحد مؤسسي “أوبن إيه آي” الذي يشغل الآن منصب رئيسها ورئيس مجلس إدارتها. قال: “يجب أن تكون هناك فجوة ما حتى يكون لدينا متسع لالتقاط أنفاسنا وللتركيز فعلياً على السلامة وتحقيق ذلك بشكل صحيح.”

يتعذّر أن نلاحظ مدى توافق هذا الموقف مع المصالح التجارية لشركة “أوبن إيه آي”، حيث كان أحد المسؤولين التنفيذيين في الشركة قد صرح علناً بأن الاعتبارات التنافسية تلعب أيضاً دوراً في وجهة نظرها بشأن ما يجب نشره للجمهور.

يشكو بعض الباحثين الأكاديميين من أن قرار “أوبن إيه آي” بمنع الوصول إلى تقنيتها الأساسية يجعل الذكاء الاصطناعي أخطر من حيث عرقلة البحث بشفافية. قال متحدث باسم الشركة إنها تعمل مع باحثين مستقلين، وخضعت لعملية تدقيق استمرت ستة أشهر قبل إطلاق أحدث نسخة من نموذج تقنيتها.

تشكيك الخصوم

يشكّك خصوم “أوبن إيه آي” في نهجها في التعامل مع الأسئلة الكبيرة المتعلقة بالذكاء الاصطناعي. قالت جويل بينو، نائبة رئيس أبحاث الذكاء الاصطناعي في “ميتا” والأستاذة في جامعة “ماكغيل”: “أتحدث كمواطنة، دائماً ما أتساءل قليلاً عندما يكون من يقول: هذا خطير للغاية، هم من لديهم المعرفة”.

تتيح “ميتا” للباحثين الوصول إلى إصدارات من نماذج الذكاء الاصطناعي الخاصة بها، قائلة إنها تأمل أن تتمكن أطراف خارجية من التحقق من جوانب التحيز التي تنطوي عليها وأوجه القصور الأخرى.

أصبحت العيوب التي تعتري نهج “ميتا” واضحة. فقد منحت الشركة في أواخر فبراير الباحثين مدخلاً إلى نموذج لغة كبير يسمى “لاما” (LLaMA) وهي تقنية مشابهة لتلك التي يعمل بها “تشات جي بي تي”. سرعان ما أعلن باحثون في جامعة “ستانفورد” إنهم استخدموا النموذج كأساس لمشروعهم الخاص الذي يقترب من أنظمة الذكاء الاصطناعي المتقدمة باستثمارات تبلغ حوالي 600 دولار.

قالت بينو إنها لم تقيِّم مدى جودة عمل نظام “ستانفورد”، رغم وصفها هذا البحث بأنه يتماشى مع أهداف “ميتا”.

لكن انفتاح “ميتا”، بحسب التعريف، جاء مع سيطرة أقل على ما حدث مع “لاما”. استغرق الأمر حوالي أسبوع قبل إتاحته للتنزيل على منصة (4chan)، إحدى منصات الرسائل الرئيسية المفضلة للمتصيدين عبر الإنترنت. قالت بينو: “نحن غير راضين بشأن هذا التسريب”.

قد لا تكون هناك إجابة محددة حول ما إذا كان لدى “أوبن إيه آي” أو “ميتا” الفكرة الصحيحة، فالنقاش ليس سوى أحدث نسخة من واحدة من أقدم الصراعات التي يشهدها “وادي السيليكون”.

لكن مساراتهما المتباينة تسلط الضوء على الطريقة التي يتخذ بها المسؤولون التنفيذيون في عدد قليل من الشركات الكبيرة القرارات المتعلقة بوضع الضمانات على الذكاء الاصطناعي بالكامل.

بالنسبة للصناعات الأخرى، لا يأتي إطلاق المنتجات التي يحتمل أن تكون خطرة إلا بعد تلبية الجهات الفاعلة الخاصة لمتطلبات الأمان التي تفرضها الجهات التنظيمية المختصة. لقد حذرت لجنة التجارة الفيدرالية خبراء التقنية عبر مدونة في 20 مارس من أنها “رفعت دعوى قضائية على الشركات التي تنشر تقنيات قد تكون ضارة دون اتخاذ تدابير معقولة لمنع الإضرار بالمستهلك”.

بعد عشرة أيام، قدم مركز الذكاء الاصطناعي والسياسة الرقمية، وهو مجموعة ضغط، شكوى إلى اللجنة، طالبها فيها بوقف عمل “أوبن إيه آي” على “جي بي تي-4”.

إن القدرة على بناء شيء ما، ثم الامتناع عن ذلك ليست فكرة جديدة. لكنها تدرأ الدافع الدائم لـ “وادي السيليكون” للمضي بوتيرة سريعة مع إلحاق ضرر.

في حين أن الذكاء الاصطناعي يختلف كثيراً عن وسائل التواصل الاجتماعي، فإن عديداً من المنخرطين في هذا التدافع نحو الذهب كانوا مشاركين في ذاك السباق أيضاً.

كانت هذه الخدمات مترسخة بعمق حين بدأ فيه صانعو السياسة يحاولون الاستجابة بجدية، ويمكن القول إن ما حققوه كان قليلاً جداً. في عام 2015، بدا أنه كان هناك الكثير من الوقت للتعامل مع أي شيء قد يجلبه الذكاء الاصطناعي، وهذا يبدو أقل واقعية اليوم.

 

 

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى