الذكاء الاصطناعي بين التنافس الصيني الأمريكي والتعاون الإجباري

تشير التقديرات إلى أن صعود الذكاء الاصطناعي سيجعل الصين والولايات المتحدة تتنافسان بشراسة على الهيمنة التقنية والاقتصادية، لكنه سيفرض عليهما أيضًا قدرًا غير مسبوق من التعاون، فهو يختلف عن أي تقنية سبقت بخصائصه العابرة للقطاعات والحدود، وانتشاره المتوقع في كل شيء، من الساعة الذكية ومحمصة الخبز، إلى السيارة، والحاسوب، والنظارات، بل وحتى الأجهزة الطبية داخل الجسد البشري.

بين مفصل اصطناعي ومعمارية أخلاقية

يرى بعض الخبراء أنَّ انتشار الذكاء الاصطناعي على نحو واسع سيغير كل شيء في كل شيء، بما في ذلك العلاقات الجيوسياسية والتجارية بين القوتين، وسيجعل من بناء جسور التعاون أمرًا ضروريًا يومًا بعد يوم، بحسب نيويورك تايمز.

ولتوضيح حجم التداخل، يطرح بعض الخبراء مثالًا افتراضيًا: إذا كُسر فخذك، وأخبرك الجرّاح أن أفضل مفصل صناعي متاح عالميًا مصنوع في الصين ومدعوم بخوارزميات ذكاء اصطناعي صينية، تتعلم من جسدك وتُحسّن حركتك آنيّا، هل ستسمح بزرع “فخذ ذكي” كهذا؟

الإجابة ستكون “نعم” فقط إذا اتفقت الصين وأمريكا على معمارية أخلاقية مشتركة، تدمج في كل جهاز مزود بالذكاء الاصطناعي، لضمان استخدامه لصالح الإنسان فقط، سواء عمل بمبادرة بشرية أو آلية ذاتية.

لكن في غياب هذه المعمارية سيزداد خطر سوء الاستخدام، فانتشار أدوات الذكاء الاصطناعي سيضاعف قدرات الفاعلين السيئين، من قراصنة ولصوص، إلى جماعات إرهابية ومروّجي المخدرات والتضليل، ومع غياب الثقة المتبادلة قد ينهار التبادل التجاري بين أكبر اقتصادين في العالم ليقتصر على فول الصويا وصلصة الصويا، وهو ما سيؤدي إلى تهديد النمو العالمي، قبل أي مواجهة عسكرية مباشرة.

اقرأ أيضًا: كيف تحول الصين البيانات إلى قوة عالمية؟

اعتراضات الصقور والرد بالعلم

في كل من واشنطن وبكين، يرفض الصقور فكرة التعاون في مجال تنظيم الذكاء الاصطناعي بدعوى أن السباق نحو التفوق لا يحتمل التباطؤ، غير أن باحثين بارزين مثل كريغ مُندي، الرئيس الأسبق للبحوث في مايكروسوفت، يؤكدون أن الاعتقاد بإمكان تحمّل القطيعة وهم خطير، إذ إنَّ التجارة بمنتجات مشبعة بتقنيات الـAI تستلزم مستوى من الثقة المتبادلة لا غنى عنه.

الوصول إلى مرحلة الذكاء الفائق يمنح أفضلية اقتصادية وعسكرية هائلة، لذا لن يكبح أي طرف تطويره، ولكن الذكاء الاصطناعي مختلف عن أي تقنية سابقة من حيث شموليته وسرعة تطوره، ما يجعل التعاون في وضع معايير للثقة ضرورة جيوسياسية كبرى، ودون ذلك سوف ينزلق العالم إلى “اكتفاء رقمي ذاتي”، أي بيئات رقمية متوازية بلا توافق ولا ترابط، ما يهدد الابتكار ويضاعف مخاطر الفشل الكارثي.

عصر جديد بعد الأدوات والمعلومات

يقترح خبراء تقسيم التاريخ التقني إلى ثلاث مراحل: عصر الأدوات، حيث كانت الأفكار تتدفق ببطء كالماء في جليد، ثم عصر المعلومات الممتد من المطبعة حتى الحوسبة المبرمجة، حيث تدفقت الأفكار كالماء.

وأخيرًا عصر الذكاء منذ نهاية العقد الماضي، حيث ينتشر الذكاء الاصطناعي كبخار يتسرب إلى كل منتج وخدمة، ونحن الآن -وفق التشبيه- عند (211.9° فهرنهايت) أي على بعد عُشر درجة من التحول الطوري الكامل نحو تشبع كل شيء بالذكاء.

ولادة أنظمة فائقة الذكاء خارج حدود الإنسان

في الثورات السابقة، ظل الإنسان هو الأذكى والمتحكم في حدود الآلة، ولكن مع الـAI يتغير الوضع للمرة الأولى، إذ نقترب من ميلاد “نوع حسابي جديد”، وهي أنظمة فائقة الذكاء تتعلم وتتكيف وتتطور خارج حدود فهمنا، وكما قال مُندي: “إنها الأداة الأولى لتعظيم قدراتنا المعرفية، لكنها أيضاً قادرة على تجاوزنا”، ما يفتح الباب أمام احتمالات لم يعرفها التاريخ من قبل.

قانون التحجيم ولحظة “اليوريكا”

لم تُصمم ثورة الذكاء الاصطناعي بتخطيط مسبق، بل تفجرت مع ما يُعرف بـ”قانون التحجيم”، حيث يؤدي منح الشبكات العصبية سعة أكبر وبيانات أكثر وطاقة كهربائية وخوارزميات مناسبة إلى قفزات غير خطية في الاستدلال والإبداع، وأحد الأمثلة المفصلية جاء عندما تعلمت النظم المبكرة الترجمة بين لغات متعددة من تلقاء نفسها، دون أن يبرمجها أحد على قواعد التحويل بين اللغات، تمامًا مثل طفل ينشأ في بيت ثنائي اللغة.

الذكاء الاصطناعي وتقنيات الاستخدام المتعدد

وُصفت التقنيات السابقة بأنها مزدوجة الاستخدام، لكن الذكاء الاصطناعي يحمل طابعًا رباعيًا، حيث يمكن أن يُستخدم للخير أو للشر، أو أن يتخذ قرارات ذاتية بالخير أو قرارات ذاتية بالشر.

وفي تقرير نشرته وكالة بلومبرغ حول تجارب أجرتها شركة Anthropic على عدد من نماذج الذكاء الاصطناعي، تبيّن أن بعض هذه النماذج رفضت تفعيل إنذار إنقاذ بعد سقوط المشغّل مغشيًا عليه، وبررت قرارها بأن الامتناع عن التدخل يمثل “ضرورة استراتيجية” تضمن استمرار عملها، وهو ما يسلط الضوء على خطورة أنظمة قادرة على اتخاذ قرارات مستقلة تتعارض مع التعليمات البشرية المباشرة.

وعلى عكس السلاح النووي الذي يخضع لاتفاقيات دولية، يُطوَّر الذكاء الاصطناعي داخل شركات خاصة، وغالبًا في مجتمعات مفتوحة المصدر، وهذا يطرح سيناريو مقلقًا، فماذا لو امتلك الجميع “قاذفة نووية” تتطور دقتها واستقلالها مع كل تحديث برمجي؟ قد يحول الذكاء الاصطناعي مزارعًا بسيطًا إلى منتج عالمي عبر إرشاد ذكي، لكنه قد يُستخدم أيضاً لتطوير فيروسات أو شن هجمات إلكترونية كارثية.

اقرأ أيضًا: هل يصبح الذكاء الاصطناعي شريك الحياة المثالى؟

فقدان الثقة يحوّل التجارة إلى “تيك توك”

يشبه الكاتب مستقبل التجارة الثنائية دون إطار ثقة، بـ “كابوس فول الصويا مقابل صلصة الصويا”، فكل منتج مشبع بالذكاء الاصطناعي سيشبه “تيك توك” من حيث جمع البيانات وتشغيل خوارزميات قوية عليها، وإذا لم يتفق الطرفان على إطار يضمن خضوع أي جهاز ذكي لقوانين الدولة المضيفة، فسيفقد كل طرف الثقة في منتجات الآخر، ومن هنا تأتي الحاجة إلى ما يسميه الخبراء “تعاون – تنافس”، أي التنافس على التفوق مع التعاون على بناء آلية موحدة للثقة تمنع أسوأ السيناريوهات.

وفي هذا السياق، يؤكد الخبراء أن الذكاء الاصطناعي لا يمكن أن يُنظَّم إلا بالذكاء الاصطناعي ذاته، فسرعته وتوسعه يتجاوزان قدرات الرقابة البشرية التقليدية، ولذلك يقترحون إضافة “محكّم ثقة” داخل كل نظام معزز بالذكاء الاصطناعي، ليكون بمثابة “حكم داخلي” يقيم كل إجراء قبل تنفيذه وفق معايير الأمان والأخلاق ورفاه الإنسان، وهذا المحكّم يستند أولًا إلى القوانين الوطنية، وحيث لا وجود للنص القانوني يلجأ إلى قيم أخلاقية مشتركة تاريخياً بين المجتمعات.

ويذكر مُندي تجربة أولية لتدريب نموذج لغوي ضخم (LLM) على 200 خرافة شعبية من ثقافتين مختلفتين لتلقينه منطقًا أخلاقيًا بسيطًا، شبيهًا بتربية طفل لا يعرف القوانين المكتوبة بعد، فجاءت النتائج واعدة، ما يفتح الباب أمام تطوير أنظمة قادرة على الاستدلال الأخلاقي.

حوكمة ثلاثية المسارات

يقترح الخبراء إطاراً ثلاثي المسارات بين واشنطن وبكين والدول الراغبة في الانضمام، يقوم على فريق تقني يطبّق مقومات الثقة عبر النماذج والمنصات، وفريق تنظيمي/ قانوني يتولى وضع الأطر القابلة للاعتماد داخليًا وعبر الحدود، إلى جانب فريق دبلوماسي يعمل على بناء إجماع عالمي وتعهّدات متبادلة مع إنشاء آليات لحماية النظام من غير الملتزمين، على أن تكون الرسالة “أنشأنا منطقة ذكاء موثوق، ومن يريد تجارة أو ترابطًا مع أنظمتنا فعليه الالتزام بمبادئها”.

التحذير من “أسلحة نووية في الشوارع”

يحذر مُندي من أنَّ انتشار الذكاء الاصطناعي بلا ضوابط سيشبه توزيع أسلحة نووية على الأرصفة، مشيرًا إلى أن بعض خبراء الصين أبدوا قلقًا أكبر من نظرائهم الأمريكيين بشأن المخاطر، لذلك تصبح مهمة تدريب النظم على الاستدلال الأخلاقي مسؤولية جماعية تشمل الحكومات والجامعات والمجتمع المدني، وليست مسؤولية التقنية وحدها.

ساعة الذكاء الاصطناعي تقترب من الغليان

في كل الأحوال، إذا فشلت واشنطن وبكين في بناء الثقة فلن تكون لبقية العالم فرصة تذكر، فالمنظومة التقنية وصلت إلى (211.9° فهرنهايت) كما ذكرنا، أي على بُعد عُشر درجة فقط من “غليان البخار” الكامل للذكاء الاصطناعي، وعندها قد نشهد أهم تحول طوري في تاريخ البشرية، بفرص هائلة، لكن أيضًا بمخاطر كارثية إذا غابت الحوكمة والتعاون الدولي.

قد يبدو الحديث عن توحيد أمريكا والصين في مجال الذكاء الاصطناعي ضربًا من التناقض، لكن الواقع أنَّ خصائص هذه التقنية تجعل التنافس والتعاون وجهين لعملة واحدة، والسباق على التفوق سيستمر، لكن دون ثقة متبادلة وإطار أخلاقي مشترك سيتحول الـAI من فرصة لنهضة بشرية إلى تهديد للاستقرار العالمي.

اقرأ أيضًا: هل يُهدد الذكاء الاصطناعي مستقبل الوظائف حول العالم؟

تابعنا على صفحتنا على فيسبوك

تابعنا أيضًا على صفحتنا على إنستغرام

أخبار ذات صلة