هل حقًّا صرفت شركات التكنولوجيا انتباه العالم عن الخطر الوجودي للذكاء الاصطناعي؟.. عالِم يُحذِّر

"تيجمارك" يطالب بفرض تنظيم صارم على صانعي النماذج
ماكس تيجمارك في قمة الذكاء الاصطناعي في كوريا الجنوبية
ماكس تيجمارك في قمة الذكاء الاصطناعي في كوريا الجنوبية

حذَّر العالِم الأمريكي البارز في مجال الذكاء الاصطناعي ماكس تيجمارك من أن شركات التكنولوجيا الكبرى نجحت في صرف انتباه العالَم عن الخطر الوجودي الذي لا يزال يطرحه الذكاء الاصطناعي على البشرية.

وفي حديث مع صحيفة "الغارديان" في قمة الذكاء الاصطناعي في سيول بكوريا الجنوبية قال "تيجمارك": "إن التحول في التركيز من انقراض الحياة إلى مفهوم أوسع لسلامة الذكاء الاصطناعي قد يؤدي إلى تأخير غير مقبول في فرض تنظيم صارم على صانعي أكثر البرامج قوة". مضيفًا: "في عام 1942 بنى إنريكو فيرمي أول مفاعل على الإطلاق بتفاعل نووي متسلسل ذاتي الاستدامة تحت ملعب لكرة القدم في شيكاغو، وعندما علم كبار الفيزيائيين في ذلك الوقت أُصيبوا بالذعر حقًّا؛ لأنهم أدركوا أن أكبر عقبة متبقية أمام بناء قنبلة نووية قد تم التغلب عليها. لقد أدركوا أنها كانت مجرد مسألة سنوات قليلة. وفي الواقع، كانت ثلاث سنوات مع تجربة ترينيتي في عام 1945".

ولفت "تيجمارك"، الذي تلقى تدريبًا في الفيزياء، إلى أن نماذج الذكاء الاصطناعي التي يمكنها اجتياز اختبار تورينج (حيث لا يستطيع شخص ما التمييز في المحادثة أنه لا يتحدث إلى إنسان آخر) هو التحذير نفسه من نوع الذكاء الاصطناعي، الذي يمكن أن تفقد السيطرة عليه، وهذا هو السبب في أنك تجد أشخاصًا، مثل جيفري هينتون ويوشوا بنجيو، والعديد من الرؤساء التنفيذيين لشركات التكنولوجيا، على الأقل في الخاص، يفقدون صوابهم الآن.

وقاد معهد "مستقبل الحياة" غير الربحي التابع لـ"تيجمارك" الدعوة في العام الماضي إلى توقُّف لمدة ستة أشهر في أبحاث الذكاء الاصطناعي المتقدمة؛ بسبب تلك المخاوف.

وكان إطلاق شركة "أوبن إيه آي" لنموذج GPT-4 في مارس من ذلك العام بمنزلة نذير شؤم، حسب رأيه، وأثبت أن الخطر كان قريبًا بشكل غير مقبول.

وعلى الرغم من آلاف التوقيعات من خبراء، بما في ذلك "هينتون" و"بنجيو"، وهما اثنان من "الآباء الثلاثة" للذكاء الاصطناعي، الذين ابتكروا نهج التعلم الآلي، الذي يقوم عليه المجال اليوم، لم يتم الاتفاق على أي توقُّف، وبدلاً من ذلك قادت مؤتمرات قمة الذكاء الاصطناعي، التي تعد سيول الثانية لها بعد بلتشلي بارك في المملكة المتحدة في نوفمبر الماضي، مجال تنظيم الذكاء الاصطناعي الناشئ.

وقال "تيجمارك": "كنا نريد أن تضفي تلك الرسالة الشرعية على المحادثة. ونحن سعداء للغاية بكيفية عمل ذلك. بمجرد أن رأى الناس أن أشخاصًا مثل بنجيو قلقون فكروا. من الجيد أن أقلق بشأن ذلك، حتى الرجل في محطة الوقود الخاصة بي قال لي بعد ذلك إنه قلق بشأن استبدال الذكاء الاصطناعي لنا، ولكن الآن نحتاج إلى الانتقال من مجرد الحديث إلى التنفيذ".

ومنذ الإعلان الأولي عما أصبح قمة "بلتشلي بارك" تحول تركيز تنظيم الذكاء الاصطناعي الدولي بعيدًا عن المخاطر الوجودية. وفي سيول لم تتناول سوى واحدة من المجموعات "رفيعة المستوى" الثلاث السلامة بشكل مباشر، ونظرت في "الطيف الكامل" للمخاطر "من انتهاكات الخصوصية إلى اضطرابات سوق العمل، والنتائج الكارثية المحتملة".

ويحتج "تيجمارك" بأن التقليل من شأن المخاطر الأكثر خطورة ليس صحيًّا، وليس عرضيًّا، وقال: "هذا بالضبط ما توقعت حدوثه من ضغط الصناعة. ففي عام 1955 نشرت أولى المقالات الصحفية التي تشير إلى أن التدخين يسبب سرطان الرئة، وقد يعتقد المرء أنه سيكون هناك تنظيم في وقت قريب جدًّا، ولكن لا؛ استغرق الأمر حتى عام 1980؛ لأن هناك هذا الدفع الهائل من قِبل الصناعة لصرف الانتباه. أشعر بأن هذا ما يحدث الآن".

وقدم منتقدو "تيجمارك" الحجة نفسها بشأن ادعاءاته: "تريد الصناعة من الجميع التحدث عن المخاطر الافتراضية في المستقبل لصرف الانتباه عن الأضرار الملموسة في الحاضر، وهو اتهام يرفضه، حتى إذا فكرت في الأمر بناء على مزاياه الخاصة، فهو أمر مثير للفضول.. سيكون الأمر أشبه بشطرنج رباعي الأبعاد إذا حاول شخص مثل سام ألتمان من أجل تجنب التنظيم أن يخبر الجميع بأنه قد ينطفئ بالنسبة للجميع، ثم يحاول إقناع أشخاص مثلي بقرع ناقوس الخطر".

أخبار قد تعجبك

No stories found.
صحيفة سبق الالكترونية
sabq.org