لا يكفي إيقاف عمليات تطوير الذكاء الاصطناعي مؤقتاً، بل يجب إلغاؤها تماماً

هذا العنوان هو فحوى رسالة مفتوحة نُشرت اليوم تدعو “جميع مختبرات الذكاء الاصطناعي إلى التوقف المؤقت فوراً لمدة 6 أشهر على الأقل لتدريب أنظمة ذكاء اصطناعي أكثر قوة من GPT-4”.

يعتقد بعض الباحثون أن الذكاء الاصطناعي لن يظل محصوراً بأجهزة الكمبيوتر لفترة طويلة، ففي عالم اليوم، يمكنك إرسال سلاسل الحمض النووي بالبريد الإلكتروني إلى المختبرات التي ستنتج البروتينات حسب الطلب، مما يسمح للذكاء الاصطناعي المحصور في البداية على الإنترنت ببناء أشكال حياة اصطناعية أو تمهيد مباشر للتصنيع الجزيئي ما بعد البيولوجي.

إذا قام شخص ما ببناء ذكاء اصطناعي فوق طاقة البشر، فمن المتوقع أن يموت كل فرد من الجنس البشري وكل أشكال الحياة البيولوجية على الأرض بعد ذلك بوقت قصير.

لا يمكننا تحديد ما إذا كانت أنظمة الذكاء الاصطناعي على دراية بنفسها أم لا بسبب عدم درايتنا بكيفية فك تشفير أي شيء يحدث في المصفوفات العملاقة الغامضة – وبالتالي قد ننشئ في مرحلة ما عن غير قصد عقول رقمية واعية حقاً ويجب أن يكون لها حقوق و ألا تكون مملوكة. لن تكفي ستة أشهر لسد هذه الفجوة.

تكمن خطورة تجربة هذا بذكاء خارق هو أنك إذا أخطأت في المحاولة الأولى فلن تتعلم من أخطائك، لأنك ميت. وبالتالي فنحن لسنا مستعدين لشيء من هذا القبيل، ويجب أن نتوقف حالاً!

اترك رد

لن يتم نشر عنوان بريدك الإلكتروني.