اتصالات وتكنولوجيااخبار مصر

تحالف عالمى يطالب بتزويد أنظمة الذكاء الاصطناعى بمفاتيح إيقاف إجبارية

اشرف انور

في محاولة تهدف إلى تنظيم الفوضى التكنولوجية الحالية، أصدر تحالف يضم المئات من الخبراء التقنيين والمسؤولين السابقين وثيقة شاملة تتضمن خارطة طريق صارمة لتطوير الذكاء الاصطناعي الآمن.

وتطالب الوثيقة غير المسبوقة بفرض قيود تشريعية تتضمن المنع التام لتطوير أنظمة الذكاء الخارق دون إجماع علمي دقيق، وإلزام الشركات الكبرى بدمج مفاتيح إيقاف حتمية وفعالة في جميع النماذج القوية لضمان السيطرة البشرية المطلقة عليها.

وفقًا لموقع “بيتس ديك” الإخباري، أظهرت استطلاعات الرأي الحديثة أن الغالبية العظمى من الجماهير ترفض بشدة السباق غير المنظم نحو الوصول إلى الذكاء الخارق، مؤكدا الاستراتيجي أن الخارطة تدعو أيضًا إلى حظر تصميم الخوارزميات القادرة على الاستنساخ الذاتي أو التطوير التلقائي المستقل، فضلًا عن فرض اختبارات سلامة إجبارية قبل طرح أي منتجات ذكية موجهة للمستخدمين الأصغر سنًا لتجنب التلاعب النفسي الخطير.

يأتي هذا التحرك الجماعي الحاسم في ظل غياب قوانين حكومية فاعلة تواكب سرعة التطور في تقنيات الذكاء الاصطناعي التوليدي. ويعكس هذا الموقف إدراكًا متزايدًا للمخاطر الوجودية والمجتمعية التي قد تنجم عن فقدان السيطرة على الأنظمة الآلية المتطورة، مما يدفع المجتمع الدولي بأسره نحو تبني أطر تنظيمية صارمة تحمي مستقبل البشرية وتضمن توجيه الابتكار نحو مسارات آمنة ومستدامة اقتصاديًا وأخلاقيًا.

الذكاء الخارق و مفاتيح الإيقاف

ويعد الذكاء الخارق، مستوى متقدم جدًا ومستقبلي من الذكاء الاصطناعي يتجاوز القدرات العقلية والتحليلية للبشر في جميع المجالات المعرفية والعلمية بشكل قاطع ومطلق، لذا جاءت المطالبات بآليات تقنية وبرمجية مدمجة داخل الأنظمة الآلية تسمح للمشغلين البشريين بتعطيل البرامج القوية فوريًا في حال خروجها عن السيطرة أو إظهارها سلوكًا خطيرًا.