تحذير.. الروبوتات في المستقبل ستقرأ أفكار البشر وتطيح بهم من مقاعد الإدارة
جي بي سي نيوز-: حذّرت دراسة جديدة من وتيرة التطور التي تتقدم بها الروبوتات، حيث أكّد الباحثون أن الروبوت سيكون قادرا على قراءة أفكار البشر بحلول عام 2030، بل وسيمكنها اختراق أعمق أسرارهم.
وقالت البروفسيورة "نيتا فاراهاني"، أستاذة القانون والفلسفة في جامعة "ديوك" بولاية كارولينا الشمالية في الولايات المتحدة، إن البشر يستخدمون في المعتاد وظائف المخ لفتح الأجهزة الإلكترونية، لكن المستقبل سيشهد تغيرا كبيرا في هذا الأمر، حيث ستقوم الأجهزة الإلكترونية بكشف أسرار المخ البشري، وقراءة أفكاره ومعرفة نواياه.
جاء ذلك في معرض تحدث الأستاذة فاراهاني في المنتدى الاقتصادي العالمي بجبال الألب السويسرية، حين أكدت أيضا أن الأجهزة الإلكترونية علاوة على قدرتها على قراءة نشاط الدماغ، ستقوم بمشاطرة أجهزة الكمبيوتر والتطبيقات الأخرى، التي يمكن الوصول إليها من قبل "ربما أشخاص غير خيّرين"، هذه الأفكار التي ستقرأها.
هذا ولا تعد رؤية البروفيسورة فاراهاني هي الوحيدةَ المثيرة للقلق، التي تخرج من بين جنبات المنتدى الاقتصادي العالمي، فقد سبقها علماء وقادة سياسيون عالميون إلى القول إن علينا أن نتحرك بسرعة لتجنب تسارع وتائر ذكاء الروبوتات المستقبلية، إلى الحد الذي يمكن فيه لهذه الروبوتات الفائقة الذكاء أن تقرر القضاء على البشر.
وقالت ممثلة ألمانيا سابقاً لشؤون نزع السلاح في الأمم المتحدة أنجيلا كين إن العالم قد تباطأ جدا في اتخاذ التدابير الوقائية لحماية البشرية من التكنولوجيا الفتاكة، حتى أنها اعترفت بأن مناقشة هذا الأمر الآن قد تكون باتت "متأخرة جدا".
وأكدت كين إن نشر الأسلحة الذاتية التفكير والقرار يمثل عهدا جديدا خطيرا في الحروب القادمة، وقد يتسبب يوما ما في إفناء البشرية، بسبب عدم قدرتها على وقف آلات الدمار الذكية عند حدها.
هذا ووجدت دراسة هامة في المنتدى الاقتصادي العالمي إن أكثر من نصف المديرين التنفيذيين في الشركات العالمية الكبرى يتوقعون أن تجلس آلات الذكاء الاصطناعي على مقاعد رؤساء مجالس الشركات خلال العقد المقبل.
وأكدت هذه الدراسة إن أكثر من 7 ملايين وظيفة بشرية مهددة بالانتقال إلى الروبوتات في أكبر اقتصادات العالم، وستكون النساء الجهة الأكثر تعرضا لهذه المشكلة، بسبب قلة تمثيل أعداد كبيرة منهن في مجالات الهندسة والعلوم التي ستتأثر بالروبوتات أقل من غيرها من المجالات.
مواضيع ساخنة اخرى
- لمزيد من الأخبار تواصل معنا عبر :
- تابِع @jbcnews