مع وجود القليل من القواعد التنظيمية المتبعة لاستخدام الذكاء الاصطناعي، فقد حذر الخبراء من أن تطوره السريع قد يكون خطيرا. حتى أن البعض قال إنه يجب وقف أبحاث الذكاء الاصطناعي.
في مايو/ أيار الماضي، قدّم جيفري هينتون – الذي ينظر إليه على نطاق واسع كأب روحي للذكاء الاصطناعي – استقالته من شركة غوغل محذرا من أن روبوتات الدردشة الذكية يمكن أن تصبح قريبا أكثر ذكاء من البشر.
وفي وقت لاحق من ذلك الشهر، نشر مركز أمان الذكاء الاصطناعي – ومقره الولايات المتحدة – بيانا عبر موقعه الإلكتروني، أيده العشرات من المتخصصين التكنولوجيين البارزين.
وجاء في البيان أن استخدام الذكاء الاصطناعي قد يولد معلومات خاطئة من شأنها أن تزعزع استقرار المجتمع، وفي أسوأ السيناريوهات، قال الخبراء إن هذه الآلات قد تصبح ذكية للغاية بحيث تتولى زمام الأمور، ما قد يؤدي إلى انقراض البشرية.
تقول رئيسة قطاع التكنولوجيا في الاتحاد الأوروبي مارغريت فيستاجر، إن وضع “حواجز حماية” أمر ضروري لمواجهة مخاطر الذكاء الاصطناعي
و قالت رئيسة قطاع التكنولوجيا في الاتحاد الأوروبي مارغريت فيستاجر لبي بي سي إن قدرة الذكاء الاصطناعي على تضخيم التحيز أو التمييز أصبحت مصدر قلق كبير وسببا ملحا لإيجاد حل.
وبالنسبة لـ فيستاجر فإن ما يقلقها على وجه الخصوص، هو الدور الذي يمكن أن يلعبه الذكاء الاصطناعي في اتخاذ قرارات تؤثر على سبل عيش الناس مثل طلبات القروض، مضيفة أن هناك “خطرا بالتأكيد” يتمثل في إمكانية استخدام الذكاء الاصطناعي للتأثيرعلى الانتخابات.
يقول آخرون، بمن فيهم رائدة التكنولوجيا مارثا لين فوكس، إنه لا ينبغي لنا أن نشعر بنوع من “الهستيريا والهلع” بشأن الذكاء الاصطناعي، كما أنها حثت على إجراء نقاشات أكثر منطقية حول قدرات الذكاء الاصطناعي.