رئيس التحرير
حسام حسين لبش

رئيس التحرير: حسام حسين لبش

مدير التحرير: علي عجمي

ذات صلة

متفرقات

رئيس الدولة يعتمد تعيين مجلس إدارة شركة”XRG”

متابعة - نغم حسن اعتمد صاحب السمو الشيخ محمد بن...

زيت الثوم السر الطبيعي للشعر الكثيف والجذاب

متابعة- يوسف اسماعيل إن زيت الثوم هو واحد من أهم...

الأردن: نتائج فحص الحمض النووي تنفي صلة المفرج عنه من سوريا بعائلة البطاينة

أعلن نضال البطاينة، الوزير السابق وأحد وجهاء عشيرة البطاينة...

تعرف إلى أبرز طرق خفض الوزن

أهمية تقليل الوزن وتحقيق نمط حياة صحي يعاني العديد من...

جوجل تطلق PaliGemma 2: قراءة المشاعر بالذكاء الاصطناعي.. خطوة جريئة أم تهديد أخلاقي؟”

متابعة بتول ضوا

شهد عالم التكنولوجيا تطوراً ملحوظاً مع إطلاق جوجل لنموذج الذكاء الاصطناعي الجديد PaliGemma 2، والذي يزعم قدرته على “قراءة المشاعر” وتحليل العواطف من خلال صور الوجه. هذه التقنية المثيرة للجدل تفتح آفاقاً جديدة للاستخدامات المحتملة، ولكنها تثير في الوقت نفسه تساؤلات حول الأخلاقيات والمخاطر المحتملة.

PaliGemma 2: رؤية جديدة للعواطف

يعد PaliGemma 2 قفزة نوعية في مجال التعرف على الصور، حيث يتجاوز مجرد وصف الأشياء إلى تحليل المشاعر والسياق العام. يعتمد النموذج على تقنيات التعلم العميق لتحليل ملامح الوجه ولغة الجسد، ومن ثم استنتاج المشاعر التي يعبر عنها الشخص

الجدل حول دقة وموضوعية النموذج

على الرغم من الإمكانات الهائلة التي يقدمها PaliGemma 2، إلا أنه يواجه انتقادات واسعة من الخبراء. فبينما تدعي جوجل أن النموذج تم تدريبه على مجموعة بيانات ضخمة لضمان دقته، إلا أن العديد من الدراسات السابقة أظهرت أن نماذج التعرف على المشاعر قد تكون متحيزة وغير موثوقة.

تعتمد هذه النماذج على فرضية بول إيكمان حول المشاعر الأساسية، والتي تم التشكيك فيها على نطاق واسع. فالمشاعر هي تجارب معقدة تتأثر بالثقافة والسياق الاجتماعي، ولا يمكن اختزالها في مجموعة محددة من التعبيرات الوجهية.

مخاطر محتملة واستخدامات حساسة

تثير هذه التقنية مخاوف بشأن استخدامها في سياقات حساسة مثل التوظيف وإنفاذ القانون. فإذا تم الاعتماد على هذه النماذج لاتخاذ قرارات مهمة مثل قبول الموظفين أو الحكم على المشتبه بهم، فإن ذلك قد يؤدي إلى تمييز غير عادل ضد فئات معينة.

ضرورة الحذر والتنظيم

أمام هذه التطورات، يجب أن نتعامل مع الذكاء الاصطناعي بحذر وتبصر. يجب على الشركات والمؤسسات الحكومية وضع ضوابط وتشريعات صارمة لضمان استخدام هذه التقنيات بشكل مسؤول وأخلاقي. كما يجب على الباحثين والمطورين بذل جهود أكبر لفهم حدود هذه التقنيات والتأكد من أنها لا تستخدم لتعزيز التحيزات الاجتماعية.

 

تابعونا علي مواقع التواصل الاجتماعي