رئيس التحرير
حسام حسين لبش

رئيس التحرير: حسام حسين لبش

مدير التحرير: علي عجمي

ذات صلة

متفرقات

أسرار العناية بالبشرة خلال السفر الطويل

أهمية التحضير المسبق للبشرة قبل السفر خلال الرحلات الطويلة، تتعرض...

الأمراض النادرة: قصص واقعية وأحدث ما توصل إليه الطب

فهم الأمراض النادرة وتأثيرها على الحياة اليومية تُعتبر الأمراض النادرة...

كيف تعكس تفاصيل الإكسسوارات أسلوب حياتك وشخصيتك

الإكسسوارات كمرآة تعكس شخصيتك تلعب الإكسسوارات دورًا أصيلًا في صياغة...

كيف أثرت التكنولوجيا القابلة للارتداء على أداء اللاعبين المحترفين

التكنولوجيا القابلة للارتداء: ثورة في عالم الرياضة الاحترافية في السنوات...

أحدث تقنيات علاج السمنة: بين الجراحة والبدائل الطبيعية

مقدمة عن السمنة وأهمية علاجها تُعتبر السمنة من أبرز المشاكل...

هل تستخدم جوجل نموذج Claude بشكل غير مصرح به في تطوير Gemini؟ تساؤلات حول أخلاقيات الذكاء الاصطناعي

متابعة بتول ضوا

أثارت تقارير حديثة تساؤلات حول الأساليب التي تتبعها جوجل في تطوير نموذجها اللغوي الكبير Gemini، حيث تشير بعض المصادر إلى احتمالية استخدامها نموذج Claude التابع لشركة Anthropic بشكل غير مصرح به، مما يطرح تساؤلات حول أخلاقيات استخدام نماذج الذكاء الاصطناعي وتطويرها. في هذا المقال، سنستعرض تفاصيل هذه التقارير وما تثيره من مخاوف.

ما هي الادعاءات المطروحة؟

تفيد التقارير بأن المتعاقدين العاملين على تطوير Gemini يقارنون استجاباته باستجابات نموذج Claude. في بعض الحالات، رفض Claude الاستجابة لطلبات معينة اعتبرها غير آمنة أو تجنب الإجابة عليها، بينما صُنفت استجابات Gemini في نفس الحالات على أنها “انتهاك كبير للسلامة”. هذا التشابه في تقييم السلامة بين النموذجين، بالإضافة إلى استخدام استجابات Claude كمرجع، أثار الشكوك حول ما إذا كانت جوجل تستخدم Claude بطريقة ما في عملية تطوير Gemini.

لماذا يُعتبر هذا الأمر مُشكلاً؟

إذا ثبت صحة هذه الادعاءات، فإن استخدام جوجل لنموذج Claude دون إذن من Anthropic يُعتبر انتهاكًا محتملاً لحقوق الملكية الفكرية. بالإضافة إلى ذلك، يثير هذا الأمر تساؤلات حول أخلاقيات تطوير الذكاء الاصطناعي بشكل عام، حيث يجب أن يكون هناك شفافية واحترام لحقوق الشركات الأخرى في هذا المجال.

مخاوف تتعلق بسلامة الذكاء الاصطناعي:

تُركز إحدى المخاوف الرئيسية على مسألة “السلامة” في نماذج الذكاء الاصطناعي. إذا كان Gemini يُنتج استجابات تُصنف على أنها “انتهاك كبير للسلامة” بينما يتجنبها Claude، فهذا يُشير إلى اختلاف في معايير السلامة المُطبقة في النموذجين. يُثير هذا الأمر قلقًا بشأن إمكانية استخدام Gemini في إنتاج محتوى ضار أو مُضلل.

ردود الفعل والتداعيات المحتملة:

حتى الآن، لم تصدر أي بيانات رسمية من جوجل أو Anthropic بشأن هذه الادعاءات. في حال ثبوت صحتها، قد تواجه جوجل تبعات قانونية وإعلامية. بالإضافة إلى ذلك، قد يُؤثر ذلك على ثقة المستخدمين في منتجات جوجل التي تعتمد على الذكاء الاصطناعي.

ما الذي نعرفه عن Gemini حتى الآن؟

يُعتبر Gemini نموذجًا لغويًا كبيرًا متعدد الوسائط، أي أنه قادر على فهم ومعالجة أنواع مختلفة من البيانات، مثل النصوص والصور والفيديوهات. تسعى جوجل من خلال Gemini إلى تطوير قدرات البحث وتقديم تجربة مستخدم أكثر تفاعلية وذكاءً. وقد بدأت جوجل بالفعل في دمج قدرات Gemini في بعض منتجاتها، مثل تحسين الإعلانات المتجاوبة على شبكة البحث.

 

شارك الخبر
تابعونا علي مواقع التواصل الاجتماعي