جوجل تستنجد بموظفيها لتصويب إجابات روبوتها بارد | تكنولوجيا وسيارات



عمون – طلبت شركة جوجل من موظفيها مساعدتها على تدريب منتجها المنافس لروبوت الدردشة الذائع الصيت (شات جي بي تي) ChatGPT على تقديم إجابات صحيحة، وذلك بعد أن أدت الإجابات الخطأ إلى موجة انتقادات واسعة وخسارة 100 مليار دولار من قيمتها السوقية.

ويدرك المسؤولون التنفيذيون في عملاقة التقنية الأمريكية أن الروبوت الذكي (بارد) Bard ليس دقيقًا دائمًا في كيفية استجابته لطلبات البحث، والآن يبدو أنهم سيلقون ببعض العبء على عاتق الموظفين لإصلاح الإجابات الخطأ.

إذ طلب (برابهاكار راجافان)، نائب رئيس جوجل للبحث، من الموظفين برسالة بالبريد الإلكتروني يوم الأربعاء مساعدة الشركة على التأكد من أن (بارد) يقدم الإجابات الصحيحة، وشجّع الموظفين على إعادة كتابة الإجابات عن الموضوعات التي يفهمونها جيدًا.

وجاء في الوثيقة: «إن (بارد) يتعلم على نحو أفضل من خلال المثال، لذا فإن قضاء الوقت في إعادة كتابة رد مدروس سيقطع شوطًا طويلًا في مساعدتنا على تحسين الوضع».

وتُكرِّر تصريحات راجافان ما قاله أمس الأربعاء أيضًا الرئيس التنفيذي لشركة جوجل (سوندار بيتشاي)، الذي طلب من الموظفين قضاء ساعتين إلى أربع ساعات من وقتهم مع (بارد)، معترفًا بأن «هذه ستكون رحلة طويلة للجميع».

وقال راجافان: «إن هذه تقنية مثيرة لكنها لا تزال في أيامها الأولى. ونحن نشعر بمسؤولية كبيرة لتنفيذها على النحو الصحيح، وستساعد مشاركتك في التطبيق التجريبي في تسريع تدريب النموذج واختبار قدرته التحميلية».

وكانت جوجل قد أعلنت عن روبوت الدردشة الذكي (بارد) الأسبوع الماضي، ولكن سلسلة من الأخطاء التي ارتكبها الروبوت أدت إلى انخفاض سعر السهم للشركة بنسبة 9 في المئة تقريبًا. وانتقد الموظفون بيتشاي بسبب الحوادث المؤسفة، وفيما بينهم وصفوا إطلاق الروبوت بأنه «متسرع» و «فاشل» و «قصير النظر على نحو مثير للضحك».

ولمحاولة التخلص من الأخطاء التي يرتكبها الذكاء الاصطناعي، يعتمد قادة الشركة على المعرفة البشرية، وقد تضمنت الوثيقة التي أُرسلت إلى الموظفين قسم «افعل ولا تفعل»، حيث تقدم جوجل إرشادات لما يجب مراعاته قبل تدريب (بارد).

ففي قسم «افعل»، طلبت جوجل من الموظفين الحفاظ على الردود «مهذبة وعادية ومما يسهل التعامل معها»، كما طلبت أن تكون «بضمير المتكلم»، وأن تحافظ على «نبرة محايدة وغير متعنتة». أما في قسم «لا تفعل»، فقد نهت جوجل الموظفين عن التنميط السلبي، ووضع افتراضات على أساس العرق، أو الجنسية، أو الجنس، أو العمر، أو الميول الجنسية، أو الأيديولوجية السياسية، أو الموقع.

كما نهت جوجل الموظفين أيضًا عن وصف (بارد) بأنه شخص، وعن إبداء العاطفة، أو ادعاء أن لديه تجارب شبيهة بالبشر. وطلبت منهم إبداء عدم الإعجاب بالإجابات التي يقدمها الروبوت وتحوي «نصائح قانونية وطبية ومالية» أو بغيضة ومسيئة.

ولتحفيز الموظفين على المشاركة في تدريب (بارد) وتقديم الملاحظات، قالت راجافان إن المساهمين سيحصلون على (شارة موما) Moma Badge التي تظهر ملفات تعريف الموظفين الداخلية.

“البوابة العربية للاخبار التقنية “

الكاتب :
الموقع :www.ammonnews.net
نشر الخبر اول مرة بتاريخ : 2023-02-16 13:21:16

رابط الخبر
ادارة الموقع لا تتبنى وجهة نظر الكاتب او الخبر المنشور بل يقع على عاتق الناشر الاصلي

Recent Posts

تقرير يكشف أسرار الحرب: كيف استخدمت إسرائيل أمنها واستخباراتها ضد حزب الله؟

نشر موقع “الخنادق” المعنيّ بالدراسات الإستراتيجية والأمنية تقريراً جديداً تحدّث فيه عن الجوانب الأمنية والاستخباراتية…

يومين ago

فئة الـ 500 ألف ليرة قريبا في الأسواق

عاد الحديث مُجددا عن إمكانية طباعة أوراق نقدية من فئات جديدة بالليرة اللبنانية وذلك بعد…

أسبوعين ago

مجزرة المسعفين برفح.. الناجي الوحيد يروي ما شاهده من جريمة الاحتلال

أكد مسعف فلسطيني كان موجودًا في واقعة استشهد فيها 15 من زملائه في جنوب غزة…

أسبوعين ago

الحرارة تتخطى الـ32 درجة الثلاثاء!… فكيف سيكون طقس الأيام المقبلة؟

طقس ربيعي مستقر نسبياً يسيطر على لبنان والحوض الشرقي للمتوسط حتى اليوم الأحد حيث تتأثر…

أسبوعين ago

3 جرحى بخلاف فردي في الشرحبيل

أفادت "الوكالة الوطنية للاعلام"  أن خلافا فرديا في منطقة الشرحبيل بين عدد من الاشخاص، استخدمت…

أسبوعين ago

لبنانيّون يتلقّون رسائل مزيّفة لإعانات مالية بالدولار… والأمن العام يُحذّر! (صورة)

أعلنت المديرية العامة للامن العام اللبناني، أنّه "تبيّن أخيراً أن عدداً كبيراً من المواطنين تلقّى…

3 أسابيع ago