اجتماعي

مايكروسوفت تزيل برنامج الدردشة الآلي 'تاي' بعد تصريحات عنصرية

كلما تحدثت مع Tay ، أصبحت أكثر ذكاءً ، لذلك يمكن أن تكون التجربة أكثر تخصيصًا لك

ينتهي روبوت الدردشة Microsoft Tay AI بطمس عنصري بعد التفكير في الأشياء التي قيلت عبر الإنترنت (المصدر: TayTweets / Twitter)ينتهي روبوت الدردشة Microsoft Tay AI بطمس عنصري بعد التفكير في الأشياء التي قيلت عبر الإنترنت (المصدر: TayTweets / Twitter)

يا إلهي! هل سمعت عن برنامج الذكاء الاصطناعي الذي صممته مايكروسوفت للدردشة كفتاة مراهقة؟ لقد تم انتزاعها تمامًا من الإنترنت في أقل من يوم بعد أن بدأت في إلقاء تصريحات عنصرية ومتحيزة جنسيًا ومهينة.

وقالت مايكروسوفت إن ذلك كله كان خطأ بعض الأشخاص الذين يقصدون حقًا ، والذين أطلقوا جهدًا منسقًا لجعل برنامج الدردشة الآلي المعروف باسم Tay يستجيب بطرق غير مناسبة. رد عليه أحد خبراء الذكاء الاصطناعي: دوه!

حسنًا ، لم يقل ذلك حقًا. لكن عالم الكمبيوتر كريس هاموند قال ، لا أصدق أنهم لم يتوقعوا ذلك.



قالت Microsoft إن باحثيها ابتكروا Tay كتجربة لمعرفة المزيد عن أجهزة الكمبيوتر والمحادثات البشرية. قالت الشركة على موقعها على الإنترنت إن البرنامج كان يستهدف جمهورًا من 18 إلى 24 عامًا وكان مصممًا لإشراك الأشخاص وترفيههم حيث يتواصلون مع بعضهم البعض عبر الإنترنت من خلال محادثة غير رسمية ومرحة.

بعبارة أخرى ، استخدم البرنامج الكثير من الكلمات العامية وحاول تقديم ردود فكاهية عندما يرسل الأشخاص رسائل وصورًا إليه. بدأ برنامج الدردشة الآلي يوم الأربعاء ، ودعت Microsoft الجمهور للدردشة مع Tay على Twitter وبعض خدمات المراسلة الأخرى الشائعة لدى المراهقين والشباب.

قالت الشركة إنه كلما تحدثت مع Tay ، أصبحت أكثر ذكاءً ، وبالتالي يمكن أن تكون التجربة أكثر تخصيصًا لك.

لكن وجد بعض المستخدمين ردود تاي غريبة ، ووجد آخرون أنه ليس من الصعب دفع تاي إلى الإدلاء بتعليقات مسيئة ، على ما يبدو مدفوعة بأسئلة أو تصريحات متكررة تحتوي على كلمات مسيئة. سرعان ما كان تاي يُشير إلى هتلر بتعاطف - ويخلق ضجة على وسائل التواصل الاجتماعي.

لسوء الحظ ، في غضون الـ 24 ساعة الأولى من الاتصال بالإنترنت ، أصبحنا على دراية بجهود منسقة من قبل بعض المستخدمين لإساءة استخدام مهارات التعليق لدى Tay حتى يستجيب Tay بطرق غير مناسبة ، كما قالت Microsoft في بيان.

بينما لم تقدم الشركة مزيدًا من التفاصيل ، يقول هاموند إنه يبدو أن Microsoft لم تبذل أي جهد لإعداد تاي بالردود المناسبة على كلمات أو مواضيع معينة. وأضاف هاموند ، الذي يدرس الذكاء الاصطناعي في جامعة نورث وسترن ويعمل أيضًا رئيسًا للعلماء في شركة Narrative Science ، وهي شركة تطور برامج الكمبيوتر التي تحول البيانات إلى تقارير سردية ، أن Tay يبدو أنه نسخة من تقنية الاتصال والاستجابة.

قال هاموند إن الجميع يواصل القول إن تاي تعلم هذا أو أنه أصبح عنصريًا. لم تفعل. وقال إن البرنامج يعكس على الأرجح أشياء قيل لها ، ربما أكثر من مرة ، من قبل أشخاص قرروا رؤية ما سيحدث.

تكمن المشكلة في أن Microsoft قد أفسدت موقع Tay عبر الإنترنت ، حيث يعتبر الكثير من الناس أنه من الممتع إثارة الأمور - أو ما هو أسوأ. قالت كارولين سيندرز ، الخبيرة في تحليلات المحادثة التي تعمل على روبوتات الدردشة لشركة تقنية أخرى ، إنه كان يجب على الشركة أن تدرك أن الناس سيحاولون مجموعة متنوعة من المناورات التخاطبية مع تاي. (طلبت عدم تحديدها لأنها لم تكن تتحدث بصفة رسمية). ووصفت تاي بأنه مثال على التصميم السيئ.

وأضاف سيندرز أنه بدلاً من وضع بعض الإرشادات حول كيفية تعامل البرنامج مع الموضوعات المثيرة للجدل ، يبدو أن تاي قد تُرك في الغالب ليتعلم مما قيل.

قال Sinders هذا مثال جيد حقًا للتعلم الآلي. إنه التعلم من المدخلات. هذا يعني أنه يحتاج إلى صيانة مستمرة.

قالت Sinders إنها تأمل في أن تطلق Microsoft البرنامج مرة أخرى ، ولكن فقط بعد القيام ببعض الأعمال عليه أولاً.

قالت Microsoft إنها تجري تعديلات على Tay ، لكن لم تكن هناك معلومات عن موعد عودة Tay. تم حذف معظم الرسائل على حسابها على Twitter بعد ظهر يوم الخميس.

ج ش ش قريبا البشر بحاجة إلى النوم الآن الكثير من المحادثات اليوم تشك ، قال آخر ما تبقى من وظيفة.