أخبار شات بوتأمثلة وتجارب

“Tay” الـ شات بوت Chat bot يأتي بتهديد قضائي على Microsoft من Taylor Swift

بداية الأزمة

حاولت المغنية الأمريكية تايلور سويفت Taylor Swift منع شركة مايكروسوفت
من استخدام لقب ” Tay ” في اسم الـ شات بوت Chat bot الخاص بهم والذي تحول إلى وعاء قذف عنصري فاسد، وفقًا لكتاب جديد أصدره رئيس مايكروسوفت براد سميث.

في مارس 2016، قدمت Microsoft Chat bot جديدًا في الولايات المتحدة
تم تصميمه للتحدث مع الشباب والمراهقين على وسائل التواصل الاجتماعي.

إقرأ أيضًا: Donald أول Tourist Chatbot من جزيرة سكاي بأسكتلندا

ما هو شات بوت Tay Chat bot

وفقًا لكتاب سميث “Tools and Weapons”، الذي شارك في كتابته كارول آن براون، مديرة الاتصالات في شركة Microsoft، قدمت الشركة في الأصل الـ شات بوت باسم XiaoIce في سوق الصين، حيث تم استخدامه من قبل الملايين وتم دمجه
في منصات الخدمات المصرفية والأخبار والترفيه.

“يبدو أن Chat bot قد ملأ حاجة اجتماعية في الصين ، حيث يقضي المستخدمون ما بين
خمسة عشر وعشرين دقيقة في التحدث مع XiaoIce حول يومهم ومشاكلهم وآمالهم وأحلامهم” ، كتب سميث وبراون. “ربما تلبي حاجة في مجتمع لا يوجد فيه إخوة أطفال؟”

ومع ذلك، عندما قررت Microsoft تجربتها في أمريكا ، لم يكن الـ شات بوت المستند
إلى الذكاء الاصطناعي AI، والذي يطلق عليه ” Tay ” ناجحًا.

تم بناء الروبوت لمعرفة كيفية التحدث من خلال التفاعل مع الآخرين على Twitter،
ونشر ردودًا على التغريدات استنادًا إلى ما يقوله الناس له.

وضع الـ شات بوت Chat bot على Twitter

يعرف أي شخص قضى أي وقت على Twitter أن هذه تجربة محكوم عليها بالفشل.
من المؤكد أن المتصيدون على تويتر أفسدوا ” Tay ” في أقل من 24 ساعة بعد إصداره.

فكما كتبت The Verge في ذلك الوقت ، ” Twitter قام بتعليم ” Tay ” أن يكون عنصريًا في أقل من يوم واحد.”

شات بوت
ردود TAY خلال 24 ساعة

إقرأ أيضًا: فيسبوك يوقف الـ Chat bot الخاص بحملة نتنياهو الانتخابية

Microsoft فشلت توقع عنصرية وسامية الأمريكيين على الرغم أن ” Tay ” كان ناجحا جدا في الصين وذو منفعة للمجتمع هناك.

أغلقت مايكروسوفت ” Tay ” على الفور. في اليوم التالي ، نشرت الشركة مدونة تعتذر عن سلوك ” Tay ” غير الصحيح.
وصرحوا:

“نحن نشعر بالأسف العميق للتغريدات الهجومية غير المؤذية من ” Tay ” ، والتي لا تمثل من نحن وماذا
نمثل ، ولا كيف صممنا Tay ”

لم يزعج الحساب الأشخاص الذين تعرضوا للإساءة من الـ شات بوت العنصري، بل يبدو
أنه أزعج Taylor Swift أيضًا. كما يذكر سميث في كتابه:

كنت في إجازة عندما أخطأت في النظر إلى هاتفي أثناء العشاء. وصل بريد إلكتروني لتوه من محامٍ
في بيفرلي هيلز قدم نفسه بقوله لي : “نحن نمثل تايلور سويفت” … ومضى يقول “اسم” Tay ” ” أنا متأكد من أنك يجب أن تعرف أن هذا الاسم يرتبط ارتباطًا وثيقًا بعميلنا. “… استمر المحامي في القول بأن استخدام
الاسم “Tay” خلق ارتباطًا خاطئًا ومضللًا بين المغني الشعبي والـ Chat bot العنصري
الخاص بكم ، وأنه ينتهك القوانين الفيدرالية وقوانين الولايات.

رد فعل Microsoft على موقف Tay Chat bot

يضيف سميث أن محامين العلامة التجارية Microsoft يختلفون، لكن Microsoft لم تكن مهتمة بمحاربة Swift قضائيًا، لذلك بدأت الشركة على الفور في مناقشة اسم جديد.
أخذ الحادث كمثال جدير بالملاحظة حول “الممارسات الثقافية المختلفة”
في الولايات المتحدة والصين.

إقرأ أيضًا: الشات بوتس Chatbots وفكرتها عن الإنسان ” طريفة أم مرعبة “

في عام 2018 ، أعيد تشغيل الروبوت باسم Zo ، وهي نسخة من Tay تم تدريبها
على التواصل مع المراهقين ولكن تمت برمجتها أيضًا لتجنب التحدث عن السياسة والعرق والدين. إذا لم تكن قد سمعت عن Zo، فذلك لأن Zo ممل.

يبدو أنهم غيروا الاسم ولكن في الواقع جعلوا الـ Bot مثل Taylor Swift.
رفضت Microsoft التعليق أكثر على هذه القصة.
لم ترد سويفت على طلبها للتعليق على هذا الموضوع.

المصدر

الوسوم
اظهر المزيد

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى
إغلاق