ساعة تخبرك بمشاعر المتكلم باستخدام الذكاء الاصطناعي

يمكن للعقل البشري ان يقون بترجمة المشاعر المصاحبة للمحادثة بأكثر من طريقة وهذا ما يدفع بعض الناس الى التخلي عن المحادثات المباشرة مع الناس حتى لا يخطئ الحديث أو تتم السخرية منه من عدم القدرة على التفاهم. لكن ماذا لو كانت هناك وسيلة مساعدة في التبؤ بالمشاعر في المحادثة والاسهام في حديث أكثر فاعلية؟؟


مجموعة من الباحثين العاملين في MIT من قسمي علوم الحاسب والذكاء الاصطناعي والهندسة والعلوم الطبية عملا معا لانتاج نظام يعمل بالذكاء الاصطناعي يمكنه تقييم الموقف في المحادثة بين الطرفين من الحزن او الفرح او الحيادية
سيقام الاسبوع المقبل مؤتمر لابحاث الذكاء الاصطناعي في سان فرانسيسكو وسيقوم مح غاسيمي وتوكا الحاناي بتقديم هذا الاختراع ضمن رسالة الدكتوراة الخاصة بهم.
يقول فريق العمل عم الساعة أنها قادرة على تسجيل بيانات المحادثة وايضاح احصاءات تخص كل المشاعر الي تضمنتها المحادثة في كل لحظة. هذا الاختراع يعتبر خطوة على طريق ادخال الذكاء الاصطناعي في تطبيقات اجتماعية ولكنها ليست جاهزة بعد للانغماس في استخدامات العملاء في المجتمع.
يقوم النظام بتحليل نبرة الصوت والكلمات النصية والعلامات الجسدية  للحصول على ادق تحليل ممكن للمشاعر في كل لحظة بدقة تبلغ 83% يمكن أيضًا لنظام التعلم العميق أو deep learning أن يقوم بتحليل كل 5 ثواني من المحادثة كوحدة واحدة
يعتمد هذا النظام على مبدأ التعلم العميق او deep learning مما يجعل أداء النظام يتحسن كلما استخدمه العديد من الناس بحيث يكتسب النظام العديد من الخبرات التي ترفع من كفاءته ويطمئن فريق الباحثين أنهم قاموا بحفظ كل عوامل الأمان الخاصة بالمستخدم بحيث يعمل النظام على الجهاز محليا دون الحاجة الى استخدام بيانات عبر الانترنت مما يضمن خصوصية المستخدمين
كيف يعمل

جميع الدراسات التي قامت على دراسة تعابير وعواطف السعادة والحزن كانت تعتمد على عرض مواقف حزينة وسعيدة على المشاركين في التجربة واستخلاص الفيديو الخاص بتعابير وجوههم أو مناطق المخ التي تعبر عنهم في هذه اللحظة لكن فريق العمل هنا اعتمد أسلوب معاكس بحيث قام المشاركين في التجربة بسرد قصص تعبر عن فرحهم وحزنهم مما أتاح للنظام تجميع أكبر قدر من المشاعر المختلفة من الصوت والصورة و النصوص المكتوبة
قام المشاركين في التجربة بارتداء جهاز من صنع سامسونجsamsung simband يمكنه تجميع معلومات جسدية عالية الدقية لتجميع ردود فعلهم مثل درجة حرارة الجلد، معدل تدفق الدم، معدل ضربات القلب، ضغط الدم والحركات التي يقوم بها الجسم أثناء الحديث كما يقوم أيضا بتحليل نبرة الصوت وتحليل الكلمات المكتوبة


اعتمد الباحثون في الدراسة على استخدام أجهزة في سوق الالكترونيات وليست أجهزة معملية معقدة لايضاح قرب النظام الذي يعملون عليه من الاستخدام في المجتمع مع العملاء العاديين غير المتخصصين أو الباحثين في مجال الذكاء الاصطناعي. الجدير بالذكر ان رئيس الباحثين في هذا الاختراع متفائل بأن تكون هذه الدراسة خطوة في تطوير المشاعر لدى الآلات أيضا.
تم اجراء التجارب وجمع البيانات عبر 31 متطوع بعدها قام المهندسون بالعمل على خوارزميتين؛ أحدهما يعمل على تحليل نبرة الصوت بحيث يحدد ما بين السعادة والحزن والآخر يعمل على تحليل كل 5 ثواني من المحادثة كوحدة واحدة وتقييمها من حيث مشاعر سلبية، إيجابية أول محايدة.

أنظمة الذكاء الاصطناعي لكي تعمل بكفاءة يجب أن يتم ادخال الصفات والعوامل التي ستقوم بالبحث عنها داخل النظام بين المدخلات لذلك قام الباحثون في هذه الدراسة بتطوير الخصائص أو الصفات التي يجب ادخالها  لىفع الكفاءة وهذا ما كان يعمل عليه قسم الهندسة الطبية في جمع أهم الصفات التي تعبر عن كل حالة

Advertisements

النتائج

تم اختبار النظام على المشاعر الواضحة وجاءت النتائج دقيقة إلى حد كبير في توقع المشاعر التي تخرجها نبرات الأصوات وقد تم اعتبار فترات الصمت الطويلة لتعبر عن الحزن في حين يعبر الحديث الملئ بالطاقة والكلمات من اللحظات السعيدة. أما بالنسبة للحركات الجسدية فيعتبر التململ ونشاط القلب من علامات الحزن.

يقوم النظام بتحليل المشاعر كل 5 ثواني بدقة أعلى بنسبة 7.5% عن كل الأنظمة المشابهة له هذه الأيام

ومع ذلك يقول فريق العمل أن النظام لا يعمل بالكفاءة اللازمة التي تمكنه من التعامل في الواقع ولا يمكن تحويله إلى منتج فعلي في الوقت الحالي بل يحتاج إلى المزيد من العمل والتحسينات

Advertisements