الذكاء الاصطناعي على وشك الحصول على أكبر ترقية له حتى الآن: الذكاء العاطفي
لقد وصل فجر الوكلاء ذوي الذكاء العاطفي—المصممين لكل من المزاج الثابت والتفاعل الديناميكي—إذا كان يمكن الحكم من خلال ورقتين بحثيتين غير مرتبطتين تم نشرهما الأسبوع الماضي.
التوقيت حساس. تقريبًا بشكل يومي، توثق التقارير الإخبارية حالات قامت فيها روبوتات الدردشة بدفع مستخدمين غير مستقرين عاطفيًا نحو إيذاء أنفسهم أو الآخرين. ومع ذلك، تشير الدراسات ككل إلى أن الذكاء الاصطناعي ينتقل إلى مجال يمكن فيه للشخصية والمشاعر أن تشكل بشكل أكثر جذرية طريقة تفكير الوكلاء وحديثهم وتفاوضهم.
أظهر فريق واحد كيف يمكن تهيئة نماذج اللغة الكبيرة بأنماط نفسية دائمة، بينما أظهر الفريق الآخر أن الوكلاء يمكنهم تطوير استراتيجيات عاطفية أثناء المفاوضات متعددة الأدوار.
لم تعد الشخصية والعاطفة مجرد تلميع سطحي للذكاء الاصطناعي—بل أصبحت ميزات وظيفية. المزاجات الثابتة تجعل الوكلاء أكثر قابلية للتنبؤ وأكثر جدارة بالثقة، بينما تعزز الاستراتيجيات التكيفية الأداء في المفاوضات وتجعل التفاعلات تبدو بشرية بشكل غريب.
لكن هذه المصداقية نفسها تثير أسئلة شائكة: إذا كان بإمكان الذكاء الاصطناعي أن يمدح أو يساوم أو يجادل بدقة عاطفية، فمن المسؤول عندما تتجاوز هذه الأساليب حدود التلاعب، وكيف يمكنك حتى تدقيق "التوافق العاطفي" في الأنظمة المصممة للتلاعب بالمشاعر بالإضافة إلى المنطق؟
إعطاء الذكاء الاصطناعي شخصية
في ورقة Psychologically Enhanced AI Agents، اقترح Maciej Besta من المعهد الفدرالي السويسري للتكنولوجيا في زيورخ وزملاؤه إطار عمل يسمى MBTI-in-Thoughts. بدلاً من إعادة تدريب النماذج، يعتمدون على هندسة المطالبات لتثبيت سمات الشخصية على محوري الإدراك والتأثير.
كتب المؤلفون: "استنادًا إلى مؤشر نوع مايرز-بريغز (MBTI)، تهيئ طريقتنا الوكلاء بأنماط شخصية مميزة من خلال هندسة المطالبات". وأضافوا أن هذا يسمح "بالتحكم في السلوك على محورين أساسيين من علم النفس البشري، الإدراك والتأثير".
اختبر الباحثون ذلك من خلال تعيين سمات مثل "معبر عاطفيًا" أو "مهيأ تحليليًا" لنماذج اللغة، ثم قياس الأداء. تفوق الوكلاء المعبرون في توليد السرد؛ بينما تفوق التحليليون في التفكير النظري للألعاب. ولضمان ثبات الشخصيات، استخدم الفريق اختبار 16Personalities للتحقق.
توضح الورقة: "لضمان استمرارية السمة، ندمج اختبار 16Personalities الرسمي للتحقق التلقائي". بعبارة أخرى: كان على الذكاء الاصطناعي اجتياز اختبار شخصية بشري باستمرار قبل اعتباره مهيأ نفسيًا.
والنتيجة هي نظام يمكن للمطورين من خلاله استدعاء وكلاء بشخصيات متسقة—مساعد متعاطف، مفاوض عقلاني بارد، راوٍ درامي—دون تعديل النموذج الأساسي.
تعليم الذكاء الاصطناعي الشعور في الوقت الحقيقي
في المقابل، تتناول ورقة EvoEmo: Evolved Emotional Policies for LLM Agents in Multi-Turn Negotiation، التي كتبها Yunbo Long وزملاؤه من جامعة كامبريدج، المشكلة المعاكسة: ليس فقط ما هي شخصية الوكيل، بل كيف يمكنه تغيير المشاعر ديناميكيًا أثناء التفاوض.
يقوم النظام بنمذجة المشاعر كجزء من عملية اتخاذ القرار ماركوف، وهو إطار رياضي تعتمد فيه النتائج ليس فقط على الخيارات الحالية ولكن على سلسلة من الحالات السابقة والتحولات الاحتمالية. ثم يستخدم EvoEmo التعلم التعزيزي التطوري لتحسين تلك المسارات العاطفية. كما أوضح المؤلفون:
"يقوم EvoEmo بنمذجة انتقالات الحالة العاطفية كعملية اتخاذ قرار ماركوف ويستخدم التحسين الوراثي القائم على السكان لتطوير سياسات عاطفية عالية المكافأة عبر سيناريوهات تفاوض متنوعة."
بدلاً من تثبيت نبرة الوكيل العاطفية، يسمح EvoEmo للنموذج بالتكيف—ليصبح تصالحيًا أو حازمًا أو متشككًا حسب تدفق الحوار. في الاختبارات، تفوق وكلاء EvoEmo باستمرار على كل من الوكلاء الأساسيين العاديين وأولئك ذوي المشاعر الثابتة.
تشير الورقة إلى أن "EvoEmo يتفوق باستمرار على كلا الأساسين، محققًا معدلات نجاح أعلى، وكفاءة أكبر، ومزيدًا من التوفير للمشترين."
ببساطة: الذكاء العاطفي ليس مجرد تزيين. إنه يحسن النتائج بشكل ملموس في مهام مثل المساومة.
وجهان لعملة واحدة
للوهلة الأولى، تبدو الورقتان غير مرتبطتين. إحداهما عن الأنماط، والأخرى عن الاستراتيجيات. لكن عند قراءتهما معًا، ترسمان خريطة من جزئين لكيف يمكن أن يتطور الذكاء الاصطناعي:
يضمن MBTI-in-Thoughts أن يكون لدى الوكيل شخصية متماسكة—متعاطف أو عقلاني، معبر أو متحفظ. يضمن EvoEmo أن هذه الشخصية يمكن أن تتكيف عبر أدوار المحادثة، لتشكيل النتائج من خلال الاستراتيجية العاطفية. الاستفادة من كليهما أمر بالغ الأهمية.
على سبيل المثال، تخيل روبوت خدمة عملاء لديه دفء المستشار الصبور ولا يزال يعرف متى يتمسك بالسياسة—أو روبوت تفاوض يبدأ تصالحيًا ويصبح أكثر حزمًا مع تصاعد الرهانات. نعم، نحن في ورطة.
كانت قصة تطور الذكاء الاصطناعي تدور في الغالب حول الحجم—المزيد من المعلمات، المزيد من البيانات، المزيد من قوة التفكير. تشير هاتان الورقتان إلى أن الفصل الناشئ قد يكون عن الطبقات العاطفية: إعطاء الوكلاء هياكل شخصية وتعليمهم تحريك تلك العضلات في الوقت الفعلي. روبوتات الدردشة من الجيل القادم لن تفكر فقط بشكل أعمق—بل ستتذمر وتثني وتخطط بشكل أعمق أيضًا.
إخلاء المسؤولية: يعكس محتوى هذه المقالة رأي المؤلف فقط ولا يمثل المنصة بأي صفة. لا يُقصد من هذه المقالة أن تكون بمثابة مرجع لاتخاذ قرارات الاستثمار.
You may also like
تيثر تكشف عن USAT بموجب قانون GENIUS وتعيّن Bo Hines كرئيس تنفيذي
وزارة العدل تصادر 584,000 USDT مرتبطة بمورد طائرات بدون طيار إيراني
تيثر تكشف عن عملة مستقرة USAT للسوق الأمريكية تحت إشراف المسؤول السابق عن العملات الرقمية في البيت الأبيض بو هاينز
أطلقت Tether عملة مستقرة جديدة باسم USAT، متوافقة مع القوانين الأمريكية وتحت قيادة Bo Hines، وتهدف إلى تعزيز مكانة أمريكا في الاقتصاد الرقمي العالمي.
تتطور العملات المستقرة من أدوات تداول إلى ركائز مالية عالمية

Trending news
المزيدأسعار العملات المشفرة
المزيد








