نقدم لكم زوارنا الكرام أهم وآخر المستجدات كما وردت في المقال التالي: الذكاء الاصطناعي قد يفتح الباب لـ "اقتصاد النية" وتوجيه القرارات البشرية - جورنالك اليوم الأربعاء 1 يناير 2025 01:50 صباحاً
كشفت دراسة أجراها باحثون في جامعة كامبريدج عن ظهور سوق جديد يُعرف بـ"اقتصاد النية"، حيث يمكن استخدام أدوات الذكاء الاصطناعي ليس فقط لفهم النوايا البشرية، ولكن أيضاً للتلاعب بها وبيعها للشركات. وأوضحت الدراسة، التي نُشرت في الغارديان، أن المساعدين الرقميين بالذكاء الاصطناعي قد يصبحون قادرين على توقع وتوجيه نوايا المستخدمين، بدءاً من قرارات الشراء وحتى التصويت في الانتخابات.
من اقتصاد الانتباه إلى اقتصاد النية
يشير الباحثون إلى أن اقتصاد النية يمثل امتداداً لاقتصاد الانتباه، الذي اعتمدت فيه الشبكات الاجتماعية على جذب انتباه المستخدمين لتقديم الإعلانات. لكن اقتصاد النية يعتمد على بيع المعرفة المتعلقة بدوافع الأفراد وخططهم المستقبلية، مثل الإقامة في فندق أو دعم مرشح سياسي، إلى أعلى مزايد.
وحذر الدكتور جوني بين، مؤرخ التكنولوجيا في مركز ليفرهولم للذكاء المستقبلي، من أن هذا السوق غير المنظم قد يؤدي إلى عواقب خطيرة مثل التأثير على الانتخابات الحرة، الصحافة المستقلة، والتنافس العادل في السوق. وصرح: "إذا لم يتم تنظيم هذا السوق، فقد تُعامل دوافعنا كعملة جديدة، مما يهدد التطلعات الإنسانية الأساسية".
كيف يعمل اقتصاد النية؟
توضح الدراسة أن نماذج اللغة الكبيرة (LLMs)، مثل ChatGPT، يمكن أن تُستخدم لاستنتاج النوايا البشرية وتوجيهها بناءً على البيانات السلوكية والنفسية. يمكن لهذه النماذج تقديم اقتراحات مخصصة، مثل حجز فيلم بناءً على حالة المستخدم النفسية، باستخدام تقنيات منخفضة التكلفة تعتمد على أنماط سلوكية وملفات شخصية.
سيناريوهات محتملة
تشير الدراسة إلى إمكانية استخدام الذكاء الاصطناعي لتوجيه المحادثات بما يخدم المعلنين والشركات. واستشهدت بمثال نموذج "شيشرون" من شركة ميتا، الذي يمتلك قدرة "على المستوى البشري" لاستنتاج النوايا أثناء لعب لعبة الطاولة الدبلوماسية. كما أظهرت الأبحاث أن هذه النماذج يمكنها استنتاج معلومات شخصية من التفاعلات اليومية وحتى تعديل مخرجاتها للحصول على مزيد من البيانات.
تُبرز الدراسة الحاجة إلى تنظيم سريع لهذا السوق الناشئ لضمان حماية خصوصية الأفراد ومنع استغلال التكنولوجيا بطرق تقوض المبادئ الأساسية للحرية والمساواة.
0 تعليق