أسبوعٌ آخر، وإصدارٌ جديدٌ من برنامج ماجستير الحقوق. فماذا تُخبئ لنا ميتا هذه المرة؟

هذا البرنامج مختلف - ليس لأنه يُرمِّز بشكل أفضل أو يتذكر اسم كلبك من خمسة أسئلة سابقة (مع أنه على الأرجح يفعل). لا، بل إن الضجة حول Llama 4 تدور حول كيفية تعامله مع الأمور التي عادةً ما تُصعِّب على نماذج الذكاء الاصطناعي عملية طلب الجوارب عبر الإنترنت.

نعم، الكلمة التي نهمس بها جميعًا عندما يتعلق الأمر بالبيانات: تبدأ بحرف B... التحيزات.

 

ماذا يقول ميتا عن هذا الأمر

فريق العلاقات العامة في ميتا موجود هنا ليقول:

"لقد جعلناها أكثر ذكاءً، وأسرع، وأكثر توازناً، وأقل تحيزاً، وأوه نعم - قد تتعامل مع أسئلتك المثيرة للجدل دون ذعر."

يبدو أن Llama 4 يرفض 2% فقط من الأسئلة الحساسة اجتماعيًا أو سياسيًا، مقارنة بـ 7% من Llama 3.

تقول شركة Meta إنها ليست أفضل في الإجابة فحسب، بل إنها أكثر حيادية أيضًا.

ماذا يعني ذلك؟ هذا يعني أنهم يريدون أن يبدو النموذج أقل ميلاً إلى أن يكون مدير موارد بشرية نشيطاً، وأكثر ميلاً إلى أن يكون شخصاً هادئاً جداً في نقاش ساخن على العشاء.

ميتا تريد أن تقول:

هذا ليس نموذجًا يتهرب من الأسئلة الصعبة، بل هو نموذج يشرح.

ونعم - هذا ادعاء جريء.

 

كيف يرتبط كل هذا معًا

اللاما وحدة ماجستير في القانون مجانية للمطورين. هل ترى ما تهدف إليه ميتا؟ أجل - إبقاء المستخدمين (والمطورين) ضمن منظومتهم.

لا نتظاهر بأن لاما ٤ مخصصة للمطورين فقط. بالتأكيد، سيستخدمونها للتطوير.

لكن من يهتم بالمستخدمين الحقيقيين؟ هم الأشخاص الذين يستخدمون ما يبنيه هؤلاء المطورون.

وتخيلوا؟ ليسوا خبراء في سرعة البديهة. ليسوا مهندسين. إنهم أشخاص يديرون متاجر صغيرة، ويديرون رسائل مباشرة، ويكتبون رسائل غير مكتملة على واتساب.

وهنا تصبح التحيزات والرفض مشكلات تتعلق بتجربة المستخدم - لأن المدخلات البشرية الحرة غير متوقعة.

إنهم يبتكرون حلاً في سوق الذكاء الاصطناعي يدعم قاعدة مستخدميهم - الشركات الصغيرة، والمجتمعات العالمية، والمستخدمين العاديين. هذا أقرب إلى خدمة العملاء (B2C) منه إلى خدمة المطورين (B2D).

وهذا يعني:

  • الكتابة الحرة

  • صياغة أقل تعقيدًا

  • أخطاء مطبعية في القرية العالمية

  • الفروق الثقافية

... كل هذا يمكن أن يؤدي إلى تحريف المحادثة وإرباك النموذج.

لذا عندما تقول ميتا أن نسبة الرفض 2% فقط، إذا كان هذا الرقم صحيحًا، فهذا يعني تحسنًا هائلاً.

لا يتعلق الأمر بإزالة الأخلاق، بل بتقليل الارتباك.

 

لماذا حدث هذا حقًا (رأينا)

لأن عام ٢٠٢٥ قادمٌ بسرعة. وقد أخبرت ميتا المستثمرين:

"سيكون لدينا مليار شخص يستخدمون Meta AI بحلول نهاية العام."

...ولا يمكنك الوصول إلى هذا الهدف من خلال إنشاء نموذج يقول:

"آسف، لا أستطيع المساعدة في ذلك."

يعلم ميتا أن المستخدمين الحقيقيين يسألون أسئلة غريبة ومحرجة، وأحيانًا سياسية. ولا يروق للمستخدمين الحقيقيين أن يرفض روبوت الدردشة طلباتهم.

لذا قاموا بالتعديل. حسّنوا الوضع. والآن، يبدو أن لاما ٤ هو معالج ذو خلفية تقنية.

لنكن واضحين: إنهم لا يفعلون ذلك لمجرد المتعة أو العدالة، بل لأن عائد الاستثمار يعني أن الناس مضطرون لاستخدامه بالفعل.



وبالمقارنة مع النماذج الأخرى؟

  • OpenAI؟ لا يزال طالبًا أنيقًا في مدرسة خاصة. ذكي ولكنه مُحاط بحراسة مشددة.

  • أنثروبي؟ في الأساس، معطف مختبر تعلم التحدث.

  • جوجل جيميني؟ يحاول أن يكون مساعدك الشخصي، وفي الوقت نفسه يدافع عن نفسه في المحكمة.

  • ميتا لاما ٤؟ اللعبة التي تحاول كسب ثقة المطورين وأمهات فيسبوك في آنٍ واحد.

ليس مغلقًا كـ OpenAI، وليس غامضًا كـ Claude. إنه فقط... يسعى لكسب الإعجاب. كثيرًا.

 

منظور الضوء المتجمد:

لسنا هنا للحكم على ما يرفضه النموذج أو يقبله، بل نراقب كيف يتحول التحيز إلى قرار تجاري.

وهذا هو التحول الحقيقي:

  • لا يتعلق الأمر بما هو صحيح.

  • إن الأمر يتعلق بما هو قابل للاستخدام.

  • وما الذي يجعل مليار شخص يقولون: "نعم، سأستخدم هذا".

تريد Meta استخدام Llama 4 في كل مكان — ليس لأنه الأذكى — ولكن لأنه الأكثر راحة للمحادثات B2C ضمن نظامها البيئي.

لم يعد التحيز مرتبطًا بالسياسة، بل يتعلق بقدرة والدتك، أو مدير متجرك، أو متدربك على كتابة شيء غريب والحصول على إجابة مفيدة.

إنها تدور حول قرية عالمية - والحقيقة أن المحادثة وسوء الفهم أمر صعب بالفعل، حتى بين البشر.

فكر فقط في المرة الأخيرة التي أسيء فهمك فيها.

هذه ليست أخلاقيات الذكاء الاصطناعي، بل تسويقه.

ما زلتُ أشاهد. ما زلتُ أضحك. ما زلتُ أتساءل عمّا يفكر فيه ثلاجتي.

— ضوء متجمد 🧠✨

لقراءة المزيد .

Share Article

Get stories direct to your inbox

We’ll never share your details. View our Privacy Policy for more info.