أطلقت شركة Tencent برنامجها الأول في مجال LLM في مجال التفكير، T1، وركزت العناوين الرئيسية على التكنولوجيا:
مُصمم خصيصًا للمؤسسات. يُركز على المنطق. صُمم لاتخاذ القرارات.
ولكن في AI Thinking، ما لفت انتباهنا لم يكن الهندسة المعمارية، بل كان القصد.
والأهم من ذلك، ما تقوله هذه النية عن الثقافة.
🤖 الذكاء الاصطناعي يعكس الثقافة التي تبنيه
نسمع غالبًا كلمة التحيز في مجال الذكاء الاصطناعي، والتي يتم وصفها عادةً على أنها مشكلة يجب علينا القضاء عليها.
ولكن هذا ما تفتقده معظم المحادثات:
التحيز هو مجرد كلمة أخرى للثقافة.
التحيز هو ميلنا إلى تفضيل فكرة أو منظور أو نتيجة على أخرى - غالبًا دون أن ندرك ذلك.
إنها الطريقة التي يتم تدريبنا بها على التفكير كمجموعة داخل مجتمعنا.
الطريقة التي نكتب بها المطالبات، وندرب النماذج، ونفسر النتائج؟
إنها تتشكل من خلال الافتراضات والقيم والأهداف التي يتبناها الأشخاص الذين يقومون ببناء النظام، أو بعبارة أخرى، ثقافتهم.
إن ما يبدو "تحيزًا" لشخص ما قد يبدو "هيكلًا" أو "منطقًا سليمًا" لشخص آخر.
إنه ليس خطأ، إنه إنساني.
يصبح هذا مهمًا بشكل خاص مع برامج الماجستير في القانون المنطقي، والتي تم تصميمها لمتابعة سلاسل الفكر.
إذا لم تتوافق هذه السلاسل مع طريقة تفكيرنا، فلن نتمكن من التواصل معها.
لكي يكون نموذج مثل T1 مفيدًا، يجب أن يكون منطقه منطقيًا ثقافيًا بالنسبة لنا.
🇨🇳 ماذا يخبرنا T1 عن Tencent (والصين)
T1 ليس هنا للدردشة أو الإبداع أو الترفيه.
إنه هنا للتفكير، ولدعم عملية صنع القرار المؤسسي.
المالية. الرعاية الصحية. التعليم. الحكومة.
لم يتم إنشاء هذه اللعبة من أجل اللعب، بل تم إنشاؤها من أجل الهيكل والمنطق والنظام.
وتم تدريبه على بيانات المؤسسة المحلية.
وهذا لا يتعلق فقط باستراتيجية المنتج.
هذا هو التفكير التصميمي الثقافي.
تم تدريب T1 ليعكس التفكير الصيني، وسوف يقوم بمحاكاة أنماط التفكير الثقافي تلك.
في حين يركز ChatGPT على المحادثة والإبداع، ويدعم Gemini إنتاجيتك بهدوء،
تعمل شركة Tencent على بناء الذكاء الاصطناعي الذي سيشغل مساحة في غرفة الاجتماعات.
لا يتعلق الأمر بالتكنولوجيا فقط.
يتعلق الأمر بكيفية تصور الثقافات المختلفة لدور الذكاء الاصطناعي في المجتمع.
🔍 لماذا هذا مهم
عندما نتحدث عن استخدام الذكاء الاصطناعي في مؤسساتنا، فإننا نطرح عادةً الأسئلة التالية:
هل النموذج دقيق؟
هل هو آمن؟
أين يتم تخزين البيانات؟
هل هو متوافق مع أهدافنا التجارية؟
ولكننا نادرا ما نسأل:
👉 هل يتوافق ثقافيا مع كيفية تفكيرنا وعملنا واتخاذ قراراتنا؟
👉 هل يتطابق غرضه مع الطريقة التي نريد بها أن تعمل الذكاء الاصطناعي في عالمنا؟
👉 وإذا لم يكن الأمر كذلك، فهل سيؤدي عدم التوافق الثقافي إلى صعوبة فهم الناس له والتعاون معه؟
إذا تخطينا هذه الخطوة، فإننا نخاطر بتبني أدوات تتعارض مع هويتنا - وكيف نعتقد أنه ينبغي اتخاذ القرارات.
🧊 أفكاري
التحيز ليس عيبًا دائمًا.
في بعض الأحيان يكون ذلك بمثابة تمثيل لثقافتنا يظهر داخل النظام.
ما نؤمن به، وكيف نفكر، وما نقدره
يظهر كل ذلك في بياناتنا الشخصية والتنظيمية.
حتى الأفعال البسيطة، مثل قول "آسف" أو "شكرًا لك"، تعكس الأنماط الثقافية.
إنها تحمل معنى، وتشير إلى هويتنا.
وعندما يتعلق الأمر ببرامج الماجستير في القانون المصممة للتفكير، تصبح هذه الطبقة الثقافية ضرورية ــ لأن هذه النماذج مصممة لدعم القرارات.
لكن القرارات لا تُتخذ من الهواء.
نريد أن نصدق أن هناك منطقًا عالميًا واحدًا، وفكرة مشتركة واحدة من الحس السليم.
ولكن لا يوجد.
إن ما نحدده بأنه "قرار جيد" يتشكل من خلال كيفية رؤيتنا للعالم،
كيف نحدد النجاح، وكيف نتعامل مع التحديات.
إذا لم يتمكن فريقك من اتباع منطق LLM، فلن يثقوا في نتائجه.
وهذا المنطق - إطار القرار - يأتي من الثقافة الكامنة وراء النموذج.
هل تريد أن تفكر بشكل أوضح في الذكاء الاصطناعي الذي تستخدمه؟ دعنا نتحدث.
في AI Thinking، نؤمن بأن كل طالب ماجستير في القانون يحمل عقلية صانعيه.
إن فهم هذا لا يساعدك فقط في اختيار الأدوات المناسبة، بل يساعدك أيضًا على فهم نفسك في هذه العملية.
لذا قبل إدخال الذكاء الاصطناعي في عملك، توقف واسأل نفسك:
ما هو نوع الذكاء الذي نريد العمل به؟
لا يتعلق الأمر فقط بما يمكنه أن يفعله، بل يتعلق أيضًا بما تم بناؤه من أجله، وفي أي ثقافة تم بناؤه.
لأن الذكاء الاصطناعي في النهاية لا يعكس البيانات فحسب،
إنه يعكسنا.
هل تريد أن تفكر بشكل أكثر وضوحًا بشأن الذكاء الاصطناعي الذي تستخدمه؟