مع تفكير OpenAI في إطلاق منصة تواصل اجتماعي خاصة بها، وبحث Perplexity AI مؤخرًا عن استحواذ على TikTok، من الواضح أن شركات الذكاء الاصطناعي تتزايد اهتمامها بتسخير قوة وسائل التواصل الاجتماعي. وهذا منطقي تمامًا، إذ توفر منصات التواصل الاجتماعي تدفقًا لا ينضب من التفاعلات البشرية الحقيقية والبيانات، وهو بالضبط ما تحتاج نماذج الذكاء الاصطناعي إلى تحسينه.
ومع ذلك، لدي مخاوف.
لا تعد وسائل التواصل الاجتماعي مركزًا للمحادثات الحقيقية والتفاعلات ذات المغزى فحسب؛ بل إنها أيضًا المكان الذي تزدهر فيه المعلومات المضللة ونظريات المؤامرة والسلوكيات السامة.
غالبًا ما يتم تضخيم هذه الأصوات المظلمة لأن الجدل يحرك المشاركة، مما يجعل المحتوى الأعلى صوتًا ليس بالضرورة الأفضل أو الأكثر دقة.
السؤال الذي يجب أن نفكر فيه بجدية هو: هل نريد أن تُشكّل هذه البيئة أنظمة الذكاء الاصطناعي المستقبلية لدينا؟ يتعلم الذكاء الاصطناعي من المحتوى الذي يواجهه، وإذا كان يتغذى بشكل أساسي على الأصوات الأعلى صوتًا - والأكثر ضررًا في كثير من الأحيان - فإننا نخاطر بتدريب خوارزميات تُعزز السلوكيات السلبية بدلًا من التفاعلات البنّاءة والجديرة بالثقة.
من الواضح أن شركات الذكاء الاصطناعي تُدرك قيمة البيانات الهائلة لوسائل التواصل الاجتماعي، ولكن ربما يجدر بنا التوقف قليلاً لنتساءل عما إذا كان المحتوى الذي يتعلمون منه يعكس أفضل ما في التواصل البشري، أم أنه ببساطة الأكثر صخبًا. ففي نهاية المطاف، ترتبط جودة الذكاء الاصطناعي ارتباطًا مباشرًا بجودة البيانات التي يستهلكها.